CN105518486A - 追踪可移动目标物体的方位的系统和方法 - Google Patents

追踪可移动目标物体的方位的系统和方法 Download PDF

Info

Publication number
CN105518486A
CN105518486A CN201480034791.8A CN201480034791A CN105518486A CN 105518486 A CN105518486 A CN 105518486A CN 201480034791 A CN201480034791 A CN 201480034791A CN 105518486 A CN105518486 A CN 105518486A
Authority
CN
China
Prior art keywords
image
target object
translation
orientation
video camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201480034791.8A
Other languages
English (en)
Other versions
CN105518486B (zh
Inventor
J·J·特洛伊
S·W·莱安
D·J·莱特
G·E·格尔吉森
K·E·纳尔逊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Boeing Co
Original Assignee
Boeing Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Boeing Co filed Critical Boeing Co
Publication of CN105518486A publication Critical patent/CN105518486A/zh
Application granted granted Critical
Publication of CN105518486B publication Critical patent/CN105518486B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • G01S5/163Determination of attitude
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device

Abstract

自动处理使用本地定位系统以获取一个或多个可移动目标物体的方位(即,位置和取向)数据。在目标物体具有在计算机控制下移动的能力的情况下,该自动处理可以使用测量的方位数据以控制这种目标物体的位置和取向。该系统利用本地定位系统的测量和图像捕捉能力,并且集成了可控制的标记灯、图像处理以及坐标变换计算以提供追踪信息以用于交通工具方位控制。所产生的系统能够追踪物体在参考坐标系内的位置和取向。

Description

追踪可移动目标物体的方位的系统和方法
技术领域
本公开总体涉及用于追踪可移动目标物体(如,由计算机程序引导的履带交通工具或其他电动机械机器)相对于工件或零件移动时的方位的系统和方法。
背景技术
涉及使用履带交通工具或其他计算机控制的电动机械机器的制造处理的应用经常运用参考坐标系内的方位追踪。现有的方位追踪解决方案可以分为两类:绝对运动追踪和增量运动追踪。绝对运动追踪涉及到追踪被限定在参考坐标系(如飞机坐标系)内的位置和/或取向。用于绝对运动追踪的已知技术包含光学运动捕捉、激光追踪、深度摄像机、磁性追踪以及基于声波的追踪。
增量运动追踪测量相对于在前坐标测量值的位移。一种用于增量运动追踪的已知技术运用编码器,编码器响应于增量移动输出脉冲。在使用增量运动测量的应用中,误差可以随着时间累积。在要求相对于绝对坐标系有限的误差的实际情况中,这种误差累积是不可取的。因此,需要实现一种处理,其可以以较低的更新速率提供准确的绝对测量值,而该测量值可以被整合到以较高更新速率运行的增量运动测量系统内。
尽管存在其他的绝对测量系统以使用基于光学或图像的技术测量位置和取向,但是它们通常要求将多个摄像机放置在目标物体周围。使用单个“深度”摄像机的一种已知绝对测量系统具有受限的范围和区别具体特征的受限的能力。有利的是,能够使用单个标准视频摄像机来追踪位置和取向。
发明内容
本文公开的自动测量处理提供了生成相对(增量)追踪数据的系统内的绝对测量。本申请还使用由于采用单个摄像机配置而易于安装的便携低成本设备解决了自动运动追踪并控制如表面爬行交通工具等交通工具。当与测程法(或其他相对坐标测量)一起使用时,这种追踪系统可以为运动受控的交通工具提供绝对坐标校正方法。当没有与运动控制一起使用时,这种追踪系统仍可以提供追踪一个或多个物体在大体积内的方位的自动方法。
当可移动目标物体至少暂时静止(即,静止的时间足够长,使得可以完成该处理的测量部分)时,所述自动处理使用本地定位系统(LPS)获取一个或多个可移动目标物体的方位(即,位置和取向)数据。在目标物体能够在计算机控制下移动的情况下,这种自动处理可以使用测量的方位数据以校正该目标物体的位置和取向。该系统利用本地定位系统的测量和图像捕捉能力,并且将可控的标记灯、图像处理以及坐标变换计算整合以便为交通工具方位控制提供追踪信息。所产生的系统能够追踪物体在参考坐标系内的方位和取向,例如追踪飞机机翼表面上的履带交通工具。该系统提供了对其他类型的场外(off-board)追踪系统低成本的可替换物,其是便携的、易于安装并且能够由单个用户操作。
下文具体公开的主题的一个方面是当目标物体装备有被布置成已知图案的至少三个激活目标标记时用于确定三维参考坐标系内目标物体的当前方位的方法。该方法包括以下步骤:(a)定义摄像机相对于参考坐标系的方位;(b)当摄像机被定位在目标物体的中心上并且所有激活目标标记没有开启时捕捉图像;(c)当摄像机被定位在目标物体的中心上并且激活目标标记中的一个或多个开启时捕捉一个或多个图像;(d)处理图像以计算出表示所有激活目标标记没有开启时所捕捉的图像和激活目标标记中的一个或多个开启时所捕捉的每个图像之间的差异的差分图像;(e)针对与相应激活目标标记对应的差分图像内的不同区域,计算相应的平均像素坐标;(f)针对相应的激活目标标记,瞄准激光范围探测器并且在由相应的平移和倾斜角限定的方向上发射激光束,所述平移和倾斜角是至少所述目标物体被定位在所述摄像机的图像视场的中心内时的平移和倾斜角以及相应平均像素坐标和图像中心的像素坐标之间的差异的函数;(g)针对相应的激活目标标记,在发射相应激光束之后,获取相应的范围、平移以及倾斜数据;(h)基于测量的范围、平移和倾斜数据,计算与参考坐标系内激活目标标记对应的相应点的坐标;以及(i)将从测量的平移、倾斜以及范围数据中计算出其坐标的相应点的相应位置与被布置成已知图案的相应点的相应位置相比较以确定依据参考坐标系定义的目标物体的当前位置和取向。
根据一些实施例,步骤(c)包括当至少三个激活目标标记开启时捕捉一个图像。根据其他的实施例,步骤(c)包括当按序开启第一、第二以及第三激活目标标记时捕捉相应图像。
根据一些实施例,步骤(d)包括:基于所述差异,分割差分图像以包含与激活目标标记对应的分离区域;并且针对与激活目标标记对应的每个分离区域的相应圆心,计算差分图像内的相应的平均像素坐标。
根据另一方面,上述方法可以进一步包括:基于所述点之间的相对距离而测量点图案;并且基于测量的点图案和已知点图案之间的差异,计算表示参考坐标系内目标物体的方位的第一变换矩阵。在一些实施例中,已知点图案是非对称的。
根据又一方面,上述方法可以进一步包括:将目标物体放置在初始方位;计算表示目标物体相对于参考坐标系的初始方位的第二变换矩阵;从初始方位向当前方位移动目标物体;计算第二变换矩阵的逆;以及计算第一变换矩阵与第二变换矩阵的逆的乘积,该乘积是第三变换矩阵,其表示相对于目标物体的初始方位的目标物体的当前方位。根据一些实施例,该方法还包括响应于从初始方位到当前方位的移动期间目标物体的增量运动而生成编码器脉冲。
下文详细公开的主题的另一方面是方位追踪系统,其包括:平移倾斜机构;安装到平移倾斜机构的摄像机和激光范围探测器;装备有至少三个激活目标标记的目标物体;以及以用于控制摄像机、激光范围探测器以及平移倾斜机构的第一软件、用于处理通过摄像机获取的图像的第二软件以及用于控制目标物体的运动和至少三个激活目标标记的状态的第三软件编程的计算机系统。
根据前述段落中描述的方位追踪系统的一个实施例,第一软件包括用于命令平移倾斜机构使摄像机瞄准目标物体并且命令所述摄像机捕捉目标物体的图像的例程;第二软件包括用于处理捕捉的图像以计算表示激活目标标记没有开启时所捕捉的图像和激活目标标记中的一个或多个开启时所捕捉的每个图像之间的差异的差分图像的例程;以及第三软件包括用于控制每个激活目标标记的状态的例程。目标物体可以包括,例如,履带交通工具或机械臂的基座。在履带交通工具是完整运动的履带交通工具的实施例中,该系统可以进一步包括用于追踪履带交通工具的增量运动的装置。
方位追踪系统的另一个方面包括:平移倾斜机构;安装到平移倾斜机构的摄像机和激光范围探测器;装备有被布置成已知图案的至少三个激活目标标记的目标物体;以及计算机系统,所述计算机系统被编程以执行以下操作:(a)调节平移倾斜机构的平移和倾斜角以将摄像机定位在目标物体的中心上,使得激活目标标记处于摄像机的图像视场内;(b)当将摄像机定位在目标物体的中心上并且所有激活目标标记不开启时,命令摄像机捕捉图像;(c)当摄像机被定位在目标物体的中心上并且激活目标标记中的一个或多个开启时,命令摄像机捕捉一个或多个图像;(d)处理图像以计算表示激活目标标记没有开启时所捕捉的图像和激活目标标记中的一个或多个开启时所捕捉的相应图像之间差异的差分图像;(e)计算与相应激活目标标记对应的差分图像内不同区域的相应的平均像素坐标;(f)针对相应的激活目标标记,命令激光范围探测器在由相应的平移和倾斜角限定的方向上发射激光束,所述平移和倾斜角是至少所述目标物体被定位在图像视场的中心内时的平移和倾斜角以及相应平均像素坐标和指示器图像的中心的像素坐标之间差异的函数;(g)针对相应的激活目标标记,命令平移倾斜机构获取相应的平移和倾斜数据并且在发射相应的激光束之后,命令激光范围探测器获取相应的范围数据;(h)基于测量的范围、平移和倾斜数据,计算与参考坐标系内的激活目标标记对应的相应点的坐标;以及(i)比较从测量的平移、倾斜以及范围数据中计算出其坐标的相应点的相应位置与被布置成已知图案的相应点的相应位置,以确定目标物体关于参考坐标系的当前位置和取向。
下文公开了用于追踪可移动目标物体的方位的系统和方法的其他方面。
附图说明
图1是已知装备有编码器的移动装置的一些组件的示意俯视平面图,通过使用基于航位推测测程的处理可以追踪所述已知装备有编码器的移动装置的增量移动。
图2是瞄准目标物体的已知本地定位系统的示意等距视图。
图3是根据一种配置使用本地定位系统来追踪和控制履带交通工具的运动的系统的示意等距视图。
图4是在每个侧面上具有相应的三个激活目标标记组(仅一组可见)的履带交通工具的示意透视图。根据描述的实施例,激活目标标记是LED灯。
图5显示了图5A和图5B的相互关系,其包含显示了根据一个实施例的自动方位测量处理的步骤的流程图的相应部分。
图6是表示中间图像处理结果的示意图,其根据图5中描绘的处理通过使用图4中所示的履带交通工具产生。
图7是显示系统配置的方框图,在所述系统配置中,单个计算机运行多个处理。(可替换地,每个处理均可以在分离的计算机或处理器上运行)
图8是可以根据另一种配置执行机器人与零件定位处理的系统的示意等距视图。
图9是显示了机器人与零件定位处理的步骤的流程图,其运用了图8中描绘的所述类型的本地定位系统。
图10是一幅示意图,其在附录中被参考且显示了从仪器坐标系{A}的原点,基本沿着仪器的瞄准点轴延伸到感兴趣点P的位置向量AP,并且还显示了从目标物体坐标系{B}的原点延伸到感兴趣点P的位置向量BP。
图11-13是在附录中被参考的示意图,其中描述了用于计算坐标系变换的校准矩阵的说明性方法。
图14A-C是显示了用于设置适当的摄像机视场(缩放值)以确保所有的激活目标标记正好在LPS摄像机的图像帧的范围内的自动搜索和帧处理的示意图。
在下文将会参考附图,其中不同附图中的相似元件具有相同的参考标记。
具体实施方式
根据本文的教导,可以提供方位追踪系统,其可以在例如使用位置编码器递增地追踪的运动完成之后测量可移动目标物体在绝对坐标系中的方位。如果绝对坐标测量系统确定暂时静止的目标物体的当前方位偏离了期望方位超过可配置的公差,则可以命令目标物体向着校正方位移动。因此,可以利用本文公开的绝对坐标测量处理来校正相对坐标测量中的误差。
增量运动测量系统的一个示例是基于航位推测测程法的系统。由于小误差会随着时间积累,所以任何基于航位推测的方案都将具有测量不准确性。测量不准确性可以由于装置中的系统误差造成,或者由环境内不期望的改变引起的扰动造成。图1是装备有编码器的移动装置的一些组件的示意俯视平面图,该移动装置的增量移动可以通过使用美国专利申请No.13/796,584中公开的基于航位推测测程法的处理而被追踪。这种装置具有正交的双差分(double-differential)配置的四全方位轮。这种追踪装置可以被连接或安装到装备有末端执行器的履带交通工具(图1中未显示)。图1中显示的装置包括矩形框架4和通过相应的轴6a-6d和轴轴承(未显示)可旋转地安装到框架4的四个双排全方位轮4a-4d。相应的编码器8a-8d测量全方位轮4a-4d的旋转。当全方位轮在表面上滚动时,编码器8a-8d在每个全方位轮的每次增量旋转之后经由编码器电缆(图1中未显示)向操作控制中心发出表示相应编码器计数的编码器脉冲。每个编码器将输出与相应全方位轮的旋转的角度成比例的编码器计数。这些编码器脉冲将由计算机系统(图1中未显示,但是可在图7中看到)接收,所述计算机系统计算该装置的X坐标和Y坐标。
当编码器脉冲的计数指示装置已经到达期望的方位时,控制系统使装置停止。然后可以检查停止的装置的当前方位以确定其可能偏离期望方位的范围。根据本文的教导,通过以较低的更新速率获取准确的、绝对的测量值可以对相对运动测量值进行校正。该绝对测量处理(当目标物体停止时进行)可以被整合到以较高更新速率运行的相对运动测量系统内,当目标物体正在移动时,所述相对运动测量系统获取相对运动测量值。根据下文公开的一个实施例,较低更新速率的基于LPS的处理提供了对较高更新速率的测程系统的校正。
本文公开的追踪方法是自动的处理,其合并了目标物体上的激活灯(activelight)和图像处理以计算目标物体的位置和取向。本文还使用了图2中描绘的所述类型的本地定位系统(LPS),该系统在可控平移倾斜单元上具有单个摄像机和激光范围计量器。美国专利No.7,859,655公开了LPS操作和校准处理。
更具体地说,图2中描绘的本地定位系统包括视频摄像机40,其可以具有自动(遥控)缩放功能。视频摄像机40可以还包含集成的十字丝发生器以促进精确定位视频摄像机的光学图像场显示器内的点。视频摄像机40被支撑在平移倾斜机构42上。视频摄像机40和平移倾斜机构42可以由计算机48操作。计算机48通过视频/控制电缆46与视频摄像机40和平移倾斜机构42通信。可替换地,计算机48可以通过无线通信路径(未显示)与视频摄像机40和平移倾斜机构42通信。使用计算机48的键盘或其他输入装置可以控制平移倾斜机构42的平移(pan)和倾斜角度,并且因此控制视频摄像机40的取向。由视频摄像机40看到的覆盖十字丝的光学图像场可以被显示在计算机48的监视器上。
平移倾斜机构42被控制以将视频摄像机40围绕垂直方位角(平移)轴和水平俯仰(倾斜)轴可定位地调节到选择的角度。描绘了摄像机相对于三脚架44(或其上附接平移倾斜单元的其他平台)的固定坐标系的取向的方向向量12根据平移和倾斜角以及摄像机瞄准感兴趣点时光场内十字线标记的中心的位置来确定。该方向向量12可以被描绘为自摄像机40的透镜延伸且在目标物体30的某方位相交的线。
激光范围计量器可以被合并到摄像机40壳体的内部,或者用某种方式安装到摄像机40的外部,所述方式使得激光范围计量器沿着方向向量12发射激光束。激光范围计量器被配置为测量到目标物体30的距离。激光范围计量器可以具有激光器和被配置为响应于目标物体30反射的激光束基于检测到的激光来计算距离的单元。
图2中所示的本地定位系统进一步包括被装载到计算机48内的三维定位软件。例如,三维定位软件可以是使用目标物体30上的多个校准点14来限定视频摄像机40相对于目标物体30的方位(位置和取向)的类型的三维定位软件。校准点14可以是由特征位置(如,CAD模型)的三维数据库或其他的测量技术确定的目标物体30在局部坐标系内的已知位置的可视特征。在LPS校准处理期间,从CAD模型中提取至少三个非共线点的X、Y、Z数据。一般,选择的校准点对应于可以被容易地定位在目标物体上的特征。三维定位软件利用了校准点14的X、Y、Z数据以及来自平移倾斜机构42的平移和倾斜数据以限定视频摄像机40相对于目标物体30的局部坐标系的相对位置和取向。测量的到校准点14的距离可以与自平移倾斜机构42的平移和倾斜角相协调地使用以求解相对于目标物体30的摄像机位置和取向。美国专利No.7,859,655公开了一种用于生成目标校准变换矩阵(有时被称为摄像机姿态)的手段的方法。通过使用已知和测量的数据,校准处理(附录中更加详细地描述)计算出限定摄像机相对于目标物体的位置和取向的4×4的齐次变换矩阵。
一旦已经确定视频摄像机40关于目标物体30的位置和取向并且已经生成摄像机姿态变换矩阵,则可以结合视频摄像机40的计算的位置和取向来使用摄像机平移数据(视频摄像机40绕方位角轴的旋转角度)和倾斜数据(视频摄像机40绕俯仰轴的旋转角度),从而确定目标物体30上任何感兴趣点在目标物体坐标系内的X、Y以及Z坐标。
可以用类似的方式扩展和应用前述定位和运动追踪处理以确定目标物体上任何感兴趣点在绝对(参考)坐标系内的X、Y以及Z坐标。例如,本地定位系统可以用于追踪履带交通工具10的运动,所述履带交通工具10正在处于飞机参考坐标系内的飞机机翼50上移动,如图3所描绘的。更具体地说,本地定位系统可以追踪在飞机参考坐标系内的履带交通工具坐标系原点的方位。基于履带交通工具坐标系原点的位置从初始位置到当前位置的差来计算前述变换矩阵内的X、Y及Z值。所述原点可以被限定在履带交通工具(或其他目标物体)上任何地方。在图3中,履带交通工具坐标系原点被显示处于点P1。
除了LPS控制软件以外,计算机48还以图像处理软件编程,所述图像处理软件能够检测出视频摄像机40获取的图像组之间的差异。在运动控制与运动追踪组合的情况下,计算机48被进一步以履带运动控制软件编程,该履带运动控制软件经由电缆38与履带交通工具10上的处理器通信。在替换的示例中,LPS控制软件、图像处理软件以及履带运动控制软件可以运行在通过网络或总线通信的分开的计算机或处理器上。
自动绝对测量处理通过捕捉一系列具有激活灯(下文称为“激活目标标记”)的图像而工作,例如,附接到暂时静止的目标物体的表面的计算机控制的发光二极管(LED)。在图3所示的示例中,点P1、P2及P3指示三个激活目标标记的位置。
图4是完整运动履带交通工具52的示意透视图,其具有四个麦克纳姆(Mecanum)轮54(仅两个可视)、四个全方位轮55(在图4中仅一个是可视的)、交通工具下的两个吸力区(未显示)以及每侧上相应成组的三个LED灯56a-c(图4中仅一组是可视的)。美国专利申请No.13/210,899公开了图4中描绘的该类完整运动履带交通工具的有关结构和功能的细节。根据图4中描绘的实施例,LED灯56a-c在履带交通工具外壳上被布置成非对称图案。每个LED灯具有在履带交通工具52的外壳58上突出的大体半球形灯泡。
绝对测量处理通过获取具有LED灯56a-c关闭的图像并且然后将灯开启并且获取另一图像(或反之亦然)来实施。该处理的两种变体已经被开发出:一种是同时开启所有的灯,而另一种是按特定顺序开启灯。第一种方法稍微更快,其运用了目标物体表面上的非对称的光图案。第二种方法在区别多个光的方面更鲁棒并且不要求光图案是非对称的。
绝对测量系统以有限的时间间隔产生位置和取向数据。连续的测量之间的时间间隔取决于平移倾斜马达必须在目标点之间移动的距离、激光范围计量器的更新速率以及图像处理的速度。通过使用更快的图像处理和更快的激光范围计量器,可以改善测量周期的持续时间。该系统可以用于追踪多个目标物体的方位,但是追踪的目标物体越多,对每个目标物体更新之间的时间越长。
在绝对测量处理开始之前,可以对摄像机进行测试以确定适当的失真校正,从而补偿由于不同于理想“针孔”摄像机的光学器件而产生的图像扭曲。同样,校准了本地定位系统与期望的参考坐标系(如飞机坐标系)。该处理提供了相对于目标物体的摄像机姿态并且被表示成4×4的齐次变换矩阵。
图5A和图5B显示了根据一个实施例的自动绝对测量处理的主要元素。参考图5A,使用先前描述的方法,首先校准本地定位系统和期望参考坐标系(如,飞机坐标系)(步骤100)。然后,向着期望的方位移动目标物体(如,履带交通工具)并且当增量运动测量系统指示当前方位足以靠近期望方位时停止移动(步骤102)。对于所述当前方位,本地定位系统将确定履带交通工具在参考坐标系内的位置和取向。在步骤104,改变本地定位系统的方向向量(使用平移和倾斜轴)以确保所有激活目标都在视场内。更具体地说,调整LPS平移和倾斜角以将摄像机定心在目标物体上,从而使三个激活目标标记(以某种图案安装在目标物体上)处于图像视场内。为了说明的目的,测量处理的以下进一步描述将假设激活目标标记是灯(如,LED)。
在所有激活目标标记都在图像视场内的情况下,开始获取图像数据的处理。该处理涉及光激化(lightactivation)和图像捕捉。在步骤106,当灯关闭且储存了当前平移和倾斜角时,捕捉参考图像。在步骤108,开启灯并且捕捉一个或多个指示器图像(使用与步骤106中所使用的相同的平移和倾斜角)。可替换地,当灯开启时,可以捕捉参考图像,并且当灯关闭时,可以捕捉指示器图像。可以使用两种技术中的任一种捕获指示器图像(或多幅图像)。根据一种技术,灯被一次一个地循环并且捕捉每个状态下目标物体的分离的图像(即,如果利用三个灯,则具有目标物体的三个分离的状态和三个分离的图像)。根据另一种技术,目标物体被装备有被布置成非对称图案的一组灯,并且当该组内所有的灯被开启时,捕捉一个图像。
仍然参考图5A,通过处理所获取的图像数据,计算每个灯相对于指示器图像的像素坐标(步骤110)。首先,对每幅图像应用失真函数校正(使用关于光学器件的信息)。第二,计算表示参考图像和一个或多个指示器图像之间差异的差分图像。第三,将差分图像分割成分离的区域,这可以包含使用尺寸、颜色、形状或其他参数进行过滤。图像分割意味着用特定特性限定一组像素。根据一种实施方式,发现彼此紧邻(即,连续区域)的特定颜色和亮度的像素。差分图像将同样具有将被过滤出的一些小的伪像(例如精细的边缘轮廓)。这可以利用模糊过滤器和亮度阈值过滤器完成。图6中示意描绘的分割图像94内显示了分割结果。三个圆圈表示图像内与图4中描绘的履带交通工具52上的LED灯56a-c对应的分割区域98a-c。(为了简便起见,图6中的分割区域被显示为圆圈,但是在实际中,图像内的一些或全部分割区域将不是正圆形,因为摄像机的方向向量很少与灯的对称轴精确地对准。)在图像已经被分割之后,计算机计算每个分割区域98a-c的圆心。圆心是所述区域的平均X像素坐标和平均Y像素坐标。这些X-Y坐标对被用于计算与图像中心的X-Y坐标对的差。
再次参考图5A,一旦已经计算出每个分割区域的平均像素坐标,就计算图像内每个区段圆心位置方位的相应平移和倾斜角度(步骤112)。这些平移倾斜机构的平移和倾斜角将被用于将本地定位系统的激光范围探测器取向(即,引导)在目标物体上每个激活目标标记处。图像中心的LPS平移倾斜角已经是已知的,连同到目标物体的距离(从步骤104)。用于引导本地定位系统以瞄准每个激活目标标记(即,LED)的方法使用每个圆心与图像中心的像素偏移、摄像机的当前视场角度以及在图像中心处到目标的距离来计算偏移平移和偏移倾斜角,该偏移平移和偏移倾斜角被计算机馈送到本地定位系统。计算机指示本地定位系统使用偏移平移和偏移倾斜角对与分割区域的圆心对应的方位进行自动LPS测量。这意味着轮流将激光范围探测器瞄准每个激活目标标记并且测量每个激活目标标记的范围、平移和倾斜数据(步骤114)。
现在参考图5B,基于测量的范围、平移和倾斜数据,计算激活目标标记的笛卡尔坐标(在参考坐标框架内)(步骤116)。然后,计算激活目标标记的中心坐标之间的相对距离,并且将它们的比率与已知图案的对应比率进行比较以确定每个点的相应索引数字(步骤118)。如果获取分开的图像的同时按顺序开启灯,则使用图像次序对图像区段编号。可替换地,如果获取单一图像的同时所有的灯同时开启,则使用每个测量点的笛卡尔坐标计算测量点之间的距离向量,并且与目标物体上灯位置的已知图案内的点相比较。
在索引步骤之前,本地定位系统已经测量了目标物体上的三个已知点并且将它们转换成参考坐标系内限定的笛卡尔(X,Y,Z)坐标。为了使用这些点以便与它们的参考位置进行比较,每个测量点必须与图案的合适参考点关联。但是点被测量的次序可能是一次与下一次不同的,这取决于履带交通工具相对于LPS摄像机的取向。为了解决该可能的对应性不匹配,测量点将被重新排序以匹配参考点的顺序。这将通过比较测量点的相对距离(向量长度)的比率与参考点的相对距离的比率来进行。然后,测量点将被重新排序(即,改变阵列索引)以匹配参考点次序。
一旦已经完成再次索引,就基于已知初始点图案和测量点图案之间的差异来计算描述目标物体的当前位置和取向的4×4的齐次变换矩阵(步骤120)。该处理在附录中详细描述。
仍然参考图5B,应用步骤120内计算的变换矩阵以将计算的方位转换成机器人控制坐标(步骤122)。根据参考坐标系限定步骤120内计算出的变换矩阵,但可以根据与参考坐标系原点不同的初始起始点来限定履带交通工具的运动路径。如果是这种情况,那么描述了相对于参考坐标系的初始方位的变换矩阵的逆预乘以步骤120中计算出的变换,这限定了目标物体相对于参考坐标系的当前方位。该结果是描述了相对于初始方位的当前方位的变换。该计算被显示为如下等式:
T C I = ( T I R ) - 1 T C R
其中T表示4×4的齐次变换矩阵;而R、I以及C下标/上标分别表示参考方位、初始方位以及当前方位。
然后,发送表示目标物体的当前位置和取向的数据以便显示或可以使用该数据的其他处理(步骤124)。
图5A和图5B中呈现的流程图描述了以上方法以用于灯处于目标物体上非对称图案且针对指示器图像被同时激活的情况。
在图5A的步骤104中,用于改变本地定位系统的方向向量以将摄像机瞄准目标物体的处理涉及确定LPS平移倾斜机构的平移和倾斜角并且设置合适的摄像机视场(缩放值)以确保所有的标记正好在图像帧的范围内。这可以手动进行,通过操作者调节平移、倾斜以及缩放控制以制定(frame)LPS摄像机的视场内的指示器灯。可替换地,自动搜寻和制定处理可以由系统进行以将手动进行的步骤从循环中抽出。该自动处理被显示在图14A-C中,并且接下来会被描述。如图14A所见,该处理通过设置宽视场角度(θ1)并且捕捉标记图案指示器灯关闭的一幅图像和指示器灯开启的另一幅图像而开始。计算差分图像以确定指示器灯是否在摄像机的当前视场内,如果发现指示器灯不在摄像机的当前视场内,则使用平移倾斜机构(未显示)改变LPS瞄准方向以旋转摄像机40以便看到工作空间内的另一个区域,其中新的视场区域可以部分地重叠先前的视场区域(图14B所示),在此之后,捕捉环境的两幅图像,同时如前所述地循环指示器灯。涉及旋转瞄准方向和循环指示器灯的搜索处理继续,直到标记图案位于环境内。最后步骤(图14C所示)是将瞄准方向定心在灯的范围之间并且然后缩窄摄像机视场(θ2)以制定所有的灯。
如果目标物体的运动是计算机可控的,那么可以进行以下额外的步骤:(1)计算相对于目标物体的当前方位的要求的校正移动;(2)将表示方位的期望改变的数据发送到控制目标物体的运动的一个或多个机载处理器;(3)当目标物体向校正的方位移动时,追踪该目标物体的增量移动;以及(4)在增量运动测量系统指示目标物体已经到达校正的方位后,目标物体停止并且然后可以再次运行绝对测量处理以确认目标物体的新的当前方位和校正的方位都在可配置公差内。
图7是显示某种系统配置的框图,在所述系统配置中,单个计算机48运行多个处理。(可替换地,每个处理均可以在分离的计算机或处理器上运行。)单个计算机48被以下软件编程:LPS控制软件,当LPS控制软件运行时,其能够使计算机作为LPS控制器26;图像处理软件28;以及履带控制软件,当其运行时,能够使计算机作为履带控制器32。系统操作者可以通过计算机键盘或其他用户接口硬件36(如,游戏键盘)与计算机48接合。
LPS控制器26控制LPS硬件22(包含激光范围探测器、视频摄像机以及平移倾斜机构)的操作。图7中的虚线箭头表示由履带交通工具上激活目标标记生成并且被视频摄像机看到(在图像获取步骤期间)的光,以及测量处理期间由目标反射给LPS硬件22的激光范围探测器的激光束。
图像处理软件28进行图5A中所示步骤110的执行中所涉及的操作,即,失真函数校正、图像差分、图像分割以及计算每个图像区段的圆心的像素坐标。该系统进一步包括显示监视器34以便显示获取的图像。
履带控制器32控制履带交通工具10的操作,包含指示器灯的激活、驱动一组麦克纳姆轮旋转的步进马达的控制以及吸力装置的控制。履带交通工具可以进一步包括一组全方位轮和相应的一组轮旋转编码器,如关于图1在先前描述的。经由电缆将来自轮旋转编码器的表示编码器计数的编码器脉冲发送到履带电子系统16的数据获取装置18。履带交通工具10经由相同的电缆从履带电子系统16的电源20接收电力。
当履带交通工具10正在移动时,数据获取装置18接收编码器计数并且将它们转换成具有计算机48可接受格式的信号。基于编码器计数数据,履带控制器32计算绝对角度θ和在每个更新步骤改变履带交通工具10的相对位置ΔPx和ΔPy,并且然后使用绝对角度并且改变相对位置以计算履带交通工具上一点的绝对位置Px和Py。然后使用θ、ΔPx以及ΔPy,可以通过使用美国专利申请No.13/796,584公开的旋转矩阵来计算绝对位置。
如果履带控制器32确定编码器计数指示履带交通工具10已经到达了其目标方位,则履带控制器32命令履带交通工具10停止(图5A中的步骤102)。然后,LPS控制器26命令LPS硬件22调节平移和倾斜角以使视频摄像机瞄准目标物体(图5A中的步骤104)并且然后捕捉参考图像(图5A中的步骤106)。接着,履带控制器32激活履带交通工具10上的灯,之后LPS控制器26命令LPS硬件22捕捉指示器图像(图5A中的步骤108)。然后计算机运行图像处理例程,图像处理例程计算灯在指示器图像内的像素坐标(图5A中的步骤110)。然后LPS控制器26计算图像内每个区段中心位置方位的相应平移和倾斜角(图5A中的步骤112),针对每个激活目标标记获取范围、平移以及倾斜数据(图5A中的步骤114),以及针对每个测量点计算笛卡尔坐标(图5B中的步骤116)。进行图5B中所示的步骤118、120以及122的例程可以是LPS控制软件、图像处理软件或分离的软件模块的一部分。
可以使用关于履带交通工具的估计方位的信息执行将LPS视频摄像机初始瞄准目标物体,所述信息由涉及增量轮编码器数据的定位处理提供。该瞄准方向只需要是近似的,因为图像处理和测量将确定实际方位。如果初始估计的方位没有提供包含整组激活目标标记的摄像机视图,则可以调节摄像机视场(如,扩大缩放水平),连同进行视图的重新定心,从而使所有激活目标标记均是可视的,类似于参考图14A-C在上文描述的定心和制定处理。
上文公开的技术也可以用于确定机械臂相对于工件(下文为“零件”)的位置和取向。如图8所示,本地定位系统可以用于确定零件90和机械臂86的基座84之间的相对偏移,机械臂86可以在其远端携带末端执行器88。机器人控制器80控制机械臂86并且操作末端执行器88以便在零件90上进行机械加工操作。
基本的处理顺序如下:(1)本地定位系统通过测量零件上的三个已知点92a-c来校准零件90的坐标系;(2)本地定位系统测量机器人基座84上的三个已知点94a-c;(3)在计算机48内运行的LPS控制软件计算机器人基座84相对于零件90的坐标系的方位;(4)计算机48向机器人控制器80发送方位数据。
计算机48上的LPS控制软件输出如X、Y以及Z值的点数据,但是控制应用程序需要比X、Y及Z数据点更多的数据点来提供零件的位置和取向。为了解决位置和取向问题,来自三个测量点92a-c的X、Y及Z数据以及这些点的已知维度被用于计算全部6自由度位置和取向表示。这就是先前描述的定位软件所做的。定位软件使用的位置和取向格式是4×4的变换矩阵,但是还有其他的方式来表示数据。
除了履带交通工具之外,上文公开的定位方法还应用到机器人系统。用于生产任务的商业机器人应用具有一种限定机器人和其他零件相对于工作间的原点的方位的方式。这种方式包含位置和取向偏移限定两者。还有许多等同的方式来限定这种偏移信息,例如:4×4的变换矩阵、四元数+变换、角度-轴+变换,或者欧拉角(Eulerangle)+变换。可以修改上述定位处理以输出机器人控制器80可接受的各种格式。
插口连接(socketconnection)可以用于将数据从计算机48传输到机器人控制器80,但是为了商业可用应用,文档可以工作得同样良好。一些控制器可以具有通过插口接受输入数据的API;其他控制器可以仅仅允许从文档读取偏移数据。因此,根据一些实施例,可以使用文档共享方法。
使用手动点测量的一个示例程序(图9中描绘)如下:(1)获取并且储存零件90上的三个可视参考点92a-c(步骤90)和机器人基座84上的三个可视参考点94a-c(步骤68)(对每组参考点进行一次步骤60和68);(2)当零件处于期望的方位时,使用本地定位系统以测量零件90上的三个参考点92a-c(步骤62)(该步骤等同于标准的LPS校准);(3)当机器人基座处于期望的方位时,使用本地定位系统以测量机器人基座84上的三个参考点94a-c(步骤70);(4)使用定位处理64计算零件90相对于机器人基座84的位置和取向偏移;以及(5)向机器人控制器80发送位置和取向偏移数据(步骤66)。
用于自动点测量的示例程序如下:(1)获取并且储存零件90上的三个可视参考点92a-c和机器人基座84上的三个可视参考点94a-c(对任意参考点组进行一次该步骤),所述可视参考点由LED方位限定;(2)使用本地定位系统以获得一张零件90上LED图案的照片,其中LED被开启,并且获得LED关闭的零件90上LED图案的另一张照片;(3)使用本地定位系统自动地测量零件90上的点并且比较测量点与已知点;(4)使用本地定位系统获得一张机器人基座84上LED图案的照片,其中LED被开启,并且获得LED关闭的另一张照片;(5)使用本地定位系统自动地测量机器人基座84上的点并且比较测量点与已知点;(6)使用定位处理计算零件90相对于机器人基座84的位置和取向偏移;以及(7)向机器人控制器80发送位置和取向偏移数据。
前述方法可以在每个工作顺序的开始时使用以建立机械臂的基座和工件的相对位置。机器人控制器将能够计算出末端执行器相对于机器人基座的位置和取向(使用其他的传感器和运动学数据)。如果参考坐标系是工件的坐标系,那么图8中所示的系统可以确定机械臂的基座(和末端执行器)在工件坐标系内的位置。相反,如果参考坐标系是机器人基座的坐标系,则该系统可以确定工件在机器人基座坐标系内的位置。
总之,上文公开的本地追踪系统使用单个摄像机,可以与基于测程的追踪集成,并且可以追踪多个物体(如果测量顺序是相移的,则按顺序方式追踪)。当与基于编码器的测程法集成时,该系统容忍间歇性闭塞(intermittentocclusion)。还有,该系统不受磁场或含铁材料的影响。
虽然已经参考各种实施例描述了本地追踪方法,但是本领域技术人员将会理解的是在不离开本文教导的范围下,可以做出各种改变并且等同物可以替换其元件。此外,可以做出许多修改以使本文的教导适合特定情形而不离开本文的范围。因此,本文旨在权利要求不局限于本文公开的特定实施例。
如权利要求书中所使用的,术语“计算机系统”应该被广泛地解释为包含具有至少一个计算机或处理器的系统,该系统可以具有通过网络或总线通信的多个计算机或处理器。如前述句子所用的,术语“计算机”和“处理器”都指的是包括处理单元(如,中央处理单元)和用于储存处理单元可读的程序的某些形式的存储器(即,计算机可读介质)的装置。
如本文使用的,术语“方位”包括固定三维坐标系内的位置和相对于该坐标系的取向;并且术语“激活目标标记”指的是可激活目标标记(即,“激活目标标记”可以在激活和非激活状态之间切换)。
下文提出的方法权利要求不应该被解释为要求按照字母次序(权利要求中的字母次序仅被用于参考先前列举步骤的目的)或者按照它们被引用的顺序进行其中引用的步骤。它们也不应该被解释为排除可以同时或交替进行的两个或多个步骤的任何部分。
附录
图10显示了基本沿仪器的瞄准点轴从仪器坐标系{A}的原点延伸到感兴趣点P的位置向量AP,并且显示了从目标物体坐标系{B}的原点延伸到感兴趣点P的位置向量BP。
参考图10,当仪器坐标系622内的点P的坐标是平移(即,图10中到点P的向量AP的平移角度634)、倾斜(图10中到点P的向量AP的倾斜角度636)以及范围(图10中沿到点P的向量AP的距离)的球面坐标时,在仪器坐标系622内被表示成球面坐标的点P的位置与从仪器618的正向运动学的以下等式中得出的仪器坐标系622内的以X、Y、Z笛卡尔坐标形式的点P的位置有关:
X=范围*cos(平移)*cos(倾斜)
Y=范围*sin(平移)*cos(倾斜)
Z=范围*sin(倾斜)
其中平移(方位角)绕仪器坐标系622内的Z轴旋转并且倾斜(俯仰)绕Y轴旋转。
注意,仪器坐标系622内被表示成笛卡尔坐标(X,Y,Z)的点P的位置与从仪器618的逆向运动学的以下等式中得出的被表示成仪器坐标系622内球面坐标(平移,倾斜,范围)的点P的位置有关:
平移=tan(Y,X)-1
在一个实施方式中,根据以下公式从仪器坐标系622内的位置AP(被表示成具有[X,Y,Z,1]T的形式的列向量)计算出目标物体坐标系616内的位置BP(也是具有[X,Y,Z,1]T的形式的列向量),所述公式为:
B P = T A B A P - - - ( 1 )
其中T是校准矩阵。在一个示例中,校准矩阵是4×4的齐次变换矩阵,其具有如下形式:
T A B = r 11 r 12 r 13 X r 21 r 22 r 23 Y r 31 r 32 r 33 Z 0 0 0 1 - - - ( 2 )
注意,根据以下公式使用校准矩阵的逆可以从目标物体坐标系616中的位置BP计算出仪器坐标系622内的位置AP,所述公式为:
P A = ( T A B ) - 1 B P = ( T B A ) B P - - - ( 3 )
根据如下步骤计算变换矩阵对于到校准点的向量的方向和长度是已知的情形,校准点的最小数量是三个,假设它们是非线性的。基本的三点技术如下:
n B → = V → B 12 × V → B 13
k 1 → = n A → × n B →
θ 1 = α c o s ( | n A → | · | n B → | )
R 1 = f 1 ( | k 1 → | , θ 1 )
k 2 → = V → A 12 × V → B 12
θ 2 = α c o s ( | V → A 12 | · | V → B 12 | )
R 2 = f 1 ( | k 2 → | , θ 2 )
R12=R1R2
T A B = [ R 12 , [ R 1 ( V B 12 → - V A 12 → ) ] T ]
T B A = ( T A B ) - 1
其中,参考图11-13:
是坐标系A内从点PA1延伸到点PA2的向量;
是坐标系A内从点PA1延伸到点PA3的向量;
是坐标系A内从点PB1延伸到点PB2的向量;
是坐标系A内从点PB1延伸到点PB3的向量;
是由向量交叉积创建的法向量;
是旋转轴;
θ1和θ2分别是绕轴的旋转角度;
R1、R2及R12是3×3的对称旋转矩阵;以及
f1()是函数(本领域技术人员已知的且例如,在作者为JohnJ.Craig且由PrenticeHallProfessionalTechnicalReference在2004年7月出版的第三版“机器人导论:力学和控制”(IntroductiontoRobotics:MechanicsandControl)中描述),其从下述角度-轴定义中生成3×3的旋转矩阵:
f 1 ( k ^ , θ ) = k x k x v θ + c θ k x k y v θ - k z s θ k x k z v θ + k y s θ k x k y v θ + k z s θ k y k y v θ + c θ k y k z v θ - k x s θ k x k z v θ - k y s θ k y k z v θ + k x s θ k z k z v θ + c θ
其中cθ=cos(θ),sθ=sin(θ),vθ=1–cos(θ),并且
等式(2)的变换矩阵内X、Y及Z值基于目标物体坐标系原点的位置从初始位置到当前位置的位置的差来计算。原点可以被限定在目标物体上的任何地方。
注意,对于指向仪器相对于目标物体的任何位置,4×4的齐次校准矩阵只被计算一次,并且然后可以用于将任何数量的向量从坐标系A(仪器坐标系622)转换成坐标系B(目标物体坐标系616)。同样注意,逆校准矩阵可以通过计算校准矩阵的逆来计算,或者可以通过切换等式内向量的次序而被直接计算。

Claims (20)

1.一种用于当目标物体被装备有布置成已知图案的至少三个激活目标标记时确定所述目标物体在参考坐标系内的当前方位的方法,其包括:
(a)限定摄像机关于所述参考坐标系的方位;
(b)当所述摄像机被定心在所述目标物体上并且所述激活目标标记没有开启时,捕捉图像;
(c)当所述摄像机被定心在所述目标物体上并且所述激活目标标记中的一个或多个开启时,捕捉一幅或多幅图像;
(d)处理所述图像以计算表示了所有所述激活目标标记没有开启时捕捉的所述图像和所述激活目标标记中的一个或多个开启时捕捉的图像之间差异的差分图像;
(e)针对与相应的激活目标标记对应的所述差分图像内的差异,计算相应平均像素坐标;
(f)针对相应的激活目标标记,瞄准激光范围探测器并且在由相应的平移和倾斜角限定的方向上发射激光束,所述平移和倾斜角是至少所述目标物体被定位在所述摄像机的图像视场的中心内时的平移和倾斜角以及所述相应平均像素坐标和所述图像的中心的像素坐标间的差异的函数;
(g)在发射相应的激光束之后,针对相应的激活目标标记,获取相应的范围、平移和倾斜数据;
(h)基于测量的范围、平移和倾斜数据,计算与所述激活目标标记对应的相应点在所述参考坐标系内的坐标,以及
(i)比较从测量的数据计算出其坐标的所述相应点的相应位置与被布置成所述已知图案的相应点的相应位置,以便确定依据所述参考坐标系限定的所述目标物体的当前位置和取向。
2.根据权利要求1所述的方法,其中步骤(c)包括当至少三个激活目标标记开启时捕捉一幅图像。
3.根据权利要求1所述的方法,其中步骤(c)包括当第一、第二以及第三激活目标标记按顺序开启时捕捉相应的图像。
4.根据权利要求1-3中任一项所述的方法,其中步骤(d)包括:
分割所述差分图像以便包含基于所述差异的与所述激活目标标记对应的分离的区域;以及
针对与所述激活目标标记对应的每个分离的区域的相应圆心,计算所述差分图像内的相应平均像素坐标。
5.根据权利要求1-4中任一项所述的方法,进一步包括:
基于所述点之间的相对距离测量点图案;以及
基于测量的点图案和已知点图案之间的差异计算表示所述目标物体在所述参考坐标系内的方位的第一变换矩阵。
6.根据权利要求5所述的方法,其中所述已知点图案是非对称的。
7.根据权利要求5-6中任一项所述的方法,进一步包括:
将所述目标物体放置在初始方位;
计算表示所述目标物体相对于所述参考坐标系的所述初始方位的第二变换矩阵;
将所述目标物体从所述初始方位移动到所述当前方位;
计算所述第二变换矩阵的逆;以及
计算所述第二变换矩阵的所述逆与所述第一变换矩阵的乘积,所述乘积是第三变换矩阵,其表示所述目标物体相对于所述目标物体的所述初始方位的所述当前方位。
8.根据权利要求7所述的方法,在从所述初始方位到所述当前方位的移动期间,响应于所述目标物体的增量运动生成编码器脉冲。
9.一种方位追踪系统,其包括:
平移倾斜机构;
安装到所述平移倾斜机构的摄像机和激光范围探测器;
装备有至少三个激活目标标记的目标物体;以及
被以用于控制所述摄像机、所述激光范围探测器以及所述平移倾斜机构的第一软件,用于处理所述摄像机获取的图像的第二软件,以及用于控制所述目标物体的运动和所述至少三个激活目标标记的状态的第三软件编程的计算机系统。
10.根据权利要求9所述的系统,其中:
所述第一软件包括用于命令所述平移倾斜机构以使所述摄像机瞄准所述目标物体并且命令所述摄像机捕捉所述目标物体的图像的例程;
所述第二软件包括用于处理捕捉的图像以便计算表示当所述激活目标标记没有开启时捕捉的图像和当所述激活目标标记中的一个或多个开启时捕捉的每个图像之间的差异的差分图像的例程;
所述第三软件包括用于控制所述激活目标标记的所述状态的例程。
11.根据权利要求9-10中任一项所述的系统,其中所述目标物体包括履带交通工具。
12.根据权利要求11所述的系统,其中所述履带交通工具是完整运动的履带交通工具。
13.根据权利要求12所述的系统,进一步包括用于追踪所述履带交通工具的增量运动的装置。
14.根据权利要求9-10中任一项所述的系统,其中所述目标物体包括机械臂的基座。
15.一种方位追踪系统,包括:
平移倾斜机构;
安装到所述平移倾斜机构的摄像机和激光范围探测器;
装备有被布置成已知图案的至少三个激活目标标记的目标物体;以及
计算机系统,其被编程以执行如下操作:
调节所述平移倾斜机构的平移和倾斜角以将所述摄像机定位在所述目标物体的中心上,其中所述激活目标标记在所述摄像机的图像视场内;
当所述摄像机被定位在所述目标物体的中心上并且所述激活目标标记没有开启时,命令所述摄像机捕捉图像;
当所述摄像机被定位在所述目标物体的中心上并且所述激活目标标记中的一个或多个开启时,命令所述摄像机捕捉一个或多个图像;
处理所述图像以计算差分图像,该差分图像表示当所有所述激活目标标记没有开启时所捕捉的图像和当所述激活目标标记中的一个或多个开启时所捕捉的相应图像之间的差异;
针对与相应激活目标标记对应的所述差分图像内的所述差异,计算相应的平均像素坐标;
针对相应的激活目标标记,命令所述激光范围探测器以发射以相应的平移和倾斜角导向的相应激光束,所述平移和倾斜角是至少所述目标物体被定位在所述图像视场的中心内时的平移和倾斜角以及所述相应平均像素坐标和指示器图像的中心的像素坐标之间的差异的函数;
针对相应的激活目标标记,命令所述平移倾斜机构获取相应的平移和倾斜数据,并且在发射相应的激光束之后,命令所述激光范围探测器获取相应的范围数据;
基于测量的范围、平移和倾斜数据,计算与所述激活目标标记对应的相应点在所述参考坐标系内的坐标,以及
比较从测量的数据计算出其坐标的所述相应点的相应位置与被布置成所述已知图案的相应点的相应位置,以便确定依据所述参考坐标系限定的所述目标物体的当前位置和取向。
16.根据权利要求15所述的系统,其中所述激活目标标记是发光二极管。
17.根据权利要求15-16中任一项所述的系统,其中所述计算机系统被进一步编程以执行如下操作:
基于所述点之间的相对距离,测量点图案;以及
基于测量的所述点图案和已知点图案之间的差异计算表示所述目标物体在所述参考坐标系内的方位的第一变换矩阵。
18.根据权利要求15-17中任一项所述的系统,其中所述目标物体包括履带交通工具。
19.根据权利要求18所述的系统,其中所述履带交通工具是完整运动的履带交通工具,并且所述系统进一步包括用于追踪所述履带交通工具的增量运动的装置。
20.根据权利要求15-17中任一项所述的系统,其中所述目标物体包括机械臂的基座。
CN201480034791.8A 2013-06-19 2014-04-01 追踪可移动目标物体的方位的系统和方法 Expired - Fee Related CN105518486B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/921,246 US9043146B2 (en) 2013-06-19 2013-06-19 Systems and methods for tracking location of movable target object
US13/921,246 2013-06-19
PCT/US2014/032503 WO2014204548A1 (en) 2013-06-19 2014-04-01 Systems and methods for tracking location of movable target object

Publications (2)

Publication Number Publication Date
CN105518486A true CN105518486A (zh) 2016-04-20
CN105518486B CN105518486B (zh) 2017-09-19

Family

ID=50640019

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480034791.8A Expired - Fee Related CN105518486B (zh) 2013-06-19 2014-04-01 追踪可移动目标物体的方位的系统和方法

Country Status (8)

Country Link
US (2) US9043146B2 (zh)
EP (2) EP3011362B1 (zh)
JP (1) JP6426725B2 (zh)
KR (1) KR101988083B1 (zh)
CN (1) CN105518486B (zh)
BR (1) BR112015031505B1 (zh)
RU (1) RU2664257C2 (zh)
WO (1) WO2014204548A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108253967A (zh) * 2016-10-11 2018-07-06 英西图公司 用于目标相对引导的方法和装置
CN109196441A (zh) * 2016-05-16 2019-01-11 深圳市大疆创新科技有限公司 用于协调设备动作的系统和方法
CN109557329A (zh) * 2017-09-26 2019-04-02 深圳市新产业生物医学工程股份有限公司 旋转式加样装置及加样方法
CN110587595A (zh) * 2018-06-13 2019-12-20 西门子医疗有限公司 运行机器人的方法、数据存储器、机器人和机器人系统
CN111164522A (zh) * 2017-09-30 2020-05-15 西门子股份公司 设计具有可重复使用技能的自主系统
CN113358332A (zh) * 2021-07-15 2021-09-07 中国科学院长春光学精密机械与物理研究所 一种动态成像望远镜性能检测装置及方法

Families Citing this family (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9279679B2 (en) * 2012-09-12 2016-03-08 Kabushiki Kaisha Topcon Construction machine control method and construction machine control system
US9404898B1 (en) * 2013-03-15 2016-08-02 The Boeing Company Laser ultrasound testing in limited-access areas
US9410659B2 (en) 2014-02-10 2016-08-09 The Boeing Company Automated mobile boom system for crawling robots
US10310054B2 (en) 2014-03-21 2019-06-04 The Boeing Company Relative object localization process for local positioning system
US11126193B2 (en) * 2014-06-19 2021-09-21 Husqvarna Ab Automatic beacon position determination
US9746447B2 (en) 2014-10-30 2017-08-29 The Boeing Company Apparatuses, systems, and methods for inspecting a component
US9664652B2 (en) 2014-10-30 2017-05-30 The Boeing Company Non-destructive ultrasonic inspection apparatus, systems, and methods
US9740191B2 (en) 2015-02-12 2017-08-22 The Boeing Company Location calibration for automated production manufacturing
EP3064435A1 (en) * 2015-03-03 2016-09-07 Airbus Defence and Space, S.A. Systems and methods for the calculation of relative distances and speeds in the three coordinate axis between aircraft in flight
US9924103B2 (en) 2015-04-09 2018-03-20 The Boeing Company Automated local positioning system calibration using optically readable markers
CN105069795B (zh) * 2015-08-12 2017-12-22 深圳锐取信息技术股份有限公司 运动对象跟踪方法及装置
US10232897B2 (en) 2015-10-16 2019-03-19 The Boeing Company Walking robot
CN105548989B (zh) * 2016-01-05 2018-01-02 西安应用光学研究所 手持式反光电观瞄及目标定位一体化装置
US10145670B2 (en) * 2016-01-12 2018-12-04 The Boeing Company Systems and methods for projected grid-based location tracking
US9892558B2 (en) 2016-02-19 2018-02-13 The Boeing Company Methods for localization using geotagged photographs and three-dimensional visualization
KR20170109330A (ko) * 2016-03-21 2017-09-29 한화테크윈 주식회사 라이다 시스템
US10325339B2 (en) * 2016-04-26 2019-06-18 Qualcomm Incorporated Method and device for capturing image of traffic sign
CN106033615B (zh) * 2016-05-16 2017-09-15 北京旷视科技有限公司 目标对象运动方向检测方法和装置
US10635758B2 (en) 2016-07-15 2020-04-28 Fastbrick Ip Pty Ltd Brick/block laying machine incorporated in a vehicle
US10607409B2 (en) 2016-07-19 2020-03-31 The Boeing Company Synthetic geotagging for computer-generated images
US10108872B2 (en) 2016-07-29 2018-10-23 Conduent Business Services, Llc Multi-angle product imaging device
US10347109B2 (en) 2016-11-08 2019-07-09 The Boeing Company Automated human personnel fall arresting system and method
US10451714B2 (en) 2016-12-06 2019-10-22 Sony Corporation Optical micromesh for computerized devices
US10536684B2 (en) 2016-12-07 2020-01-14 Sony Corporation Color noise reduction in 3D depth map
US10181089B2 (en) * 2016-12-19 2019-01-15 Sony Corporation Using pattern recognition to reduce noise in a 3D map
US10178370B2 (en) 2016-12-19 2019-01-08 Sony Corporation Using multiple cameras to stitch a consolidated 3D depth map
RU2641604C1 (ru) * 2016-12-28 2018-01-18 Федеральное государственное автономное образовательное учреждение высшего образования "Дальневосточный федеральный университет" (ДВФУ) Способ измерения абсолютного положения конечного звена многозвенного механизма промышленного робота
JP6527178B2 (ja) * 2017-01-12 2019-06-05 ファナック株式会社 視覚センサのキャリブレーション装置、方法及びプログラム
US10495735B2 (en) 2017-02-14 2019-12-03 Sony Corporation Using micro mirrors to improve the field of view of a 3D depth map
US10795022B2 (en) 2017-03-02 2020-10-06 Sony Corporation 3D depth map
JP6774603B2 (ja) * 2017-03-06 2020-10-28 株式会社Jvcケンウッド レーザ光照射検出装置、レーザ光照射検出方法、レーザ光照射検出システム
JP6854164B2 (ja) * 2017-03-22 2021-04-07 株式会社トプコン 測量データ処理装置、測量データ処理方法、測量データ処理システムおよび測量データ処理用プログラム
US10979687B2 (en) 2017-04-03 2021-04-13 Sony Corporation Using super imposition to render a 3D depth map
CN108828554B (zh) * 2017-05-18 2020-06-26 金钱猫科技股份有限公司 无需激光落点的基于坐标变换的测量方法、系统及装置
WO2018231887A1 (en) * 2017-06-15 2018-12-20 Board Of Supervisors Of Louisiana State University And Agricultural And Mechanical College Tracking lighting system
US10796477B2 (en) * 2017-06-20 2020-10-06 Edx Technologies, Inc. Methods, devices, and systems for determining field of view and producing augmented reality
US11441899B2 (en) 2017-07-05 2022-09-13 Fastbrick Ip Pty Ltd Real time position and orientation tracker
EP3659116A4 (en) * 2017-07-27 2021-04-28 Westinghouse Electric Company Llc PROCESS FOR LOCATING A REMOTE-CONTROLLED VEHICLE IN A WORKSPACE AND REMOTE INSPECTION SYSTEM USING SUCH A PROCESS
US20210016438A1 (en) * 2017-08-17 2021-01-21 Fastbrick Ip Pty Ltd Interaction system configuration
US11656357B2 (en) 2017-08-17 2023-05-23 Fastbrick Ip Pty Ltd Laser tracker with improved roll angle measurement
US10788428B2 (en) * 2017-09-25 2020-09-29 The Boeing Company Positioning system for aerial non-destructive inspection
US10791275B2 (en) * 2017-09-25 2020-09-29 The Boeing Company Methods for measuring and inspecting structures using cable-suspended platforms
JP6603289B2 (ja) 2017-10-27 2019-11-06 ファナック株式会社 ロボット、ロボットシステム、およびロボットの座標系設定方法
US10484667B2 (en) 2017-10-31 2019-11-19 Sony Corporation Generating 3D depth map using parallax
US10818097B2 (en) 2017-12-12 2020-10-27 Disney Enterprises, Inc. Spatial position calculation system for objects in virtual reality or augmented reality environment
CN110579738B (zh) * 2018-06-11 2021-06-25 深圳市优必选科技有限公司 运动目标方向角获取方法及终端设备
US10800550B2 (en) 2018-06-21 2020-10-13 The Boeing Company Positioning enhancements to localization process for three-dimensional visualization
US10549186B2 (en) 2018-06-26 2020-02-04 Sony Interactive Entertainment Inc. Multipoint SLAM capture
US11007635B2 (en) * 2018-07-25 2021-05-18 The Boeing Company Gravity compensation for self-propelled robotic vehicles crawling on non-level surfaces
US10949980B2 (en) * 2018-10-30 2021-03-16 Alt Llc System and method for reverse optical tracking of a moving object
CN111121619A (zh) * 2018-11-01 2020-05-08 西南科技大学 一种基于激光测距的空间几何自动测量方法
JP7000361B2 (ja) * 2019-01-24 2022-01-19 ファナック株式会社 追随ロボットおよび作業ロボットシステム
CN109945782B (zh) * 2019-04-02 2020-12-08 易思维(杭州)科技有限公司 超长白车身关键位置检测方法
CN110068827A (zh) * 2019-04-29 2019-07-30 西北工业大学 一种无人机自主目标测距的方法
RU2714701C1 (ru) * 2019-06-17 2020-02-19 Федеральное государственное унитарное предприятие "Российский федеральный ядерный центр - Всероссийский научно-исследовательский институт технической физики имени академика Е.И. Забабахина" Способ селекции объекта на удаленном фоне оптическими системами с воздушного носителя
US11361869B2 (en) * 2019-08-13 2022-06-14 Westinghouse Electric Company Llc System and method enabling signals from replacement self-powered neutron detectors to be used to generate inputs to legacy software
CN110780325B (zh) * 2019-08-23 2022-07-19 腾讯科技(深圳)有限公司 运动对象的定位方法及装置、电子设备
JP7435998B2 (ja) * 2019-09-17 2024-02-21 日本電気通信システム株式会社 物品位置管理装置、物品、物品位置管理システム、物品位置管理方法及びプログラム
FI20196022A1 (en) * 2019-11-27 2021-05-28 Novatron Oy Method and positioning system for determining the position and orientation of a machine
JP7406902B2 (ja) * 2019-12-10 2023-12-28 キヤノン株式会社 制御装置、制御方法、プログラム、方法及び記憶媒体
US10846880B1 (en) * 2020-01-03 2020-11-24 Altec Industries, Inc. Camera embedded joystick
US11631251B2 (en) * 2020-02-23 2023-04-18 Tfi Digital Media Limited Method and system for jockey and horse recognition and tracking
WO2021217371A1 (zh) * 2020-04-27 2021-11-04 深圳市大疆创新科技有限公司 可移动平台的控制方法和装置
CN111474519A (zh) * 2020-04-28 2020-07-31 广东博智林机器人有限公司 一种定位方法、装置、设备及存储介质
CN111753663B (zh) * 2020-05-25 2023-12-12 上海欧菲智能车联科技有限公司 目标检测方法及装置
CN111931614B (zh) * 2020-07-24 2024-04-19 深圳市瑞立视多媒体科技有限公司 主动光刚体识别方法、装置、设备及存储介质
CN112116651B (zh) * 2020-08-12 2023-04-07 天津(滨海)人工智能军民融合创新中心 一种基于无人机单目视觉的地面目标定位方法和系统
RU2756437C1 (ru) * 2020-09-03 2021-09-30 Публичное Акционерное Общество "Сбербанк России" (Пао Сбербанк) Способ и система планирования движения робота-манипулятора путем коррекции опорных траекторий
CN112595231A (zh) * 2020-12-10 2021-04-02 上海镭隆科技发展有限公司 一种基于智能图像识别二维随动系统动态监测装置及方法
CN112822353B (zh) * 2020-12-28 2022-03-01 维沃移动通信有限公司 电子设备及其摄像头模组
CN112991401B (zh) * 2021-01-20 2023-07-14 深兰科技(上海)有限公司 车辆运行轨迹追踪方法、装置、电子设备和存储介质
CN113050108B (zh) * 2021-03-23 2024-01-09 湖南盛鼎科技发展有限责任公司 电子界址视觉测量系统及测量方法
US11502729B1 (en) 2021-08-10 2022-11-15 The Boeing Company Methods for through-structure power and data transfer between mobile robots and sensor nodes
CN114235457B (zh) * 2021-12-20 2024-03-15 浙江谱麦科技有限公司 用于检测机器人力学性能的力加载系统及系统调校方法
US20230241719A1 (en) * 2022-01-31 2023-08-03 Standex International Corporation Techniques for closed-loop control of a laser-engraving process
CN115435764B (zh) * 2022-11-09 2022-12-30 中国空气动力研究与发展中心设备设计与测试技术研究所 一种用于激光跟踪仪靶点扫描的吸盘式行走机器人
CN115861429B (zh) * 2023-02-28 2023-06-16 深圳思谋信息科技有限公司 图像采集设备标定方法、装置、计算机设备和存储介质
CN116931583B (zh) * 2023-09-19 2023-12-19 深圳市普渡科技有限公司 移动对象的确定方法和避让方法、装置、设备及存储介质
CN117516811A (zh) * 2023-10-09 2024-02-06 南京智谱科技有限公司 一种气体泄漏监测系统、方法、装置和巡检装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090086199A1 (en) * 2007-09-28 2009-04-02 The Boeing Company Method involving a pointing instrument and a target object
US20120221625A1 (en) * 2011-02-28 2012-08-30 The Boeing Company Distributed Operation of a Local Positioning System
CN102656425A (zh) * 2009-12-17 2012-09-05 波音公司 利用移动数据的方位和取向确定
WO2013045517A1 (de) * 2011-09-27 2013-04-04 Leica Geosystems Ag Vermessungssystem und verfahren zur absteckung eines in einem koordinatensystem bekannten zielpunkts

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4424943A (en) * 1981-05-04 1984-01-10 Hughes Aircraft Company Tracking system
US4786167A (en) * 1985-10-03 1988-11-22 Rothbone Richard R Optical navigation system
US5673082A (en) * 1995-04-10 1997-09-30 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Light-directed ranging system implementing single camera system for telerobotics applications
US5974348A (en) * 1996-12-13 1999-10-26 Rocks; James K. System and method for performing mobile robotic work operations
JP3909377B2 (ja) * 1997-02-14 2007-04-25 株式会社安川電機 屋外用距離計測装置
FR2770672B1 (fr) * 1997-11-04 2000-01-21 Inst Nat Rech Inf Automat Procede et dispositif de localisation et de guidage d'un mobile muni d'une camera lineaire
US6198485B1 (en) * 1998-07-29 2001-03-06 Intel Corporation Method and apparatus for three-dimensional input entry
AT412033B (de) * 2000-02-08 2004-08-26 Efkon Entwicklung Forschung & Konstruktion Von Sondermaschinen Gmbh System zum automatischen verrechnen von gebühren
AU2001284519A1 (en) * 2000-09-11 2002-03-26 Kunikatsu Takase Mobile body position detecting system
US7015831B2 (en) * 2002-12-17 2006-03-21 Evolution Robotics, Inc. Systems and methods for incrementally updating a pose of a mobile device calculated by visual simultaneous localization and mapping techniques
US7419140B2 (en) 2005-05-16 2008-09-02 Safeguards Technology Llc Security fence module
GB0513899D0 (en) 2005-07-06 2005-08-10 Airbus Uk Ltd Program-controlled process
JP4799088B2 (ja) * 2005-09-06 2011-10-19 株式会社東芝 遠隔検査における作業位置計測方法およびその装置
US7599789B2 (en) * 2006-05-24 2009-10-06 Raytheon Company Beacon-augmented pose estimation
US7643893B2 (en) 2006-07-24 2010-01-05 The Boeing Company Closed-loop feedback control using motion capture systems
ITFI20060196A1 (it) * 2006-08-04 2008-02-05 Fasep 2000 S R L Metodo e dispositivo per la misura senza contatto dell'allineamento di ruote di autoveicoli
US9176598B2 (en) * 2007-05-08 2015-11-03 Thinkoptics, Inc. Free-space multi-dimensional absolute pointer with improved performance
US8044991B2 (en) * 2007-09-28 2011-10-25 The Boeing Company Local positioning system and method
CN101970985B (zh) * 2008-02-29 2013-06-12 特林布尔公司 确定觇标相对于带有至少两台相机的测量仪的坐标
JP5157803B2 (ja) * 2008-10-06 2013-03-06 村田機械株式会社 自律移動装置
US8199194B2 (en) 2008-10-07 2012-06-12 The Boeing Company Method and system involving controlling a video camera to track a movable target object
US8738226B2 (en) * 2011-07-18 2014-05-27 The Boeing Company Holonomic motion vehicle for travel on non-level surfaces
US8874371B2 (en) * 2011-08-09 2014-10-28 The Boeing Company Beam directed motion control system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090086199A1 (en) * 2007-09-28 2009-04-02 The Boeing Company Method involving a pointing instrument and a target object
CN102656425A (zh) * 2009-12-17 2012-09-05 波音公司 利用移动数据的方位和取向确定
US20120221625A1 (en) * 2011-02-28 2012-08-30 The Boeing Company Distributed Operation of a Local Positioning System
WO2013045517A1 (de) * 2011-09-27 2013-04-04 Leica Geosystems Ag Vermessungssystem und verfahren zur absteckung eines in einem koordinatensystem bekannten zielpunkts

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109196441A (zh) * 2016-05-16 2019-01-11 深圳市大疆创新科技有限公司 用于协调设备动作的系统和方法
CN108253967A (zh) * 2016-10-11 2018-07-06 英西图公司 用于目标相对引导的方法和装置
CN109557329A (zh) * 2017-09-26 2019-04-02 深圳市新产业生物医学工程股份有限公司 旋转式加样装置及加样方法
CN109557329B (zh) * 2017-09-26 2022-07-19 深圳市新产业生物医学工程股份有限公司 旋转式加样装置及加样方法
CN111164522A (zh) * 2017-09-30 2020-05-15 西门子股份公司 设计具有可重复使用技能的自主系统
CN110587595A (zh) * 2018-06-13 2019-12-20 西门子医疗有限公司 运行机器人的方法、数据存储器、机器人和机器人系统
CN110587595B (zh) * 2018-06-13 2022-11-25 西门子医疗有限公司 运行机器人的方法、数据存储器、机器人和机器人系统
CN113358332A (zh) * 2021-07-15 2021-09-07 中国科学院长春光学精密机械与物理研究所 一种动态成像望远镜性能检测装置及方法

Also Published As

Publication number Publication date
US9043146B2 (en) 2015-05-26
US9197810B2 (en) 2015-11-24
BR112015031505B1 (pt) 2022-02-22
BR112015031505A2 (pt) 2017-07-25
US20140376768A1 (en) 2014-12-25
RU2664257C2 (ru) 2018-08-15
EP3011362A1 (en) 2016-04-27
RU2015141333A3 (zh) 2018-03-20
WO2014204548A1 (en) 2014-12-24
EP3011362B1 (en) 2018-10-17
JP2016526673A (ja) 2016-09-05
CN105518486B (zh) 2017-09-19
EP3407088A1 (en) 2018-11-28
KR101988083B1 (ko) 2019-09-30
US20150207987A1 (en) 2015-07-23
KR20160044432A (ko) 2016-04-25
RU2015141333A (ru) 2017-07-24
JP6426725B2 (ja) 2018-11-28

Similar Documents

Publication Publication Date Title
CN105518486A (zh) 追踪可移动目标物体的方位的系统和方法
EP2329289B1 (en) Method involving a pointing instrument and a target object
CN102135776B (zh) 基于视觉定位的工业机器人控制方法
CN112652016B (zh) 点云预测模型的生成方法、位姿估计方法及其装置
JP2004508954A (ja) 位置決め装置およびシステム
Nüchter et al. Irma3D—An intelligent robot for mapping applications
CN111780715A (zh) 一种视觉测距方法
US20230384095A1 (en) System and method for controlling a light projector in a construction site
McArthur et al. Pose-estimate-based target tracking for human-guided remote sensor mounting with a UAV
Gans et al. Visual servoing to an arbitrary pose with respect to an object given a single known length
Lange et al. Cost-efficient mono-camera tracking system for a multirotor UAV aimed for hardware-in-the-loop experiments
Li et al. Vision-based dynamic positioning system design and experiment for an underwater vehicle
CN111300426B (zh) 一种高智能人型机器人感测头的控制系统
KR20200106122A (ko) ToF 센서를 이용한 영상 검출을 통한 로봇 제어방법
CN111152237B (zh) 一种两侧设置激光雷达的机器人头部及其环境采样方法
Skov et al. 3D Navigation by UAV using a mono-camera, for precise target tracking for contact inspection of critical infrastructures
Cui et al. A flexible grasping policy based on simple robot-camera calibration and pose repeatability of arm
Bielenberg Robust Visual Servo Control and Tracking for the Manipulator of a Planetary Exploration Rover
Biggio et al. Validation and Verification of Modular GNC by means of TAS-I Robot Management Framework in outdoor ROvers eXploration facilitY
Souliman Pose Estimation of Indoor Mobile Robot Based on Sensor Fusion
Kishore et al. 3D Pure Pursuit Guidance of Drones for Autonomous Precision Landing
CN114147723A (zh) 一种自动放样机器人系统及其运行方法
Claybrough et al. Stabilization of an unmanned aerial vehicle using real-time embedded motion estimation
Doskocil et al. Optical Sensor in Control of LEGO Robot
Ganoni et al. A multi sensory approach using error bounds for improved visual odometry

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170919