WO2022262594A1 - 跟随目标的方法、装置、机器人及计算机可读存储介质 - Google Patents

跟随目标的方法、装置、机器人及计算机可读存储介质 Download PDF

Info

Publication number
WO2022262594A1
WO2022262594A1 PCT/CN2022/096935 CN2022096935W WO2022262594A1 WO 2022262594 A1 WO2022262594 A1 WO 2022262594A1 CN 2022096935 W CN2022096935 W CN 2022096935W WO 2022262594 A1 WO2022262594 A1 WO 2022262594A1
Authority
WO
WIPO (PCT)
Prior art keywords
coordinates
target
coordinate system
laser radar
lidar
Prior art date
Application number
PCT/CN2022/096935
Other languages
English (en)
French (fr)
Inventor
崔锦
王虹
彭志
张宇哲
黄玲
杜珊珊
张可欣
乔光辉
Original Assignee
同方威视技术股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 同方威视技术股份有限公司 filed Critical 同方威视技术股份有限公司
Publication of WO2022262594A1 publication Critical patent/WO2022262594A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar

Definitions

  • the present disclosure relates to the technical field of robots, in particular to a method and device for following a target, a robot and a non-transitory computer-readable storage medium.
  • Robots have significant operational advantages in handling goods and so on.
  • One way is to move the robot to a designated location through manual remote control; the other way includes teaching the robot and building a map for the robot.
  • a method for following a target including: obtaining the coordinates of each candidate target in the laser radar coordinate system through the laser radar; obtaining the coordinates of the target in the laser radar coordinate system through an auxiliary positioning device Auxiliary coordinates, each candidate target includes the target; according to the coordinates of each candidate target in the laser radar coordinate system and the auxiliary coordinates of the target in the laser radar coordinate system, determine the coordinates of the target in the laser radar coordinate system; according to the coordinates of the target in the laser radar coordinate system Coordinates in the radar coordinate system, moving with the target.
  • obtaining the coordinates of each candidate target in the laser radar coordinate system through the laser radar includes: obtaining the first coordinates of each candidate target in the first scan frame in the laser radar coordinate system, the second The second coordinates of each candidate target in the laser radar coordinate system in the scanning frame; obtaining the auxiliary coordinates of the target in the laser radar coordinate system through the auxiliary positioning device includes: obtaining the target at the scanning moment of the first scanning frame by the auxiliary positioning device The first auxiliary coordinates in the laser radar coordinate system, the second auxiliary coordinates of the target in the laser radar coordinate system at the scanning moment of the second scanning frame; according to the coordinates of each candidate target in the laser radar coordinate system, the target in the laser radar Auxiliary coordinates in the coordinate system, determining the coordinates of the target in the laser radar coordinate system includes: determining the first coordinates of the target in the laser radar coordinate system according to the first coordinates and the first auxiliary coordinates; coordinates, to determine the second coordinates of the target in the lidar coordinate system.
  • following the target movement includes: according to the coordinates between the second coordinate of the target in the lidar coordinate system and the first coordinate of the target in the lidar coordinate system Determine the moving direction and moving distance; determine the moving speed according to the scanning interval and coordinate difference between the first scanning frame and the second scanning frame.
  • obtaining the first coordinates of each candidate target in the first scanning frame in the laser radar coordinate system through the laser radar includes: according to the coordinates in the laser radar coordinate system, the first scanning frame generated by the laser radar The laser point cloud is clustered to obtain multiple laser point clusters; curve fitting is performed on each laser point cluster; the minimum circumscribed rotation rectangle is determined for each fitting curve with a length within the preset length range; each minimum The coordinates of the center point of the circumscribed rotating rectangle in the lidar coordinate system are used as the first coordinates of each candidate target in the first scan frame in the lidar coordinate system.
  • determining the first coordinates of the target in the lidar coordinate system includes: determining the width direction of each minimum circumscribed rotation rectangle; filtering out the width direction and the forward direction of the robot The minimum circumscribed rotation rectangle whose included angle is smaller than the first threshold; from the center points of each selected minimum circumscribed rotation rectangle, select the center point closest to the origin of the lidar coordinate system; select the center point closest to the first auxiliary When the distance between the coordinates is less than the second threshold, the closest center point is used as the first coordinate of the target in the lidar coordinate system.
  • obtaining the first coordinates of each candidate target in the first scan frame in the lidar coordinate system through the lidar further includes: before clustering the laser point cloud generated by the lidar through the first scan frame, Delete the tth scanning point in the laser point cloud, wherein the distance between the coordinates of the tth scanning point and the (t-1)th scanning point is greater than the third threshold, and the coordinates of the tth scanning point are in relation to the ( The distance between t+1) scanning points is greater than the third threshold, and t is an integer greater than 1.
  • obtaining the second coordinates of each candidate target in the second scanning frame in the laser radar coordinate system through the laser radar includes: according to the coordinates in the laser radar coordinate system, calculating the coordinates generated by the laser radar through the second scanning frame
  • the laser point cloud is clustered to obtain multiple laser point clusters; curve fitting is performed on each laser point cluster; the minimum circumscribed rotation rectangle is determined for each fitting curve with a length within the preset length range; each minimum The coordinates of the center point of the circumscribed rotating rectangle in the lidar coordinate system are used as the second coordinates of each candidate target in the second scan frame in the lidar coordinate system.
  • determining the second coordinates of the target in the lidar coordinate system includes: inputting the first coordinates of the target in the lidar coordinate system into a Kalman filter to obtain the target Predicted coordinates under the laser radar coordinate system; from the second coordinates of each candidate target in the second scanning frame under the laser radar coordinate system, select the second coordinate closest to the predicted coordinate distance; When the distance from the second auxiliary coordinate is less than the second threshold, the second coordinate with the closest distance is used as the second coordinate of the target in the lidar coordinate system.
  • obtaining the second coordinates of each candidate target in the second scan frame in the lidar coordinate system by the lidar further includes: before clustering the laser point cloud generated by the lidar through the second scan frame, Delete the tth scanning point in the laser point cloud, wherein the distance between the coordinates of the tth scanning point and the (t-1)th scanning point is greater than the third threshold, and the coordinates of the tth scanning point are in relation to the ( The distance between t+1) scanning points is greater than the third threshold, and t is an integer greater than 1.
  • the auxiliary positioning device includes an ultra-wideband positioning device or a vision camera.
  • an apparatus for following a target including: a memory; and a processor coupled to the memory, the processor is configured to execute the aforementioned following target based on instructions stored in the memory method.
  • a robot including a laser radar, an auxiliary positioning device, and the aforementioned device for following a target.
  • a non-transitory computer-readable storage medium stores computer instructions, and when the instructions are executed by a processor, the aforementioned method for following a target is implemented .
  • Fig. 1 shows a schematic flowchart of a method for following a target in some embodiments of the present disclosure.
  • FIG. 2 shows a schematic diagram of the coordinates of each candidate target in the lidar coordinate system.
  • Fig. 3 shows a schematic flowchart of a method for following a target according to some other embodiments of the present disclosure.
  • Fig. 4 shows a schematic diagram of multiple laser point clusters, each fitting curve and each minimum circumscribed rotating rectangle.
  • Fig. 5 shows a schematic structural diagram of an apparatus for following a target according to some embodiments of the present disclosure.
  • Fig. 6 shows a schematic structural diagram of a robot in some embodiments of the present disclosure.
  • a technical problem solved by the present disclosure is how to make the robot automatically and accurately follow the target.
  • the present disclosure provides a method for following a target. First, some embodiments of the method for following a target of the present disclosure are described with reference to FIG. 1 .
  • Fig. 1 shows a schematic flowchart of a method for following a target in some embodiments of the present disclosure. As shown in FIG. 1, the method includes step S101 to step S104.
  • step S101 the coordinates of each candidate target in the laser radar coordinate system are acquired through the laser radar.
  • the robot can obtain laser point cloud data by configuring lidar (such as single-line lidar or multi-line lidar).
  • lidar such as single-line lidar or multi-line lidar
  • the coordinates of each candidate target in the laser radar coordinate system can be obtained, and these candidate targets include the target that the robot needs to follow.
  • FIG. 2 shows a schematic diagram of the coordinates of each candidate target in the lidar coordinate system.
  • the y-axis direction of the lidar coordinate system indicates the forward direction of the robot (also the main scanning direction of the lidar), and the x-axis direction of the lidar coordinate system indicates the right direction of the robot.
  • step S102 the auxiliary coordinates of the target in the lidar coordinate system are acquired by the auxiliary positioning device.
  • the auxiliary positioning device includes a UWB (Ultra Wide Band, ultra-wideband) positioning device or a visual camera with a target detection function, wherein the visual camera with a target detection function may include a depth camera, a binocular camera, and the like.
  • UWB Ultra Wide Band, ultra-wideband
  • step S103 according to the coordinates of each candidate target in the lidar coordinate system and the auxiliary coordinates of the target in the lidar coordinate system, the coordinates of the target in the lidar coordinate system are determined.
  • a specific implementation method is to select the coordinates closest to the auxiliary coordinates of the target in the lidar coordinate system from the coordinates of each candidate target in the lidar coordinate system as the coordinates of the target in the lidar coordinate system.
  • step S104 according to the coordinates of the target in the lidar coordinate system, follow the target to move.
  • the moving direction and moving distance of the robot can be determined according to the coordinates of the target in the lidar coordinate system, so that the robot can follow the target.
  • the coordinates provided by the lidar are relatively accurate, but it is difficult to accurately identify the target.
  • the coordinates provided by the laser radar and the auxiliary coordinates provided by the auxiliary positioning device according to the coordinates provided by the laser radar and the auxiliary coordinates provided by the auxiliary positioning device, the coordinates of the target in the laser radar coordinate system can be determined more accurately, so that the robot can automatically, Accurately follow the movement of the target. Therefore, there is no need for manual remote control, trial teaching of the robot, or establishment of a map for the robot, and the robot can automatically follow the workers for collaborative operations.
  • the above-mentioned embodiments are relatively robust to factors such as light, occlusion, target moving speed, and target deformation, and thus have wide applicability.
  • Fig. 3 shows a schematic flowchart of a method for following a target according to some other embodiments of the present disclosure. As shown in FIG. 3, these embodiments include steps S301 to S308. Among them, steps S301 to S303 are the process of obtaining the coordinates of the target in the laser radar coordinate system through the first scanning frame, and steps S304 to S306 are the process of obtaining the coordinates of the target in the laser radar coordinate system through the second scanning frame, and step S307 ⁇ Step S308 is a process of following the target according to the coordinates of the target in the lidar coordinate system in the two scanning frames.
  • step S301 the first coordinates of each candidate target in the first scan frame in the laser radar coordinate system are acquired through the laser radar.
  • the specific implementation process of step S301 may include steps S3011 to S3014.
  • the clustering algorithm can specifically adopt DBSCAN (Density-Based Spatial Clustering of Applications with Noise, density-based spatial clustering application with noise), nearest neighbor clustering algorithm and so on.
  • DBSCAN Density-Based Spatial Clustering of Applications with Noise, density-based spatial clustering application with noise
  • nearest neighbor clustering algorithm and so on.
  • Each cluster of laser points obtained by clustering represents a candidate target.
  • step S302 the first auxiliary coordinates of the target in the lidar coordinate system at the scanning moment of the first scanning frame are obtained by the auxiliary positioning device.
  • the first auxiliary coordinates of the target in the lidar coordinate system are obtained.
  • the first auxiliary coordinate can be a specific coordinate point, or an auxiliary coordinate area with auxiliary center coordinates.
  • step S303 according to the first coordinates and the first auxiliary coordinates, the first coordinates of the target in the lidar coordinate system are determined.
  • the specific implementation process of step S303 may include steps S3031 to S3034.
  • step S301 to step S303 are repeatedly executed. If the number of repeated steps S301 to S303 reaches the preset upper limit and the first coordinate of the target in the lidar coordinate system cannot be determined, an alarm is issued to indicate that the target to be followed cannot be identified.
  • step S304 the second coordinates of each candidate target in the second scanning frame in the laser radar coordinate system are obtained by the laser radar.
  • the specific implementation process of step S304 may include steps S3041 to S3044, which is similar to the implementation process of S301.
  • step S305 the second auxiliary coordinates of the target in the lidar coordinate system at the scanning moment of the second scanning frame are obtained by the auxiliary positioning device.
  • the implementation process of step S305 is similar to that of S302.
  • step S306 according to the second coordinates and the second auxiliary coordinates, the second coordinates of the target in the lidar coordinate system are determined.
  • the specific implementation process of step S306 may also include steps S3061 to S3063.
  • step S304 to step S306 are repeatedly executed. If the number of repeated executions of steps S304 to S306 reaches the preset upper limit and the first coordinate of the target in the lidar coordinate system cannot be determined, an alarm is issued to indicate that the target to be followed is lost.
  • step S307 the moving direction and moving distance are determined according to the coordinate difference between the second coordinate of the target in the laser radar coordinate system and the first coordinate of the target in the laser radar coordinate system.
  • the coordinate difference uniquely corresponds to a vector.
  • the direction of the vector is taken as the moving direction of the robot, and the length of the vector is multiplied by a preset ratio as the moving distance of the robot.
  • step S308 the moving rate is determined according to the scanning interval and the coordinate difference between the first scanning frame and the second scanning frame.
  • the ratio of the length of the above-mentioned vector to the above-mentioned scanning interval can be used as the moving speed of the robot.
  • step S301 may also include step S3010.
  • step S304 may also include step S3040.
  • step S3010 and step S3040 are to remove noise points in the laser point cloud to prevent interference due to reflection and other reasons, thereby further improving the accuracy of following the target.
  • the coordinates of the target in the laser radar coordinate system can be determined more accurately, so that the robot can automatically, Accurately follow the movement of the target. Therefore, there is no need for manual remote control, trial teaching of the robot, or establishment of a map for the robot, and the robot can automatically follow the workers for collaborative operations.
  • the above-mentioned embodiments are relatively robust to factors such as light, occlusion, target moving speed, and target deformation, and thus have wide applicability.
  • Fig. 5 shows a schematic structural diagram of an apparatus for following a target according to some embodiments of the present disclosure.
  • the device 50 for following a target includes: a memory 510 and a processor 520 coupled to the memory 510, the processor 520 is configured to execute the instructions in any of the foregoing embodiments based on instructions stored in the memory 510. The way to follow the target.
  • the memory 510 may include, for example, a system memory, a fixed non-volatile storage medium, and the like.
  • the system memory stores, for example, an operating system, an application program, a boot loader (Boot Loader) and other programs.
  • the target-following device 50 may further include an input-output interface 530, a network interface 540, a storage interface 550, and the like. These interfaces 530 , 540 , and 550 , as well as the memory 510 and the processor 520 may be connected through a bus 560 , for example.
  • the input and output interface 530 provides a connection interface for input and output devices such as a display, a mouse, a keyboard, and a touch screen.
  • the network interface 540 provides a connection interface for various networked devices.
  • the storage interface 550 provides connection interfaces for external storage devices such as SD cards and U disks.
  • the present disclosure enables the robot to automatically and accurately follow the target movement.
  • Fig. 6 shows a schematic structural diagram of a robot in some embodiments of the present disclosure.
  • the robot 60 includes: a laser radar 601 , an auxiliary positioning device 602 and the aforementioned device 50 for following a target.
  • the present disclosure also includes a non-transitory computer-readable storage medium on which computer instructions are stored, and when the instructions are executed by a processor, the method for following the target in any of the foregoing embodiments is implemented.
  • the aforementioned integrated units are realized in the form of software function units and sold or used as independent products, they can be stored in a computer-readable storage medium.
  • the essence of the technical solution of the present invention or the part that contributes to the prior art or all or part of the technical solution can be embodied in the form of a software product, and the computer software product is stored in a storage medium , including several instructions to make a computer device (which may be a personal computer, a server, or a network device, etc.) execute all or part of the steps of the methods described in various embodiments of the present invention.
  • the aforementioned storage media include: U disk, read-only memory (ROM, Read-Only Memory), random access memory (RAM, Random Access Memory), mobile hard disk, magnetic disk or optical disc, etc., which can store program codes. .
  • These computer program instructions may also be stored in a computer-readable memory capable of directing a computer or other programmable data processing apparatus to operate in a specific manner, such that the instructions stored in the computer-readable memory produce an article of manufacture comprising instruction means, the instructions
  • the device realizes the function specified in one or more procedures of the flowchart and/or one or more blocks of the block diagram.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

一种跟随目标的方法、装置、机器人及非瞬时性计算机可读存储介质,涉及机器人技术领域。其中的跟随目标的方法包括:通过激光雷达获取各个备选目标在激光雷达坐标系下的坐标(S101);通过辅助定位装置获取目标在激光雷达坐标系下的辅助坐标,各个备选目标包括目标(S102);根据各个备选目标在激光雷达坐标系下的坐标、目标在激光雷达坐标系下的辅助坐标,确定目标在激光雷达坐标系下的坐标(S103);根据目标在激光雷达坐标系下的坐标,跟随目标移动(S104),从而能够使机器人自动、准确地跟随目标移动。

Description

跟随目标的方法、装置、机器人及计算机可读存储介质
相关申请的交叉引用
本申请是以CN申请号为202110658055.1,申请日为2021年6月15日的申请为基础,并主张其优先权,该CN申请的公开内容在此作为整体引入本申请中。
技术领域
本公开机器人技术领域,特别涉及一种跟随目标的方法、装置、机器人及非瞬时性计算机可读存储介质。
背景技术
机器人在搬运货物等方面有显著的作业优势。
为了使机器人能够与工人协同作业,通常采用两种方式。一种方式是通过人工遥控,使机器人移动至指定位置;另一种方式包括对机器人进行试教以及为机器人建立地图。
发明内容
根据本公开的第一个方面,提供了一种跟随目标的方法,包括:通过激光雷达获取各个备选目标在激光雷达坐标系下的坐标;通过辅助定位装置获取目标在激光雷达坐标系下的辅助坐标,各个备选目标包括目标;根据各个备选目标在激光雷达坐标系下的坐标、目标在激光雷达坐标系下的辅助坐标,确定目标在激光雷达坐标系下的坐标;根据目标在激光雷达坐标系下的坐标,跟随目标移动。
在一些实施例中,通过激光雷达获取各个备选目标在激光雷达坐标系下的坐标包括:通过激光雷达获取第一扫描帧中各个备选目标在激光雷达坐标系下的第一坐标、第二扫描帧中各个备选目标在激光雷达坐标系下的第二坐标;通过辅助定位装置获取目标在激光雷达坐标系下的辅助坐标包括:通过辅助定位装置获取第一扫描帧所在扫描时刻下目标在激光雷达坐标系下的第一辅助坐标、第二扫描帧所在扫描时刻下目标在激光雷达坐标系下的第二辅助坐标;根据各个备选目标在激光雷达坐标系下的坐标、目标在激光雷达坐标系下的辅助坐标,确定目标在激光雷达坐标系下的坐标包括:根据第一坐标和第一辅助坐标,确定目标在激光雷达坐标系下的第一坐标;根据第二坐标和第二辅助坐标,确定目标在激光雷达坐标系下的第二坐标。
在一些实施例中,根据目标在激光雷达坐标系下的坐标,跟随目标移动包括:根据目标在激光雷达坐标系下的第二坐标与目标在激光雷达坐标系下的第一坐标之间的坐标差,确定移动方向和移动距离;根据第一扫描帧与第二扫描帧之间的扫描间隔以及坐标差,确定移动速率。
在一些实施例中,通过激光雷达获取第一扫描帧中各个备选目标在激光雷达坐标系下的第一坐标包括:根据激光雷达坐标系下的坐标,对激光雷达通过第一扫描帧生成的激光点云进行聚类,获得多个激光点簇;对各个激光点簇分别进行曲线拟合;为长度在预设长度范围内的各条拟合曲线,分别确定最小外接旋转矩形;将各个最小外接旋转矩形的中心点在激光雷达坐标系下的坐标,作为第一扫描帧中各个备选目标在激光雷达坐标系下的第一坐标。
在一些实施例中,根据第一坐标和第一辅助坐标,确定目标在激光雷达坐标系下的第一坐标包括:确定各个最小外接旋转矩形的宽的方向;筛选出宽的方向与机器人前进方向的夹角小于第一阈值的最小外接旋转矩形;从筛选出的各个最小外接旋转矩形的中心点中,选择与激光雷达坐标系原点距离最近的中心点;在距离最近的中心点与第一辅助坐标的距离小于第二阈值的情况下,将距离最近的中心点作为目标在激光雷达坐标系下的第一坐标。
在一些实施例中,通过激光雷达获取第一扫描帧中各个备选目标在激光雷达坐标系下的第一坐标还包括:对激光雷达通过第一扫描帧生成的激光点云进行聚类之前,删除激光点云中第t个扫描点,其中,第t个扫描点的坐标与第(t-1)个扫描点之间的距离大于第三阈值,且第t个扫描点的坐标与第(t+1)个扫描点之间的距离大于第三阈值,t为大于1的整数。
在一些实施例中,通过激光雷达获取第二扫描帧中各个备选目标在激光雷达坐标系下的第二坐标包括:根据激光雷达坐标系下的坐标,对激光雷达通过第二扫描帧生成的激光点云进行聚类,获得多个激光点簇;对各个激光点簇分别进行曲线拟合;为长度在预设长度范围内的各条拟合曲线,分别确定最小外接旋转矩形;将各个最小外接旋转矩形的中心点在激光雷达坐标系下的坐标,作为第二扫描帧中各个备选目标在激光雷达坐标系下的第二坐标。
在一些实施例中,根据第二坐标和第二辅助坐标,确定目标在激光雷达坐标系下的第二坐标包括:将目标在激光雷达坐标系下的第一坐标输入卡尔曼滤波器,获得目标在激光雷达坐标系下的预测坐标;从第二扫描帧中各个备选目标在激光雷达坐标系下的第二坐标 中,选择与预测坐标距离最近的第二坐标;在距离最近的第二坐标与第二辅助坐标的距离小于第二阈值的情况下,将距离最近的第二坐标作为目标在激光雷达坐标系下的第二坐标。
在一些实施例中,通过激光雷达获取第二扫描帧中各个备选目标在激光雷达坐标系下的第二坐标还包括:对激光雷达通过第二扫描帧生成的激光点云进行聚类之前,删除激光点云中第t个扫描点,其中,第t个扫描点的坐标与第(t-1)个扫描点之间的距离大于第三阈值,且第t个扫描点的坐标与第(t+1)个扫描点之间的距离大于第三阈值,t为大于1的整数。
在一些实施例中,辅助定位装置包括超宽带定位装置或视觉相机。
根据本公开的第二个方面,提供了一种跟随目标的装置,包括:存储器;以及耦接至存储器的处理器,处理器被配置为基于存储在存储器中的指令,执行前述的跟随目标的方法。
根据本公开的第三个方面,提供了一种机器人,包括激光雷达、辅助定位装置以及前述的跟随目标的装置。
根据本公开的第四个方面,提供了一种非瞬时性计算机可读存储介质,其中,非瞬时性计算机可读存储介质存储有计算机指令,指令被处理器执行时实现前述的跟随目标的方法。
通过以下参照附图对本公开的示例性实施例的详细描述,本公开的其它特征及其优点将会变得清楚。
附图说明
为了更清楚地说明本公开实施例或相关技术中的技术方案,下面将对实施例或相关技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1示出了本公开一些实施例的跟随目标的方法的流程示意图。
图2示出了各个备选目标在激光雷达坐标系下的坐标的示意图。
图3示出了本公开另一些实施例的跟随目标的方法的流程示意图。
图4示出了多个激光点簇、各条拟合曲线以及各个最小外接旋转矩形的示意图。
图5示出了本公开一些实施例的跟随目标的装置的结构示意图。
图6示出了本公开一些实施例的机器人的结构示意图。
具体实施方式
下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本公开保护的范围。
经研究发现,通过人工遥控使机器人移动至指定位置的过程中,需要熟悉机器人遥控的专业工人进行操作,且操作过程中需要反复专业工人遥控机器人进行前后左右的移动,不仅操作灵活性差还需要耗费较长的操作时间,因此操作体验较差。而对机器人进行试教以及为机器人建立地图的方式需要提前指定机器人的移动路线,因此不能灵活更改移动路线。由此可见,机器人与工人协同作业的传统方法中,无法实现机器人自动、准确地跟随目标(例如工人)移动。
本公开解决的一个技术问题是,如何使机器人自动、准确地跟随目标移动。
有鉴于此,本公开提供了一种跟随目标的方法。首先结合图1描述本公开跟随目标的方法的一些实施例。
图1示出了本公开一些实施例的跟随目标的方法的流程示意图。如图1所示,该方法包括步骤S101~步骤S104。
在步骤S101中,通过激光雷达获取各个备选目标在激光雷达坐标系下的坐标。
机器人通过配置激光雷达(例如单线激光雷达或多线激光雷达),能够获得激光点云数据。根据激光点云数据,能够获取各个备选目标在激光雷达坐标系下的坐标,这些备选目标中包括机器人需要跟随的目标。图2示出了各个备选目标在激光雷达坐标系下的坐标的示意图。如图2所示,激光雷达坐标系的y轴方向表示机器人的前进方向(也是激光雷达的扫描主方向),激光雷达坐标系的x轴方向表示机器人的右方向。
在步骤S102中,通过辅助定位装置获取目标在激光雷达坐标系下的辅助坐标。
其中,辅助定位装置包括UWB(Ultra Wide Band,超宽带)定位装置或具有目标检测功能的视觉相机,其中,具有目标检测功能的视觉相机可以包括深度相机、双目相机等等。
在步骤S103中,根据各个备选目标在激光雷达坐标系下的坐标、目标在激光雷达坐 标系下的辅助坐标,确定目标在激光雷达坐标系下的坐标。
一种具体的实现方式是,从各个备选目标在激光雷达坐标系下的坐标中,选取与目标在激光雷达坐标系下的辅助坐标距离最近坐标,作为目标在激光雷达坐标系下的坐标。
在步骤S104中,根据目标在激光雷达坐标系下的坐标,跟随目标移动。
获得目标在激光雷达坐标系下的坐标后,可以根据目标在激光雷达坐标系下的坐标,确定机器人的移动方向和移动距离,从而使机器人跟随目标移动。
由于辅助定位装置提供的辅助坐标精确性较低,激光雷达提供的坐标精确性较高却难以准确识别目标。上述实施例中,根据激光雷达提供的坐标以及辅助定位装置提供的辅助坐标,能够更加准确的确定目标在激光雷达坐标系下的坐标,从而使机器人根据目标在激光雷达坐标系下的坐标自动、准确地跟随目标移动。因此无需人工遥控、对机器人进行试教或为机器人建立地图,即可实现机器人自动化跟随工人进行协同作业。同时,上述实施例对于光线、遮挡、目标移动速度、目标形变等因素都具有较好的鲁棒性,因此具有广泛的适用性。
下面结合图3描述本公开跟随目标的方法的另一些实施例。
图3示出了本公开另一些实施例的跟随目标的方法的流程示意图。如图3所示,这些实施例包括步骤S301~步骤S308。其中,步骤S301~步骤S303为通过第一扫描帧获取目标在激光雷达坐标系下坐标的过程,步骤S304~步骤S306为通过第二扫描帧获取目标在激光雷达坐标系下坐标的过程,步骤S307~步骤S308为根据两个扫描帧中目标在激光雷达坐标系下的坐标跟随目标移动的过程。
在步骤S301中,通过激光雷达获取第一扫描帧中各个备选目标在激光雷达坐标系下的第一坐标。步骤S301的具体实现过程可以包括步骤S3011~步骤S3014。
(S3011)根据激光雷达坐标系下的坐标,对激光雷达通过第一扫描帧生成的激光点云进行聚类,获得多个激光点簇。聚类算法具体可以采用DBSCAN(Density-Based Spatial Clustering of Applications with Noise,具有噪声的基于密度的空间聚类应用)、最近邻聚类算法等等。聚类得到的每个激光点簇表示一个备选目标。
(S3012)对各个激光点簇分别进行曲线拟合。
(S3013)为长度在预设长度范围内的各条拟合曲线,分别确定最小外接旋转矩形。例如,选取长度与工人腰宽相近似的拟合曲线,确定最小外接旋转矩形。
(S3014)将各个最小外接旋转矩形的中心点在激光雷达坐标系下的坐标,作为第一扫描帧中各个备选目标在激光雷达坐标系下的第一坐标。
多个激光点簇、各条拟合曲线以及各个最小外接旋转矩形如图4所示。
在步骤S302中,通过辅助定位装置获取第一扫描帧所在扫描时刻下目标在激光雷达坐标系下的第一辅助坐标。
本领域技术人员应理解,通过辅助定位装置获取到的位置信息后,需要映射至激光雷达坐标系,获得目标在激光雷达坐标系下的第一辅助坐标。第一辅助坐标既可以为具体的坐标点,也可以为具有辅助中心坐标的辅助坐标区域。
在步骤S303中,根据第一坐标和第一辅助坐标,确定目标在激光雷达坐标系下的第一坐标。步骤S303的具体实现过程可以包括步骤S3031~步骤S3034。
(S3031)确定各个最小外接旋转矩形的宽的方向。本领域技术人员能够理解,最小外接旋转矩形的宽的方向表示目标的前后方向。
(S3032)筛选出宽的方向与机器人前进方向的夹角小于第一阈值的最小外接旋转矩形,从而筛选出与背对机器人中央的目标。
(S3033)从筛选出的各个最小外接旋转矩形的中心点中,选择与激光雷达坐标系原点距离最近的中心点,从而选择出距离机器人距离最近的目标。
(S3034)在距离最近的中心点与第一辅助坐标的距离小于第二阈值的情况下,将距离最近的中心点作为目标在激光雷达坐标系下的第一坐标。
在距离最近的中心点与第一辅助坐标的距离不小于第二阈值的情况下,重复执行步骤S301~步骤S303。如果重复执行步骤S301~步骤S303的次数达到预设的次数上限仍不能确定目标在激光雷达坐标系下的第一坐标,则发出报警以表示无法识别出要跟随的目标。
在步骤S304中,通过激光雷达获取第二扫描帧中各个备选目标在激光雷达坐标系下的第二坐标。步骤S304的具体实现过程可以包括步骤S3041~步骤S3044,与S301的实现过程相类似。
(S3041)根据激光雷达坐标系下的坐标,对激光雷达通过第二扫描帧生成的激光点云进行聚类,获得多个激光点簇。
(S3042)对各个激光点簇分别进行曲线拟合。
(S3043)为长度在预设长度范围内的各条拟合曲线,分别确定最小外接旋转矩形。
(S3044)将各个最小外接旋转矩形的中心点在激光雷达坐标系下的坐标,作为第二扫描帧中各个备选目标在激光雷达坐标系下的第二坐标。
在步骤S305中,通过辅助定位装置获取第二扫描帧所在扫描时刻下目标在激光雷达坐标系下的第二辅助坐标。步骤S305与S302的实现过程相类似。
在步骤S306中,根据第二坐标和第二辅助坐标,确定目标在激光雷达坐标系下的第二坐标。步骤S306的具体实现过程还可以包括步骤S3061~步骤S3063。
(S3061)将目标在激光雷达坐标系下的第一坐标输入卡尔曼滤波器,获得目标在激光雷达坐标系下的预测坐标。
(S3062)从第二扫描帧中各个备选目标在激光雷达坐标系下的第二坐标中,选择与预测坐标距离最近的第二坐标。
(S3063)在距离最近的第二坐标与第二辅助坐标的距离小于第二阈值的情况下,将距离最近的第二坐标作为目标在激光雷达坐标系下的第二坐标。
在距离最近的中心点与第二辅助坐标的距离不小于第二阈值的情况下,重复执行步骤S304~步骤S306。如果重复执行步骤S304~步骤S306的次数达到预设的次数上限仍不能确定目标在激光雷达坐标系下的第一坐标,则发出报警以表示丢失要跟随的目标。
在步骤S307中,根据目标在激光雷达坐标系下的第二坐标与目标在激光雷达坐标系下的第一坐标之间的坐标差,确定移动方向和移动距离。
例如,该坐标差唯一对应一个向量。将该向量的方向作为机器人的移动方向,将该向量的长度与预设的比例相乘作为机器人的移动距离。
在步骤S308中,根据第一扫描帧与第二扫描帧之间的扫描间隔以及坐标差,确定移动速率。
例如,可以将上述向量的长度与上述扫描间隔的比值,作为机器人的移动速率。
在一些实施例中,步骤S301的具体实现过程还可以包括步骤S3010。
(S3010)对激光雷达通过第一扫描帧生成的激光点云进行聚类之前,删除激光点云中第t个扫描点,其中,第t个扫描点的坐标与第(t-1)个扫描点之间的距离大于第三阈值,且第t个扫描点的坐标与第(t+1)个扫描点之间的距离大于第三阈值,t为大于1的整数。
在一些实施例中,步骤S304的具体实现过程还可以包括步骤S3040。
(S3040)对激光雷达通过第二扫描帧生成的激光点云进行聚类之前,删除激光点云中第t个扫描点,其中,第t个扫描点的坐标与第(t-1)个扫描点之间的距离大于第三阈值,且第t个扫描点的坐标与第(t+1)个扫描点之间的距离大于第三阈值,t为大于1的整数。
步骤S3010以及步骤S3040的作用是除去激光点云中的噪声点,以防止因反射等原因形成干扰,从而进一步提升跟随目标的准确性。
上述实施例中,根据激光雷达提供的坐标以及辅助定位装置提供的辅助坐标,能够更加准确的确定目标在激光雷达坐标系下的坐标,从而使机器人根据目标在激光雷达坐标系下的坐标自动、准确地跟随目标移动。因此无需人工遥控、对机器人进行试教或为机器人建立地图,即可实现机器人自动化跟随工人进行协同作业。同时,上述实施例对于光线、遮挡、目标移动速度、目标形变等因素都具有较好的鲁棒性,因此具有广泛的适用性。
下面结合图5描述本公开跟随目标的装置的一些实施例。
图5示出了本公开一些实施例的跟随目标的装置的结构示意图。如图5所示,跟随目标的装置50包括:存储器510以及耦接至该存储器510的处理器520,处理器520被配置为基于存储在存储器510中的指令,执行前述任意一些实施例中的跟随目标的方法。
其中,存储器510例如可以包括系统存储器、固定非易失性存储介质等。系统存储器例如存储有操作系统、应用程序、引导装载程序(Boot Loader)以及其他程序等。
跟随目标的装置50还可以包括输入输出接口530、网络接口540、存储接口550等。这些接口530、540、550以及存储器510和处理器520之间例如可以通过总线560连接。其中,输入输出接口530为显示器、鼠标、键盘、触摸屏等输入输出设备提供连接接口。网络接口540为各种联网设备提供连接接口。存储接口550为SD卡、U盘等外置存储设备提供连接接口。
本公开能够使机器人自动、准确地跟随目标移动。
下面结合图6描述本公开机器人的一些实施例。
图6示出了本公开一些实施例的机器人的结构示意图。如图6所示,机器人60包括:激光雷达601、辅助定位装置602以及前述的跟随目标的装置50。
本公开还包括一种非瞬时性计算机可读存储介质,其上存储有计算机指令,该指令被处理器执行时实现前述任意一些实施例中的跟随目标的方法。
前述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
本公开是参照根据本公开实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、商品或者设备中还存在另外的相同要素。
以上所述仅为本公开的较佳实施例,并不用以限制本公开,凡在本公开的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。

Claims (13)

  1. 一种跟随目标的方法,包括:
    通过激光雷达获取各个备选目标在激光雷达坐标系下的坐标;
    通过辅助定位装置获取目标在激光雷达坐标系下的辅助坐标,各个备选目标包括所述目标;
    根据各个备选目标在激光雷达坐标系下的坐标、所述目标在激光雷达坐标系下的辅助坐标,确定所述目标在激光雷达坐标系下的坐标;
    根据所述目标在激光雷达坐标系下的坐标,跟随所述目标移动。
  2. 根据权利要求1所述的方法,其中,
    所述通过激光雷达获取各个备选目标在激光雷达坐标系下的坐标包括:通过激光雷达获取第一扫描帧中各个备选目标在激光雷达坐标系下的第一坐标、第二扫描帧中各个备选目标在激光雷达坐标系下的第二坐标;
    所述通过辅助定位装置获取目标在激光雷达坐标系下的辅助坐标包括:通过辅助定位装置获取第一扫描帧所在扫描时刻下所述目标在激光雷达坐标系下的第一辅助坐标、第二扫描帧所在扫描时刻下所述目标在激光雷达坐标系下的第二辅助坐标;
    所述根据各个备选目标在激光雷达坐标系下的坐标、所述目标在激光雷达坐标系下的辅助坐标,确定所述目标在激光雷达坐标系下的坐标包括:根据所述第一坐标和所述第一辅助坐标,确定所述目标在激光雷达坐标系下的第一坐标;根据所述第二坐标和所述第二辅助坐标,确定所述目标在激光雷达坐标系下的第二坐标。
  3. 根据权利要求2所述的方法,其中,所述根据所述目标在激光雷达坐标系下的坐标,跟随所述目标移动包括:
    根据所述目标在激光雷达坐标系下的第二坐标与所述目标在激光雷达坐标系下的第一坐标之间的坐标差,确定移动方向和移动距离;
    根据第一扫描帧与第二扫描帧之间的扫描间隔以及所述坐标差,确定移动速率。
  4. 根据权利要求2所述的方法,其中,所述通过激光雷达获取第一扫描帧中各个备选目标在激光雷达坐标系下的第一坐标包括:
    根据激光雷达坐标系下的坐标,对激光雷达通过第一扫描帧生成的激光点云进行聚类,获得多个激光点簇;
    对各个激光点簇分别进行曲线拟合;
    为长度在预设长度范围内的各条拟合曲线,分别确定最小外接旋转矩形;
    将各个最小外接旋转矩形的中心点在激光雷达坐标系下的坐标,作为第一扫描帧中各个备选目标在激光雷达坐标系下的第一坐标。
  5. 根据权利要求4所述的方法,其中,所述根据所述第一坐标和所述第一辅助坐标,确定所述目标在激光雷达坐标系下的第一坐标包括:
    确定各个最小外接旋转矩形的宽的方向;
    筛选出所述宽的方向与机器人前进方向的夹角小于第一阈值的最小外接旋转矩形;
    从筛选出的各个最小外接旋转矩形的中心点中,选择与激光雷达坐标系原点距离最近的中心点;
    在所述距离最近的中心点与所述第一辅助坐标的距离小于第二阈值的情况下,将所述距离最近的中心点作为所述目标在激光雷达坐标系下的第一坐标。
  6. 根据权利要求4所述的方法,其中,所述通过激光雷达获取第一扫描帧中各个备选目标在激光雷达坐标系下的第一坐标还包括:
    对激光雷达通过第一扫描帧生成的激光点云进行聚类之前,删除所述激光点云中第t个扫描点,其中,第t个扫描点的坐标与第(t-1)个扫描点之间的距离大于第三阈值,且第t个扫描点的坐标与第(t+1)个扫描点之间的距离大于第三阈值,t为大于1的整数。
  7. 根据权利要求2所述的方法,其中,所述通过激光雷达获取第二扫描帧中各个备选目标在激光雷达坐标系下的第二坐标包括:
    根据激光雷达坐标系下的坐标,对激光雷达通过第二扫描帧生成的激光点云进行聚类,获得多个激光点簇;
    对各个激光点簇分别进行曲线拟合;
    为长度在预设长度范围内的各条拟合曲线,分别确定最小外接旋转矩形;
    将各个最小外接旋转矩形的中心点在激光雷达坐标系下的坐标,作为第二扫描帧中各个备选目标在激光雷达坐标系下的第二坐标。
  8. 根据权利要求7所述的方法,其中,所述根据所述第二坐标和所述第二辅助坐标,确定所述目标在激光雷达坐标系下的第二坐标包括:
    将所述目标在激光雷达坐标系下的第一坐标输入卡尔曼滤波器,获得所述目标在激光雷达坐标系下的预测坐标;
    从第二扫描帧中各个备选目标在激光雷达坐标系下的第二坐标中,选择与所述预测坐标距离最近的第二坐标;
    在所述距离最近的第二坐标与所述第二辅助坐标的距离小于第二阈值的情况下,将所述距离最近的第二坐标作为所述目标在激光雷达坐标系下的第二坐标。
  9. 根据权利要求7所述的方法,其中,所述通过激光雷达获取第二扫描帧中各个备选目标在激光雷达坐标系下的第二坐标还包括:
    对激光雷达通过第二扫描帧生成的激光点云进行聚类之前,删除所述激光点云中第t个扫描点,其中,第t个扫描点的坐标与第(t-1)个扫描点之间的距离大于第三阈值,且第t个扫描点的坐标与第(t+1)个扫描点之间的距离大于第三阈值,t为大于1的整数。
  10. 根据权利要求1至9任一项所述的方法,其中,所述辅助定位装置包括超宽带定位装置或视觉相机。
  11. 一种跟随目标的装置,包括:
    存储器;以及
    耦接至所述存储器的处理器,所述处理器被配置为基于存储在所述存储器中的指令,执行如权利要求1至10中任一项所述的跟随目标的方法。
  12. 一种机器人,包括激光雷达、辅助定位装置以及如权利要求11所述的跟随目标的装置。
  13. 一种非瞬时性计算机可读存储介质,其中,所述非瞬时性计算机可读存储介质存储有计算机指令,所述指令被处理器执行时实现如权利要求1至10中任一项所述的跟随目标的方法。
PCT/CN2022/096935 2021-06-15 2022-06-02 跟随目标的方法、装置、机器人及计算机可读存储介质 WO2022262594A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202110658055.1 2021-06-15
CN202110658055.1A CN113253735B (zh) 2021-06-15 2021-06-15 跟随目标的方法、装置、机器人及计算机可读存储介质

Publications (1)

Publication Number Publication Date
WO2022262594A1 true WO2022262594A1 (zh) 2022-12-22

Family

ID=77188103

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2022/096935 WO2022262594A1 (zh) 2021-06-15 2022-06-02 跟随目标的方法、装置、机器人及计算机可读存储介质

Country Status (2)

Country Link
CN (1) CN113253735B (zh)
WO (1) WO2022262594A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116642903A (zh) * 2023-04-17 2023-08-25 国能锅炉压力容器检验有限公司 一种基于激光扫描现场获取连续金相组织的设备及方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113253735B (zh) * 2021-06-15 2021-10-08 同方威视技术股份有限公司 跟随目标的方法、装置、机器人及计算机可读存储介质
CN117549939B (zh) * 2023-11-13 2024-04-12 沈阳奇辉机器人应用技术有限公司 有轨机器人与车厢共速的方法和设备

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107765220A (zh) * 2017-09-20 2018-03-06 武汉木神机器人有限责任公司 基于uwb和激光雷达混合定位的行人跟随系统及方法
CN110246159A (zh) * 2019-06-14 2019-09-17 湖南大学 基于视觉和雷达信息融合的3d目标运动分析方法
CN110942474A (zh) * 2019-11-27 2020-03-31 炬星科技(深圳)有限公司 机器人目标跟踪方法、设备及存储介质
CN111198496A (zh) * 2020-01-03 2020-05-26 浙江大学 一种目标跟随机器人及跟随方法
WO2020199173A1 (zh) * 2019-04-03 2020-10-08 华为技术有限公司 定位方法和定位装置
CN111986232A (zh) * 2020-08-13 2020-11-24 上海高仙自动化科技发展有限公司 目标物体的检测方法、装置、机器人及存储介质
CN112154444A (zh) * 2019-10-17 2020-12-29 深圳市大疆创新科技有限公司 目标检测与跟踪方法、系统、可移动平台、相机及介质
CN112462782A (zh) * 2020-11-30 2021-03-09 北京航天光华电子技术有限公司 一种多功能智能跟随小车系统
CN112487919A (zh) * 2020-11-25 2021-03-12 吉林大学 一种基于相机与激光雷达的3d目标检测与跟踪方法
CN112561841A (zh) * 2020-12-04 2021-03-26 深兰人工智能(深圳)有限公司 激光雷达和相机的点云数据融合方法、装置
US20210173407A1 (en) * 2019-12-05 2021-06-10 Lingdong Technology (Beijing) Co.Ltd Self-driving system with tracking capability
CN113066100A (zh) * 2021-03-25 2021-07-02 东软睿驰汽车技术(沈阳)有限公司 目标跟踪方法、装置、设备及存储介质
CN113253735A (zh) * 2021-06-15 2021-08-13 同方威视技术股份有限公司 跟随目标的方法、装置、机器人及计算机可读存储介质
CN113916213A (zh) * 2020-07-08 2022-01-11 北京猎户星空科技有限公司 定位方法、装置、电子设备和计算机可读存储介质
CN113985445A (zh) * 2021-08-24 2022-01-28 中国北方车辆研究所 一种基于相机与激光雷达数据融合的3d目标检测算法
CN114155557A (zh) * 2021-12-07 2022-03-08 美的集团(上海)有限公司 定位方法、装置、机器人及计算机可读存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE542376C2 (en) * 2018-10-25 2020-04-21 Ireality Ab Method and controller for tracking moving objects
CN112731371B (zh) * 2020-12-18 2024-01-23 重庆邮电大学 一种激光雷达与视觉融合的集成化目标跟踪系统及方法

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107765220A (zh) * 2017-09-20 2018-03-06 武汉木神机器人有限责任公司 基于uwb和激光雷达混合定位的行人跟随系统及方法
WO2020199173A1 (zh) * 2019-04-03 2020-10-08 华为技术有限公司 定位方法和定位装置
CN110246159A (zh) * 2019-06-14 2019-09-17 湖南大学 基于视觉和雷达信息融合的3d目标运动分析方法
CN112154444A (zh) * 2019-10-17 2020-12-29 深圳市大疆创新科技有限公司 目标检测与跟踪方法、系统、可移动平台、相机及介质
CN110942474A (zh) * 2019-11-27 2020-03-31 炬星科技(深圳)有限公司 机器人目标跟踪方法、设备及存储介质
US20210173407A1 (en) * 2019-12-05 2021-06-10 Lingdong Technology (Beijing) Co.Ltd Self-driving system with tracking capability
CN111198496A (zh) * 2020-01-03 2020-05-26 浙江大学 一种目标跟随机器人及跟随方法
CN113916213A (zh) * 2020-07-08 2022-01-11 北京猎户星空科技有限公司 定位方法、装置、电子设备和计算机可读存储介质
CN111986232A (zh) * 2020-08-13 2020-11-24 上海高仙自动化科技发展有限公司 目标物体的检测方法、装置、机器人及存储介质
CN112487919A (zh) * 2020-11-25 2021-03-12 吉林大学 一种基于相机与激光雷达的3d目标检测与跟踪方法
CN112462782A (zh) * 2020-11-30 2021-03-09 北京航天光华电子技术有限公司 一种多功能智能跟随小车系统
CN112561841A (zh) * 2020-12-04 2021-03-26 深兰人工智能(深圳)有限公司 激光雷达和相机的点云数据融合方法、装置
CN113066100A (zh) * 2021-03-25 2021-07-02 东软睿驰汽车技术(沈阳)有限公司 目标跟踪方法、装置、设备及存储介质
CN113253735A (zh) * 2021-06-15 2021-08-13 同方威视技术股份有限公司 跟随目标的方法、装置、机器人及计算机可读存储介质
CN113985445A (zh) * 2021-08-24 2022-01-28 中国北方车辆研究所 一种基于相机与激光雷达数据融合的3d目标检测算法
CN114155557A (zh) * 2021-12-07 2022-03-08 美的集团(上海)有限公司 定位方法、装置、机器人及计算机可读存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116642903A (zh) * 2023-04-17 2023-08-25 国能锅炉压力容器检验有限公司 一种基于激光扫描现场获取连续金相组织的设备及方法

Also Published As

Publication number Publication date
CN113253735A (zh) 2021-08-13
CN113253735B (zh) 2021-10-08

Similar Documents

Publication Publication Date Title
WO2022262594A1 (zh) 跟随目标的方法、装置、机器人及计算机可读存储介质
Kropp et al. Interior construction state recognition with 4D BIM registered image sequences
Xiao et al. Vision-based method integrating deep learning detection for tracking multiple construction machines
Kim et al. Vision-based object-centric safety assessment using fuzzy inference: Monitoring struck-by accidents with moving objects
AU2019283835B2 (en) Interactive deep matting
US9237315B2 (en) Intrusion detection with directional sensing
AU2011280040B2 (en) Method and apparatus for motion based target prediction and interaction
US11188739B2 (en) Processing uncertain content in a computer graphics system
Chen et al. Real-time 3D crane workspace update using a hybrid visualization approach
GB2317798A (en) Method and apparatus for providing three-dimensional model associativity
US11348275B2 (en) Methods and apparatuses for determining bounding box of target object, media, and devices
CN111761581B (zh) 路径规划方法及装置、狭窄空间行进方法及装置
US8836802B2 (en) Method of defining camera scan movements using gestures
Scargill et al. Here to stay: Measuring hologram stability in markerless smartphone augmented reality
CN111524165B (zh) 目标跟踪方法和装置
US9305233B2 (en) Isotropic feature matching
CN109242882A (zh) 视觉跟踪方法、装置、介质及设备
AU2020222504B2 (en) Situational awareness monitoring
KR101769129B1 (ko) 온라인 환경에서 구현되는 대시보드 내 차트간 인터랙션 방법
Lee et al. Robust multithreaded object tracker through occlusions for spatial augmented reality
US20180040128A1 (en) Verification of business processes using spatio-temporal data
JP2022098433A (ja) 車両関連付け方法、車両関連付け装置、コンピュータ可読記憶媒体、コンピュータプログラム製品、路側機器、クラウドコントロールプラットフォームおよびプログラム
RU2685996C1 (ru) Способ и система предиктивного избегания столкновения манипулятора с человеком
CN111008080A (zh) 信息处理方法、装置、终端设备及存储介质
US20170262075A1 (en) Methods and systems for positioning and controlling sound images in three-dimensional space

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22824074

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE