CN106774303B - 一种追踪方法及追踪设备 - Google Patents
一种追踪方法及追踪设备 Download PDFInfo
- Publication number
- CN106774303B CN106774303B CN201611039756.2A CN201611039756A CN106774303B CN 106774303 B CN106774303 B CN 106774303B CN 201611039756 A CN201611039756 A CN 201611039756A CN 106774303 B CN106774303 B CN 106774303B
- Authority
- CN
- China
- Prior art keywords
- location information
- group
- speed data
- speed
- target area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000012544 monitoring process Methods 0.000 claims abstract description 46
- 238000009826 distribution Methods 0.000 claims description 66
- 238000012545 processing Methods 0.000 claims description 28
- 238000012512 characterization method Methods 0.000 claims description 20
- 230000002159 abnormal effect Effects 0.000 claims description 14
- 238000012806 monitoring device Methods 0.000 claims description 5
- 230000005856 abnormality Effects 0.000 claims description 3
- 230000004888 barrier function Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 230000004927 fusion Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 9
- 241000406668 Loxodonta cyclotis Species 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 241001269238 Data Species 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 230000002547 anomalous effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 239000000700 radioactive tracer Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/50—Systems of measurement based on relative movement of target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/02—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
- G01S5/06—Position of source determined by co-ordinating a plurality of position lines defined by path-difference measurements
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Computer Networks & Wireless Communication (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开了一种追踪方法及追踪设备,包括:监测第一对象的第一位置信息;监测目标区域内的第二对象的第二位置信息;结合所述第一位置信息与所述第二位置信息,确定出追踪所述第一对象的运动数据;根据所述运动数据追踪所述第一对象。
Description
技术领域
本发明涉及智能追踪技术,尤其涉及一种追踪方法及追踪设备。
背景技术
超宽带(UWB,Ultra Wideband)是一种无线载波通信技术,利用UWB技术能够实现定位追踪,具体地,在追踪机器人上设置UWB锚节点(UWB anchor),在目标对象上设置UWB信标(UWB tag),这样,追踪机器人利用UWB anchor便可实时追踪携带UWB tag的目标对象。在追踪过程中,因为目标对象与追踪机器人之间存在一定的距离,在目标对象运动的过程中,可能在两者之间出现障碍物,从而导致机器人在追踪的过程中发生碰撞,导致追踪失败甚至损坏追踪机器人。
发明内容
为解决上述技术问题,本发明实施例提供了一种追踪方法及追踪设备。
本发明实施例提供的追踪方法,包括:
监测第一对象的第一位置信息;
监测目标区域内的第二对象的第二位置信息;
结合所述第一位置信息与所述第二位置信息,确定出追踪所述第一对象的运动数据;
根据所述运动数据追踪所述第一对象。
本发明实施例中,所述监测目标区域内的第二对象的第二位置信息,包括:
对目标区域进行监测,得到目标区域内表征各个对象位置分布的第一坐标参数集合;
获取监测装置的位姿参数,根据所述位姿参数确定所述目标区域内表征第三对象位置分布的第二坐标参数集合;
获取所述第一对象的第一位置信息以及边界信息,确定出以所述第一位置信息为中心且以所述边界信息为边界约束的第三坐标参数集合;
从所述第一坐标参数集合中去除所述第二坐标参数集合以及所述第三坐标参数集合,得到目标区域内的表征所述第二对象分布的第四坐标参数集合。
本发明实施例中,所述监测目标区域内的第二对象的第二位置信息,还包括:
将所述目标区域内的表征所述第二对象分布的第四坐标参数集合投影至预设维度的坐标系中,得到所述预设维度的坐标系内的第五坐标参数集合,所述第五坐标参数集合即用于表示所述第二对象的第二位置信息。
本发明实施例中,所述监测目标区域内的第二对象的第二位置信息,包括:
对目标区域进行监测,得到目标区域内表征各个对象位置分布的第一坐标参数集合;
获取所述第一对象的第一位置信息以及边界信息,确定出以所述第一位置信息为中心且以所述边界信息为边界约束的第三坐标参数集合;
从所述第一坐标参数集合中去除所述第三坐标参数集合,得到目标区域内的表征所述第二对象分布的第四坐标参数集合,所述第四坐标参数集合即用于表示所述第二对象的第二位置信息。
本发明实施例中,所述结合所述第一位置信息与所述第二位置信息,确定出追踪所述第一对象的运动数据,包括:
根据所述第一对象的第一位置信息,确定与追踪所述第一对象相关的第一组速度数据;
根据所述第一对象的第一位置信息和所述第二对象的第二位置信息,确定与追踪所述第一对象相关的第二组速度数据;
结合所述第一组速度数据、所述第二组速度数据以及所述第二对象的第二位置信息,确定出追踪所述第一对象的运动数据。
本发明实施例中,所述方法还包括:
在根据所述运动数据追踪所述第一对象时,检测是否发生异常事件;
当发生异常事件时,调整所述运动数据小于等于预设值。
本发明实施例中,所述第一位置信息通过方向角和距离来表示,用于表征所述第一对象的位置;所述第一组速度数据通过角速度和线速度来表示,用于表征在目标区域内没有所述第二对象的状态下追踪所述第一对象的速度;
所述第二位置信息通过方向角和距离来表示,用于表征所述第二对象在所述目标区域内的位置分布;所述第二组速度数据通过角速度和线速度来表示,用于表征在目标区域内有所述第二对象的状态下追踪所述第一对象的速度;
相应地,所述结合所述第一组速度数据、所述第二组速度数据以及所述第二对象的第二位置信息,确定出追踪所述第一对象的运动数据,包括:
追踪所述第一对象时,根据追踪设备当前的速度和所述第二对象的第二位置信息,计算所述追踪设备与所述第二对象之间的距离;
根据所述距离确定所述第一组速度数据和所述第二组速度数据分别对应的权重;
基于所确定的权重,对所述第一组速度数据和所述第二组速度数据进行加权处理,得到所述追踪设备追踪所述第一对象的运动数据。
本发明实施例中,所述第一位置信息通过方向角、仰角和距离来表示,用于表征所述第一对象的位置;所述第一组速度数据通过第一维速度分量、第二维速度分量和第三维速度分量来表示,用于表征在目标区域内没有所述第二对象的状态下追踪所述第一对象的速度;
所述第二位置信息通过方向角、仰角和距离来表示,用于表征所述第二对象在所述目标区域内的位置分布;所述第二组速度数据通过第一维速度分量、第二维速度分量和第三维速度分量来表示,用于表征在目标区域内有所述第二对象的状态下追踪所述第一对象的速度;
相应地,所述结合所述第一组速度数据、所述第二组速度数据以及所述第二对象的第二位置信息,确定出追踪所述第一对象的运动数据,包括:
追踪所述第一对象时,根据追踪设备当前的速度和所述第二对象的第二位置信息,计算所述追踪设备与所述第二对象之间的距离;
根据所述距离确定所述第一组速度数据和所述第二组速度数据分别对应的权重;
基于所确定的权重,对所述第一组速度数据和所述第二组速度数据进行加权处理,得到所述追踪设备追踪所述第一对象的运动数据。
本发明实施例提供的追踪设备,包括:
第一监测单元,用于监测第一对象的第一位置信息;
第二监测单元,用于监测目标区域内的第二对象的第二位置信息;
处理单元,用于结合所述第一位置信息与所述第二位置信息,确定出追踪所述第一对象的运动数据;
驱动单元,用于根据所述运动数据追踪所述第一对象。
本发明实施例中,所述第二监测单元,具体用于:对目标区域进行监测,得到目标区域内表征各个对象位置分布的第一坐标参数集合;获取监测装置的位姿参数,根据所述位姿参数确定所述目标区域内表征第三对象位置分布的第二坐标参数集合;获取所述第一对象的第一位置信息以及边界信息,确定出以所述第一位置信息为中心且以所述边界信息为边界约束的第三坐标参数集合;从所述第一坐标参数集合中去除所述第二坐标参数集合以及所述第三坐标参数集合,得到目标区域内的表征所述第二对象分布的第四坐标参数集合。
本发明实施例中,所述第二监测单元,还用于:将所述目标区域内的表征所述第二对象分布的第四坐标参数集合投影至预设维度的坐标系中,得到所述预设维度的坐标系内的第五坐标参数集合,所述第五坐标参数集合即用于表示所述第二对象的第二位置信息。
本发明实施例中,所述第二监测单元,具体用于:对目标区域进行监测,得到目标区域内表征各个对象位置分布的第一坐标参数集合;获取所述第一对象的第一位置信息以及边界信息,确定出以所述第一位置信息为中心且以所述边界信息为边界约束的第三坐标参数集合;从所述第一坐标参数集合中去除所述第三坐标参数集合,得到目标区域内的表征所述第二对象分布的第四坐标参数集合,所述第四坐标参数集合即用于表示所述第二对象的第二位置信息。
本发明实施例中,所述处理单元,具体用于:根据所述第一对象的第一位置信息,确定与追踪所述第一对象相关的第一组速度数据;根据所述第一对象的第一位置信息和所述第二对象的第二位置信息,确定与追踪所述第一对象相关的第二组速度数据;结合所述第一组速度数据、所述第二组速度数据以及所述第二对象的第二位置信息,确定出追踪所述第一对象的运动数据。
本发明实施例中,所述设备还包括:
异常检测单元,用于在根据所述运动数据追踪所述第一对象时,检测是否发生异常事件;
所述处理单元,还用于当发生异常事件时,调整所述运动数据小于等于预设值。
本发明实施例中,所述第一位置信息通过方向角和距离来表示,用于表征所述第一对象的位置;所述第一组速度数据通过角速度和线速度来表示,用于表征在目标区域内没有所述第二对象的状态下追踪所述第一对象的速度;
所述第二位置信息通过方向角和距离来表示,用于表征所述第二对象在所述目标区域内的位置分布;所述第二组速度数据通过角速度和线速度来表示,用于表征在目标区域内有所述第二对象的状态下追踪所述第一对象的速度;
相应地,所述处理单元,具体用于:追踪所述第一对象时,根据追踪设备当前的速度和所述第二对象的第二位置信息,计算所述追踪设备与所述第二对象之间的距离;根据所述距离确定所述第一组速度数据和所述第二组速度数据分别对应的权重;基于所确定的权重,对所述第一组速度数据和所述第二组速度数据进行加权处理,得到所述追踪设备追踪所述第一对象的运动数据。
本发明实施例中,所述第一位置信息通过方向角、仰角和距离来表示,用于表征所述第一对象的位置;所述第一组速度数据通过第一维速度分量、第二维速度分量和第三维速度分量来表示,用于表征在目标区域内没有所述第二对象的状态下追踪所述第一对象的速度;
所述第二位置信息通过方向角、仰角和距离来表示,用于表征所述第二对象在所述目标区域内的位置分布;所述第二组速度数据通过第一维速度分量、第二维速度分量和第三维速度分量来表示,用于表征在目标区域内有所述第二对象的状态下追踪所述第一对象的速度;
相应地,所述处理单元,具体用于:追踪所述第一对象时,根据追踪设备当前的速度和所述第二对象的第二位置信息,计算所述追踪设备与所述第二对象之间的距离;根据所述距离确定所述第一组速度数据和所述第二组速度数据分别对应的权重;基于所确定的权重,对所述第一组速度数据和所述第二组速度数据进行加权处理,得到所述追踪设备追踪所述第一对象的运动数据。
本发明实施例的技术方案中,监测第一对象的第一位置信息;监测目标区域内的第二对象的第二位置信息;结合所述第一位置信息与所述第二位置信息,确定出追踪所述第一对象的运动数据;根据所述运动数据追踪所述第一对象。通过对本发明实施例的实施,追踪设备在追踪第一对象的同时检测目标区域内的第二对象(也称为障碍物),同时实现对目标的追踪和对障碍物的躲避,大大减小了追踪过程中碰撞障碍物的可能性,保护了追踪设备。
附图说明
图1为本发明实施例的追踪方法的流程示意图一;
图2为本发明实施例的追踪方法的流程示意图二;
图3为本发明实施例的场景示意图一;
图4为本发明实施例的信息融合示意图一;
图5为本发明实施例的追踪方法的流程示意图三;
图6为本发明实施例的场景示意图二;
图7为本发明实施例的信息融合示意图二;
图8为本发明实施例的追踪设备的结构组成示意图。
具体实施方式
为了能够更加详尽地了解本发明实施例的特点与技术内容,下面结合附图对本发明实施例的实现进行详细阐述,所附附图仅供参考说明之用,并非用来限定本发明实施例。
图1为本发明实施例的追踪方法的流程示意图一,本示例中的追踪方法应用于追踪设备,如图1所示,所述追踪方法包括以下步骤:
步骤101:监测第一对象的第一位置信息。
本发明实施例中,追踪设备包括两类传感器,其中,第一类传感器用于监测第一对象的第一位置信息,第二类传感器用于监测目标区域内的第二对象的第二位置信息。
在一实施方式中,第一类传感器可以为UWB anchor,相应地,第一对象需携带UWBtag,追踪设备通过UWB anchor对第一对象携带的UWB tag进行定位,得到第一对象的第一位置信息。
上述方案中,UWB anchor通常由两个以上UWB通信节点组成,UWB tag由另一个UWB通信节点组成,采用飞行时间测距法(TOF,Time of Flight)和三角定位的原理确定UWBtag相对于UWB anchor的位置信息,也即第一对象的第一位置信息。
本发明实施例中,第一对象指待追踪的对象。
步骤102:监测目标区域内的第二对象的第二位置信息。
本发明实施例中,通过第二类传感器监测目标区域内的第二对象的第二位置信息。
在一实施方式中,第二类传感器可以为3D相机,通过3D相机对目标区域进行三维图像采集,即可获得目标区域内第二图像的第二位置信息。这里,3D相机通过结构光技术、或者TOF技术、或者双目视觉等技术来获得相机视场(对应于目标区域)中各个物体相对于3D相机的位置信息。以TOF技术为例,TOF技术属于双向测距技术,主要利用信号在两个异步收发机之间往返的飞行时间来测量节点间的距离。
在另一实施方式中,第二类传感器可以为激光雷达(LiDAR)传感器,用激光扫描的方法获得周围物体相对传感器的距离信息。
本发明实施例中,第二对象相对于第一对象而言,指障碍物。追踪第一对象时,需躲避第二对象,避免与第二对象发生碰撞。
在一实施方式中,追踪设备可以是地面机器人,由于地面机器人只能在二维地面上运动,因此,在二维空间中表示第一对象的第一位置信息、第二对象的第二位置信息。例如,以极坐标系来表示二维空间时,第一对象的第一位置信息通过方向角θ和距离d来表示,通过(d,θ)表征所述第一对象在二维空间中的位置。第二对象的第二位置信息通过方向角θ′和距离d′来表示,通过(d′,θ′)表征所述第二对象在二维空间中的位置,将目标区域内所有的第二对象的第二位置信息集合在一起,形成二维避障地图M。
在另一实施方式中,追踪设备可以是无人机,由于无人机能在三维空间中运动,因此,在三维空间中表示第一对象的第一位置信息、第二对象的第二位置信息。例如,以极坐标系来表示三维空间时,第一对象的第一位置信息通过方向角θ、仰角和距离d来表示,通过表征所述第一对象在三维空间中的位置。第二对象的第二位置信息通过方向角θ′、仰角和距离d′来表示,通过表征所述第二对象在三维空间中的位置,将目标区域内所有的第二对象的第二位置信息集合在一起,形成三维避障地图M。
步骤103:结合所述第一位置信息与所述第二位置信息,确定出追踪所述第一对象的运动数据;根据所述运动数据追踪所述第一对象。
本发明实施例中,根据所述第一对象的第一位置信息,确定与追踪所述第一对象相关的第一组速度数据;根据所述第一对象的第一位置信息和所述第二对象的第二位置信息,确定与追踪所述第一对象相关的第二组速度数据;结合所述第一组速度数据、所述第二组速度数据以及所述第二对象的第二位置信息,确定出追踪所述第一对象的运动数据。
具体地,1)追踪设备具有比例-积分-微分(PID)模块,PID模块的输入是第一对象的第一位置信息,输出是在没有障碍物的情况下追踪设备追踪第一对象的第一组速度数据。2)追踪设备还具有避障模块,避障模块的输入是基于第二对象的第二位置信息而形成的避障地图M以及第一对象的第一位置信息,输出是第二组速度数据,这里,第二组速度数据是根据追踪设备的运动模型,从所有可能的运动轨迹中选出避开第二对象,且尽量靠近第一对象的速度数据。3)追踪设备还具有信息融合模块,信息融合模块的输入是第一组速度数据、第二组速度数据以及基于第二对象的第二位置信息而形成的避障地图M,信息融合模块的输出是追踪设备最终的运动数据。这里,基于避障地图M对第一组速度数据和所述第二组速度数据进行融合,融合的依据是:根据追踪设备当前的运动数据在避障地图M中预测追踪设备与第二对象之间的距离,追踪设备与第二对象之间的距离越大,则第一组速度数据的权重越大;反之,追踪设备与第二对象之间的距离越小,则第二组速度数据的权重越大。最后,基于各自的权重对第一组速度数据和所述第二组速度数进行加权处理,即得到追踪第一对象的运动数据。
本发明实施例中,在根据所述运动数据追踪所述第一对象时,检测是否发生异常事件;当发生异常事件时,调整所述运动数据小于等于预设值。在一实施方式中,预设值为零,此时,追踪设备一旦出现跌落或者碰撞的风险,则强行启动刹车逻辑,保证追踪设备的安全。
图2为本发明实施例的追踪方法的流程示意图二,本示例中的追踪方法应用于地面机器人,如图2所示,所述追踪方法包括以下步骤:
步骤201:监测第一对象的第一位置信息。
本发明实施例中,地面机器人包括两类传感器,其中,第一类传感器用于监测第一对象的第一位置信息,第二类传感器用于监测目标区域内的第二对象的第二位置信息。
在一实施方式中,第一类传感器可以为UWB anchor,相应地,第一对象需携带UWBtag,地面机器人通过UWB anchor对第一对象携带的UWB tag进行定位,得到第一对象的第一位置信息。
上述方案中,UWB anchor通常由两个以上UWB通信节点组成,UWB tag由另一个UWB通信节点组成,采用飞行时间测距法(TOF,Time of Flight)和三角定位的原理确定UWBtag相对于UWB anchor的位置信息,也即第一对象的第一位置信息。
本发明实施例中,第一对象指待追踪的对象。
本发明实施例中,所述第一位置信息通过方向角θ和距离d来表示,通过(d,θ)表征所述第一对象的位置。
步骤202:对目标区域进行监测,得到目标区域内表征各个对象位置分布的第一坐标参数集合。
本发明实施例中,通过第二类传感器监测目标区域内的第二对象的第二位置信息。在一实施方式中,第二类传感器为3D相机,通过3D相机对目标区域进行三维图像采集,即可获得目标区域内第二图像的第二位置信息。在另一实施方式中,第二类传感器为LiDAR传感器,用激光扫描的方法获得周围物体相对传感器的距离信息。
本发明实施例中,第二对象相对于第一对象而言,指障碍物。追踪第一对象时,需躲避第二对象,避免与第二对象发生碰撞。
具体实现时,首先需要对目标区域进行监测,得到目标区域内表征各个对象位置分布的第一坐标参数集合。具体地,地面机器人从第二类传感器获得目标区域内的所有可视障碍物的三维空间分布OA={oi:(xi,yi,zi)}。
步骤203:获取监测装置的位姿参数,根据所述位姿参数确定所述目标区域内表征第三对象位置分布的第二坐标参数集合。
本发明实施例中,因为地面机器人在地面上运动,因此需要根据地面机器人的姿态,第二类传感器安装的高度,推算出地面的三维位置(也即第三对象位置的第二坐标参数集合),并从障碍物分布OA中将地面位置去除,得到没有地面的障碍物分布OB。
步骤204:获取所述第一对象的第一位置信息以及边界信息,确定出以所述第一位置信息为中心且以所述边界信息为边界约束的第三坐标参数集合。
具体地,参照图3,根据第一对象相对机器人的第一位置信息(d,θ),以及预先知道的第一对象的边界信息,即三维边界框(3D bounding box)尺寸,能够确定出表征第一对象的空间分布的第三坐标参数集合,从障碍物分布OB中去除以第一位置为中心的3Dbounding box内的所有障碍物,得到最终的障碍物分布Oc。
步骤205:从所述第一坐标参数集合中去除所述第二坐标参数集合以及所述第三坐标参数集合,得到目标区域内的表征所述第二对象分布的第四坐标参数集合。
具体地,首先从障碍物分布OA中将地面位置去除,得到没有地面的障碍物分布OB;然后,从障碍物分布OB中去除以第一对象为中心的3D bounding box内的所有障碍物,得到最终的障碍物分布Oc。
步骤206:将所述目标区域内的表征所述第二对象分布的第四坐标参数集合投影至预设维度的坐标系中,得到所述预设维度的坐标系内的第五坐标参数集合,所述第五坐标参数集合即用于表示所述第二对象的第二位置信息。
本发明实施例中,由于地面机器人在二维空间中运动,因此,需要将第四坐标参数集合投影至二维坐标系中,这样,得到的第二位置信息可通过二维极坐标中的方向角和距离来表示,用于表征所述第二对象在所述目标区域内的位置分布。
具体地,将障碍物分布Oc投影到水平平面(也即地面)上,得到二维的局部避障地图M,避障地图M包括了各个第二对象的第二位置信息。
步骤207:根据所述第一对象的第一位置信息,确定与追踪所述第一对象相关的第一组速度数据。
本发明实施例中,所述第一组速度数据通过角速度和线速度来表示,用于表征在目标区域内没有所述第二对象的状态下追踪所述第一对象的速度。
本发明实施例中,地面机器人具有局部运动控制器,局部运动控制器包括:PID模块、避障模块和信息融合模块。
具体地,PID模块的输入是第一对象的第一位置信息(d,θ),输出是在没有障碍物的情况下地面机器人追踪第一对象的第一组速度数据(v1,ω1)。
步骤208:根据所述第一对象的第一位置信息和所述第二对象的第二位置信息,确定与追踪所述第一对象相关的第二组速度数据。
本发明实施例中,所述第二组速度数据通过角速度和线速度来表示,用于表征在目标区域内有所述第二对象的状态下追踪所述第一对象的速度。
具体地,避障模块的输入是基于第二对象的第二位置信息而形成的避障地图M以及第一对象的第一位置信息(d,θ),输出是第二组速度数据(v2,ω2),这里,第二组速度数据是根据地面机器人的运动模型,从所有可能的运动轨迹中选出避开第二对象,且尽量靠近第一对象的速度数据。
步骤209:结合所述第一组速度数据、所述第二组速度数据以及所述第二对象的第二位置信息,确定出追踪所述第一对象的运动数据;根据所述运动数据追踪所述第一对象。
本发明实施例中,追踪所述第一对象时,根据地面机器人当前的速度和所述第二对象的第二位置信息,计算所述地面机器人与所述第二对象之间的距离;根据所述距离确定所述第一组速度数据和所述第二组速度数据分别对应的权重;基于所确定的权重,对所述第一组速度数据和所述第二组速度数据进行加权处理,得到所述地面机器人追踪所述第一对象的运动数据。
参照图4,信息融合模块的输入是第一组速度数据(v1,ω1)、第二组速度数据(v2,ω2)以及基于第二对象的第二位置信息而形成的避障地图M,信息融合模块的输出是地面机器人最终的运动数据(v3,ω3)。这里,基于避障地图M对第一组速度数据和所述第二组速度数据进行融合,融合的依据是:根据地面机器人当前的运动数据(v0,ω0)在避障地图M中预测地面机器人与第二对象之间的距离dc,地面机器人与第二对象之间的距离dc越大,则第一组速度数据(v1,ω1)的权重越大;反之,地面机器人与第二对象之间的距离dc越小,则第二组速度数据(v2,ω2)的权重越大。最后,基于各自的权重对第一组速度数据(v1,ω1)和所述第二组速度数(v2,ω2)进行加权处理,即得到追踪第一对象的运动数据。
本发明实施例中,在根据所述运动数据追踪所述第一对象时,检测是否发生异常事件;当发生异常事件时,调整所述运动数据小于等于预设值。在一实施方式中,预设值为零,此时,地面机器人一旦出现跌落或者碰撞的风险,则强行启动刹车逻辑,保证地面机器人的安全。
图5为本发明实施例的追踪方法的流程示意图三,本示例中的追踪方法应用于无人机,如图5所示,所述追踪方法包括以下步骤:
步骤501:监测第一对象的第一位置信息。
本发明实施例中,无人机包括两类传感器,其中,第一类传感器用于监测第一对象的第一位置信息,第二类传感器用于监测目标区域内的第二对象的第二位置信息。
在一实施方式中,第一类传感器为UWB anchor,相应地,第一对象需携带UWB tag,无人机通过UWB anchor对第一对象携带的UWB tag进行定位,得到第一对象的第一位置信息。
上述方案中,UWB anchor通常由两个以上UWB通信节点组成,UWB tag由另一个UWB通信节点组成,采用飞行时间测距法(TOF,Time of Flight)和三角定位的原理确定UWBtag相对于UWB anchor的位置信息,也即第一对象的第一位置信息。
本发明实施例中,第一对象指待追踪的对象。
本发明实施例中,所述第一位置信息通过方向角θ、仰角和距离d来表示,通过表征所述第一对象的位置。
步骤502:对目标区域进行监测,得到目标区域内表征各个对象位置分布的第一坐标参数集合。
本发明实施例中,通过第二类传感器监测目标区域内的第二对象的第二位置信息。在一实施方式中,第二类传感器为3D相机,通过3D相机对目标区域进行三维图像采集,即可获得目标区域内第二图像的第二位置信息。在另一实施方式中,第二类传感器为LiDAR传感器,用激光扫描的方法获得周围物体相对传感器的距离信息。
本发明实施例中,第二对象相对于第一对象而言,指障碍物。追踪第一对象时,需躲避第二对象,避免与第二对象发生碰撞。
具体实现时,首先需要对目标区域进行监测,得到目标区域内表征各个对象位置分布的第一坐标参数集合。具体地,无人机从第二类传感器获得目标区域内的所有可视障碍物的三维空间分布OA={oi:(xi,yi,zi)}。
步骤503:获取所述第一对象的第一位置信息以及边界信息,确定出以所述第一位置信息为中心且以所述边界信息为边界约束的第三坐标参数集合。
具体地,参照图6,根据第一对象相对机器人的第一位置信息以及预先知道的第一对象的边界信息,即三维边界框(3D bounding box)尺寸,能够确定出表征第一对象的空间分布的第三坐标参数集合,从障碍物分布OA中去除以第一位置为中心的3Dbounding box内的所有障碍物,得到最终的障碍物分布OB。
步骤504:从所述第一坐标参数集合中去除所述第三坐标参数集合,得到目标区域内的表征所述第二对象分布的第四坐标参数集合,所述第四坐标参数集合即用于表示所述第二对象的第二位置信息。
具体地,从障碍物分布OA中去除以第一对象为中心的3D bounding box内的所有障碍物,得到最终的障碍物分布OB,OB即为三维的避障地图,避障地图OB包括了各个第二对象的第二位置信息。
步骤505:根据所述第一对象的第一位置信息,确定与追踪所述第一对象相关的第一组速度数据。
本发明实施例中,所述第一组速度数据通过第一维速度分量、第二维速度分量和第三维速度分量来表示,用于表征在目标区域内没有所述第二对象的状态下追踪所述第一对象的速度。
本发明实施例中,无人机具有局部运动控制器,局部运动控制器包括:PID模块、避障模块和信息融合模块。
具体地,PID模块的输入是第一对象的第一位置信息输出是在没有障碍物的情况下无人机追踪第一对象的第一组速度数据(α1,β1,γ1)。
本发明实施例中,速度数据均为三维空间中的速度数据,其中,第一维速度分量是无人机围绕x轴(也即roll轴)旋转的速度分量,第二维速度分量是无人机围绕y轴(也即pitch轴)旋转的速度分量,第三维速度分量是无人机围绕z轴(也即yaw轴)旋转的速度分量。
步骤506:根据所述第一对象的第一位置信息和所述第二对象的第二位置信息,确定与追踪所述第一对象相关的第二组速度数据。
本发明实施例中,所述第二组速度数据通过第一维速度分量、第二维速度分量和第三维速度分量来表示,用于表征在目标区域内有所述第二对象的状态下追踪所述第一对象的速度。
具体地,避障模块的输入是基于第二对象的第二位置信息而形成的避障地图OB以及第一对象的第一位置信息输出是第二组速度数据(α2,β2,γ2),这里,第二组速度数据是根据无人机的运动模型,从所有可能的运动轨迹中选出避开第二对象,且尽量靠近第一对象的速度数据。
步骤507:结合所述第一组速度数据、所述第二组速度数据以及所述第二对象的第二位置信息,确定出追踪所述第一对象的运动数据;根据所述运动数据追踪所述第一对象。
本发明实施例中,追踪所述第一对象时,根据无人机当前的速度和所述第二对象的第二位置信息,计算所述无人机与所述第二对象之间的距离;根据所述距离确定所述第一组速度数据和所述第二组速度数据分别对应的权重;基于所确定的权重,对所述第一组速度数据和所述第二组速度数据进行加权处理,得到所述无人机追踪所述第一对象的运动数据。
参照图7,信息融合模块的输入是第一组速度数据(α1,β1,γ1)、第二组速度数据(α2,β2,γ2)以及基于第二对象的第二位置信息而形成的避障地图OB,信息融合模块的输出是无人机最终的运动数据(α3,β3,γ3)。这里,基于避障地图OB对第一组速度数据和所述第二组速度数据进行融合,融合的依据是:根据无人机当前的运动数据(α0,β0,γ0)在避障地图OB中预测无人机与第二对象之间的距离dc,无人机与第二对象之间的距离dc越大,则第一组速度数据(α1,β1,γ1)的权重越大;反之,无人机与第二对象之间的距离dc越小,则第二组速度数据(α2,β2,γ2)的权重越大。最后,基于各自的权重对第一组速度数据(α1,β1,γ1)和所述第二组速度数(α2,β2,γ2)进行加权处理,即得到追踪第一对象的运动数据。
本发明实施例中,在根据所述运动数据追踪所述第一对象时,检测是否发生异常事件;当发生异常事件时,调整所述运动数据小于等于预设值。在一实施方式中,预设值为零,此时,无人机一旦出现跌落或者碰撞的风险,则强行启动刹车逻辑,保证无人机的安全。
图8为本发明实施例的追踪设备的结构组成示意图,如图8所示,所述追踪设备包括:
第一监测单元81,用于监测第一对象的第一位置信息;
第二监测单元82,用于监测目标区域内的第二对象的第二位置信息;
处理单元83,用于结合所述第一位置信息与所述第二位置信息,确定出追踪所述第一对象的运动数据;
驱动单元84,用于根据所述运动数据追踪所述第一对象。
本发明实施例中,所述第二监测单元82,具体用于:对目标区域进行监测,得到目标区域内表征各个对象位置分布的第一坐标参数集合;获取监测装置的位姿参数,根据所述位姿参数确定所述目标区域内表征第三对象位置分布的第二坐标参数集合;获取所述第一对象的第一位置信息以及边界信息,确定出以所述第一位置信息为中心且以所述边界信息为边界约束的第三坐标参数集合;从所述第一坐标参数集合中去除所述第二坐标参数集合以及所述第三坐标参数集合,得到目标区域内的表征所述第二对象分布的第四坐标参数集合。
本发明实施例中,所述第二监测单元82,还用于:将所述目标区域内的表征所述第二对象分布的第四坐标参数集合投影至预设维度的坐标系中,得到所述预设维度的坐标系内的第五坐标参数集合,所述第五坐标参数集合即用于表示所述第二对象的第二位置信息。
本发明实施例中,所述第二监测单元82,具体用于:对目标区域进行监测,得到目标区域内表征各个对象位置分布的第一坐标参数集合;获取所述第一对象的第一位置信息以及边界信息,确定出以所述第一位置信息为中心且以所述边界信息为边界约束的第三坐标参数集合;从所述第一坐标参数集合中去除所述第三坐标参数集合,得到目标区域内的表征所述第二对象分布的第四坐标参数集合,所述第四坐标参数集合即用于表示所述第二对象的第二位置信息。
本发明实施例中,所述处理单元83,具体用于:根据所述第一对象的第一位置信息,确定与追踪所述第一对象相关的第一组速度数据;根据所述第一对象的第一位置信息和所述第二对象的第二位置信息,确定与追踪所述第一对象相关的第二组速度数据;结合所述第一组速度数据、所述第二组速度数据以及所述第二对象的第二位置信息,确定出追踪所述第一对象的运动数据。
本发明实施例中,所述设备还包括:
异常检测单元85,用于在根据所述运动数据追踪所述第一对象时,检测是否发生异常事件;
所述处理单元83,还用于当发生异常事件时,调整所述运动数据小于等于预设值。
本发明实施例中,所述第一位置信息通过方向角和距离来表示,用于表征所述第一对象的位置;所述第一组速度数据通过角速度和线速度来表示,用于表征在目标区域内没有所述第二对象的状态下追踪所述第一对象的速度;
所述第二位置信息通过方向角和距离来表示,用于表征所述第二对象在所述目标区域内的位置分布;所述第二组速度数据通过角速度和线速度来表示,用于表征在目标区域内有所述第二对象的状态下追踪所述第一对象的速度;
相应地,所述处理单元83,具体用于:追踪所述第一对象时,根据追踪设备当前的速度和所述第二对象的第二位置信息,计算所述追踪设备与所述第二对象之间的距离;根据所述距离确定所述第一组速度数据和所述第二组速度数据分别对应的权重;基于所确定的权重,对所述第一组速度数据和所述第二组速度数据进行加权处理,得到所述追踪设备追踪所述第一对象的运动数据。
本发明实施例中,所述第一位置信息通过方向角、仰角和距离来表示,用于表征所述第一对象的位置;所述第一组速度数据通过第一维速度分量、第二维速度分量和第三维速度分量来表示,用于表征在目标区域内没有所述第二对象的状态下追踪所述第一对象的速度;
所述第二位置信息通过方向角、仰角和距离来表示,用于表征所述第二对象在所述目标区域内的位置分布;所述第二组速度数据通过第一维速度分量、第二维速度分量和第三维速度分量来表示,用于表征在目标区域内有所述第二对象的状态下追踪所述第一对象的速度;
相应地,所述处理单元83,具体用于:追踪所述第一对象时,根据追踪设备当前的速度和所述第二对象的第二位置信息,计算所述追踪设备与所述第二对象之间的距离;根据所述距离确定所述第一组速度数据和所述第二组速度数据分别对应的权重;基于所确定的权重,对所述第一组速度数据和所述第二组速度数据进行加权处理,得到所述追踪设备追踪所述第一对象的运动数据。
本领域技术人员应当理解,图8所示的追踪设备中的各单元的实现功能可参照前述追踪方法的相关描述而理解。图8所示的追踪设备中的各单元的功能可通过运行于处理器上的程序而实现,也可通过具体的逻辑电路而实现。
本发明实施例所记载的技术方案之间,在不冲突的情况下,可以任意组合。
在本发明所提供的几个实施例中,应该理解到,所揭露的方法和智能设备,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元,即可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本发明各实施例中的各功能单元可以全部集成在一个第二处理单元83中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。
Claims (14)
1.一种追踪方法,其特征在于,所述方法包括:
监测第一对象的第一位置信息;
监测目标区域内的第二对象的第二位置信息;
根据所述第一对象的第一位置信息,确定与追踪所述第一对象相关的第一组速度数据;根据所述第一对象的第一位置信息和所述第二对象的第二位置信息,确定与追踪所述第一对象相关的第二组速度数据;结合所述第一组速度数据、所述第二组速度数据以及所述第二对象的第二位置信息,确定出追踪所述第一对象的运动数据;
根据所述运动数据追踪所述第一对象。
2.根据权利要求1所述的追踪方法,其特征在于,所述监测目标区域内的第二对象的第二位置信息,包括:
对目标区域进行监测,得到目标区域内表征各个对象位置分布的第一坐标参数集合;
获取监测装置的位姿参数,根据所述位姿参数确定所述目标区域内表征第三对象位置分布的第二坐标参数集合;
获取所述第一对象的第一位置信息以及边界信息,确定出以所述第一位置信息为中心且以所述边界信息为边界约束的第三坐标参数集合;
从所述第一坐标参数集合中去除所述第二坐标参数集合以及所述第三坐标参数集合,得到目标区域内的表征所述第二对象分布的第四坐标参数集合。
3.根据权利要求2所述的追踪方法,其特征在于,所述监测目标区域内的第二对象的第二位置信息,还包括:
将所述目标区域内的表征所述第二对象分布的第四坐标参数集合投影至预设维度的坐标系中,得到所述预设维度的坐标系内的第五坐标参数集合,所述第五坐标参数集合即用于表示所述第二对象的第二位置信息。
4.根据权利要求1所述的追踪方法,其特征在于,所述监测目标区域内的第二对象的第二位置信息,包括:
对目标区域进行监测,得到目标区域内表征各个对象位置分布的第一坐标参数集合;
获取所述第一对象的第一位置信息以及边界信息,确定出以所述第一位置信息为中心且以所述边界信息为边界约束的第三坐标参数集合;
从所述第一坐标参数集合中去除所述第三坐标参数集合,得到目标区域内的表征所述第二对象分布的第四坐标参数集合,所述第四坐标参数集合即用于表示所述第二对象的第二位置信息。
5.根据权利要求1所述的追踪方法,其特征在于,所述方法还包括:
在根据所述运动数据追踪所述第一对象时,检测是否发生异常事件;
当发生异常事件时,调整所述运动数据小于等于预设值。
6.根据权利要求1所述的追踪方法,其特征在于,
所述第一位置信息通过方向角和距离来表示,用于表征所述第一对象的位置;所述第一组速度数据通过角速度和线速度来表示,用于表征在目标区域内没有所述第二对象的状态下追踪所述第一对象的速度;
所述第二位置信息通过方向角和距离来表示,用于表征所述第二对象在所述目标区域内的位置分布;所述第二组速度数据通过角速度和线速度来表示,用于表征在目标区域内有所述第二对象的状态下追踪所述第一对象的速度;
相应地,所述结合所述第一组速度数据、所述第二组速度数据以及所述第二对象的第二位置信息,确定出追踪所述第一对象的运动数据,包括:
追踪所述第一对象时,根据追踪设备当前的速度和所述第二对象的第二位置信息,计算所述追踪设备与所述第二对象之间的距离;
根据所述距离确定所述第一组速度数据和所述第二组速度数据分别对应的权重;
基于所确定的权重,对所述第一组速度数据和所述第二组速度数据进行加权处理,得到所述追踪设备追踪所述第一对象的运动数据。
7.根据权利要求1所述的追踪方法,其特征在于,
所述第一位置信息通过方向角、仰角和距离来表示,用于表征所述第一对象的位置;所述第一组速度数据通过第一维速度分量、第二维速度分量和第三维速度分量来表示,用于表征在目标区域内没有所述第二对象的状态下追踪所述第一对象的速度;
所述第二位置信息通过方向角、仰角和距离来表示,用于表征所述第二对象在所述目标区域内的位置分布;所述第二组速度数据通过第一维速度分量、第二维速度分量和第三维速度分量来表示,用于表征在目标区域内有所述第二对象的状态下追踪所述第一对象的速度;
相应地,所述结合所述第一组速度数据、所述第二组速度数据以及所述第二对象的第二位置信息,确定出追踪所述第一对象的运动数据,包括:
追踪所述第一对象时,根据追踪设备当前的速度和所述第二对象的第二位置信息,计算所述追踪设备与所述第二对象之间的距离;
根据所述距离确定所述第一组速度数据和所述第二组速度数据分别对应的权重;
基于所确定的权重,对所述第一组速度数据和所述第二组速度数据进行加权处理,得到所述追踪设备追踪所述第一对象的运动数据。
8.一种追踪设备,其特征在于,所述设备包括:
第一监测单元,用于监测第一对象的第一位置信息;
第二监测单元,用于监测目标区域内的第二对象的第二位置信息;
处理单元,用于根据所述第一对象的第一位置信息,确定与追踪所述第一对象相关的第一组速度数据;根据所述第一对象的第一位置信息和所述第二对象的第二位置信息,确定与追踪所述第一对象相关的第二组速度数据;结合所述第一组速度数据、所述第二组速度数据以及所述第二对象的第二位置信息,确定出追踪所述第一对象的运动数据;
驱动单元,用于根据所述运动数据追踪所述第一对象。
9.根据权利要求8所述的追踪设备,其特征在于,所述第二监测单元,具体用于:对目标区域进行监测,得到目标区域内表征各个对象位置分布的第一坐标参数集合;获取监测装置的位姿参数,根据所述位姿参数确定所述目标区域内表征第三对象位置分布的第二坐标参数集合;获取所述第一对象的第一位置信息以及边界信息,确定出以所述第一位置信息为中心且以所述边界信息为边界约束的第三坐标参数集合;从所述第一坐标参数集合中去除所述第二坐标参数集合以及所述第三坐标参数集合,得到目标区域内的表征所述第二对象分布的第四坐标参数集合。
10.根据权利要求9所述的追踪设备,其特征在于,所述第二监测单元,还用于:将所述目标区域内的表征所述第二对象分布的第四坐标参数集合投影至预设维度的坐标系中,得到所述预设维度的坐标系内的第五坐标参数集合,所述第五坐标参数集合即用于表示所述第二对象的第二位置信息。
11.根据权利要求8所述的追踪设备,其特征在于,所述第二监测单元,具体用于:对目标区域进行监测,得到目标区域内表征各个对象位置分布的第一坐标参数集合;获取所述第一对象的第一位置信息以及边界信息,确定出以所述第一位置信息为中心且以所述边界信息为边界约束的第三坐标参数集合;从所述第一坐标参数集合中去除所述第三坐标参数集合,得到目标区域内的表征所述第二对象分布的第四坐标参数集合,所述第四坐标参数集合即用于表示所述第二对象的第二位置信息。
12.根据权利要求8所述的追踪设备,其特征在于,所述设备还包括:
异常检测单元,用于在根据所述运动数据追踪所述第一对象时,检测是否发生异常事件;
所述处理单元,还用于当发生异常事件时,调整所述运动数据小于等于预设值。
13.根据权利要求8所述的追踪设备,其特征在于,
所述第一位置信息通过方向角和距离来表示,用于表征所述第一对象的位置;所述第一组速度数据通过角速度和线速度来表示,用于表征在目标区域内没有所述第二对象的状态下追踪所述第一对象的速度;
所述第二位置信息通过方向角和距离来表示,用于表征所述第二对象在所述目标区域内的位置分布;所述第二组速度数据通过角速度和线速度来表示,用于表征在目标区域内有所述第二对象的状态下追踪所述第一对象的速度;
相应地,所述处理单元,具体用于:追踪所述第一对象时,根据追踪设备当前的速度和所述第二对象的第二位置信息,计算所述追踪设备与所述第二对象之间的距离;根据所述距离确定所述第一组速度数据和所述第二组速度数据分别对应的权重;基于所确定的权重,对所述第一组速度数据和所述第二组速度数据进行加权处理,得到所述追踪设备追踪所述第一对象的运动数据。
14.根据权利要求8所述的追踪设备,其特征在于,
所述第一位置信息通过方向角、仰角和距离来表示,用于表征所述第一对象的位置;所述第一组速度数据通过第一维速度分量、第二维速度分量和第三维速度分量来表示,用于表征在目标区域内没有所述第二对象的状态下追踪所述第一对象的速度;
所述第二位置信息通过方向角、仰角和距离来表示,用于表征所述第二对象在所述目标区域内的位置分布;所述第二组速度数据通过第一维速度分量、第二维速度分量和第三维速度分量来表示,用于表征在目标区域内有所述第二对象的状态下追踪所述第一对象的速度;
相应地,所述处理单元,具体用于:追踪所述第一对象时,根据追踪设备当前的速度和所述第二对象的第二位置信息,计算所述追踪设备与所述第二对象之间的距离;根据所述距离确定所述第一组速度数据和所述第二组速度数据分别对应的权重;基于所确定的权重,对所述第一组速度数据和所述第二组速度数据进行加权处理,得到所述追踪设备追踪所述第一对象的运动数据。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2016108915703 | 2016-10-12 | ||
CN201610891570 | 2016-10-12 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106774303A CN106774303A (zh) | 2017-05-31 |
CN106774303B true CN106774303B (zh) | 2019-04-02 |
Family
ID=58973757
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611039756.2A Active CN106774303B (zh) | 2016-10-12 | 2016-11-11 | 一种追踪方法及追踪设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN106774303B (zh) |
WO (1) | WO2018068446A1 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108255173A (zh) * | 2017-12-20 | 2018-07-06 | 北京理工大学 | 机器人跟随避障方法及装置 |
CN110191414A (zh) * | 2019-05-27 | 2019-08-30 | 段德山 | 基于终端的追踪方法及系统 |
US11367211B2 (en) * | 2019-07-29 | 2022-06-21 | Raytheon Company | Inertially-assisted target detection |
CN111161319A (zh) * | 2019-12-30 | 2020-05-15 | 秒针信息技术有限公司 | 工作监督方法和装置、存储介质 |
CN112595338B (zh) * | 2020-12-24 | 2023-04-07 | 中国联合网络通信集团有限公司 | 导航方法以及导航系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105527975A (zh) * | 2015-12-09 | 2016-04-27 | 周润华 | 一种基于无人机的目标跟踪系统 |
CN105652895A (zh) * | 2014-11-12 | 2016-06-08 | 沈阳新松机器人自动化股份有限公司 | 基于激光传感器的移动机器人人体跟踪系统及跟踪方法 |
CN105955268A (zh) * | 2016-05-12 | 2016-09-21 | 哈尔滨工程大学 | 一种考虑局部避碰的uuv动目标滑模跟踪控制方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7710322B1 (en) * | 2005-05-10 | 2010-05-04 | Multispectral Solutions, Inc. | Extensible object location system and method using multiple references |
CN101667037B (zh) * | 2008-09-03 | 2011-08-31 | 中国科学院自动化研究所 | 一种基于可行通道的机器人目标追踪方法 |
CN102411368B (zh) * | 2011-07-22 | 2013-10-09 | 北京大学 | 机器人的主动视觉人脸跟踪方法和跟踪系统 |
CN103454919B (zh) * | 2013-08-19 | 2016-03-30 | 江苏科技大学 | 智能空间中移动机器人的运动控制系统的控制方法 |
CN103473542B (zh) * | 2013-09-16 | 2017-01-11 | 清华大学 | 多线索融合的目标跟踪方法 |
WO2016026039A1 (en) * | 2014-08-18 | 2016-02-25 | Verity Studios Ag | Invisible track for an interactive mobile robot system |
-
2016
- 2016-11-11 CN CN201611039756.2A patent/CN106774303B/zh active Active
-
2017
- 2017-02-06 WO PCT/CN2017/072999 patent/WO2018068446A1/zh active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105652895A (zh) * | 2014-11-12 | 2016-06-08 | 沈阳新松机器人自动化股份有限公司 | 基于激光传感器的移动机器人人体跟踪系统及跟踪方法 |
CN105527975A (zh) * | 2015-12-09 | 2016-04-27 | 周润华 | 一种基于无人机的目标跟踪系统 |
CN105955268A (zh) * | 2016-05-12 | 2016-09-21 | 哈尔滨工程大学 | 一种考虑局部避碰的uuv动目标滑模跟踪控制方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2018068446A1 (zh) | 2018-04-19 |
CN106774303A (zh) | 2017-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106774303B (zh) | 一种追踪方法及追踪设备 | |
CN110253570B (zh) | 基于视觉的工业机械臂人机安全系统 | |
CN106808482B (zh) | 一种巡检机器人多传感器系统及巡检方法 | |
CN108052111B (zh) | 一种基于双目视觉技术的无人机实时避障方法 | |
CN109048926A (zh) | 一种基于立体视觉的机器人智能避障系统及方法 | |
US20190007659A1 (en) | Sensor for securing a machine | |
CN106647766A (zh) | 一种基于复杂环境的uwb‑视觉交互的机器人巡航方法及系统 | |
CN114474061B (zh) | 基于云服务的机器人多传感器融合定位导航系统及方法 | |
CN108647638A (zh) | 一种车辆位置检测方法及装置 | |
CN108062600A (zh) | 一种基于矩形建模的车辆碰撞预警方法及装置 | |
CN102448681A (zh) | 动作空间提示装置、动作空间提示方法以及程序 | |
CN110065494A (zh) | 一种基于车轮检测的车辆防碰撞方法 | |
CN105059190B (zh) | 基于视觉的汽车开门碰撞预警装置及方法 | |
JP4510554B2 (ja) | 立体物監視装置 | |
CN108021899A (zh) | 基于双目相机的车载智能前车防撞预警方法 | |
CN112506222A (zh) | 一种无人机智能化避障方法及装置 | |
CN106569225A (zh) | 一种基于测距传感器的无人车实时避障方法 | |
CN107145825A (zh) | 地平面拟合、摄像头标定方法及系统、车载终端 | |
CN103692993A (zh) | 一种双目远红外智能辅助安全驾驶系统 | |
CN104954747A (zh) | 视频监视方法和装置 | |
JP5971466B2 (ja) | フライトパス表示システム、方法及びプログラム | |
CN109202958A (zh) | 一种复合机器人视觉抓取平台 | |
Han et al. | Design of intelligent road recognition and warning system for vehicles based on binocular vision | |
TWI680898B (zh) | 近距離障礙物之光達偵測裝置及其方法 | |
Yang et al. | Vision-based intelligent vehicle road recognition and obstacle detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |