CN109307857B - 一种基于多传感器的自主跟随定位装置及方法 - Google Patents
一种基于多传感器的自主跟随定位装置及方法 Download PDFInfo
- Publication number
- CN109307857B CN109307857B CN201811338187.0A CN201811338187A CN109307857B CN 109307857 B CN109307857 B CN 109307857B CN 201811338187 A CN201811338187 A CN 201811338187A CN 109307857 B CN109307857 B CN 109307857B
- Authority
- CN
- China
- Prior art keywords
- ojk
- moving target
- information
- target body
- signal source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000001514 detection method Methods 0.000 claims abstract description 25
- 230000004927 fusion Effects 0.000 abstract description 10
- 238000004088 simulation Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/18—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
- G01S5/22—Position of source determined by co-ordinating a plurality of position lines defined by path-difference measurements
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/18—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
- G01S5/186—Determination of attitude
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
本发明属于检测技术领域,公开了一种基于多传感器的自主跟随定位装置及方法,位于移动目标本体上的n个信号源以顺时针方向依次发送信号,位于跟随机器人本体上的两个检测节点依次接收n个信号源发送的信号,并根据接收到的信号获得信号源的坐标信息,根据任意两个信号源的坐标信息获得移动目标本体的中心位置的坐标信息及特征信息,通过多个数据融合获得移动目标本体的移动信息;其中,n个信号源均匀分布在以移动目标本体的中心位置为圆心,以R为半径的圆周上,两个检测节点与跟随机器人本体的原点O之间的距离相等。本发明装置可以准确地测量出移动目标的位置和姿态,满足跟随定位要求,简单紧凑,经济性高,便于推广。
Description
技术领域
本发明涉及检测技术领域,尤其涉及一种基于多传感器的自主跟随定位装置及方法。
背景技术
随着经济的不断发展,机器人已经慢慢开始进入人类社会的各种行业中,这其中就包括自主跟随机器人。自主跟随机器人被广泛的应用于军事、农业及日常生活等多个领域,在自由空间中对移动目标的精准定位是保证其跟随性能的关键,它的定位问题也是长期研究的重点。目前,主要的定位技术有GPS定位、视觉定位和声波定位等。其中,GPS定位受场地影响较大,GPS信号容易丢失,无法适用于自由空间;视觉定位技术通过识别特征标识实现定位,不仅算法复杂,而且易受环境影响从而丢失目标;声波定位技术主要采用超声波定位,对场地要求较低,且不会被光照等环境因素影响,因此它适合被应用于自主跟随机器人的定位,但是超声波传感器发射角度小,移动目标很容易进入检测盲区,导致定位失败,并且传统的超声波定位方法不能实时的测量出移动目标前进的方向,使得自主跟随机器人不能利用更多有效信息进行跟随。
发明内容
本申请实施例通过提供一种基于多传感器的自主跟随定位装置及方法,以克服现有技术中自主跟随定位的不足。
本申请实施例提供一种基于多传感器的自主跟随定位方法,包括以下步骤:
位于移动目标本体上的n个信号源Mi(i=0,1,2......n-1)以顺时针方向依次发送信号;
位于跟随机器人本体上的两个检测节点依次接收n个信号源Mi发送的信号,并根据接收到的信号获得信号源的坐标信息;
根据任意两个信号源Mj和Mk的坐标信息获得所述移动目标本体的中心位置Mojk的坐标信息及特征信息,所述特征信息包括中心距离信息dojk、方向偏角信息θojk;
通过融合多个所述移动目标本体的中心位置Mojk的坐标信息及特征信息,获得所述移动目标本体的移动信息;
其中,n个信号源Mi均匀分布在以移动目标本体的中心位置Mojk为圆心,以R为半径的圆周上;两个所述检测节点与所述跟随机器人本体的原点O之间的距离相等。
优选的,两个所述检测节点A和B的坐标分别记为(xa,ya)、(xb,yb),信号源Mi相对于两个所述检测节点A、B的距离分别为la、lb,由几何关系可知:
设A、B的坐标分别为(-a,0),(a,0),带入公式(1),得到:
(xi,yi)为信号源Mi的坐标。
优选的,所述根据任意两个信号源Mj和Mk的坐标信息获得所述移动目标本体的中心位置Mojk的坐标信息的计算方法为:
设信号源Mj的坐标为(xj,yj),信号源Mk的坐标为(xk,yk),其中j>k,设移动目标本体的中心位置Mojk的坐标为(xojk,yojk),由几何关系可知:
由于信号源是顺时针编号排布的,则:
即:
(xk-xojk)(yj-yojk)-(xj-xojk)(yk-yojk)<0 (7)
由公式(4)、公式(6)可计算得到移动目标本体的中心位置Mojk的坐标(xojk,yojk)。
优选的,得到所述移动目标本体的中心位置Mojk的坐标(xojk,yojk)后,根据公式(8)、公式(9):
获得所述移动目标本体的中心位置Mojk的中心距离信息dojk、方向偏角信息θojk。
设Mmin为m个信号源中距离原点O最近的一个信号源,dmin为Mmin到原点O的距离,即dmin=mindi(i=0、1、2...n-1);
优选的,所述信号源为超声波传感器。
另一方面,本申请实施例提供一种基于多传感器的自主跟随定位装置,包括:移动目标、跟随机器人;
所述移动目标包括移动目标本体和设置在所述移动目标本体上的n个信号源,n个所述信号源均匀分布在以所述移动目标的中心位置Mojk为圆心,以R为半径的圆周上;
所述跟随机器人包括跟随机器人本体和设置在所述跟随机器人上的两个检测节点,两个所述检测节点与所述随机器人本体的原点O之间的距离相等。
优选的,所述信号源采用超声波传感器。
优选的,所述信号源的个数n大于3。
本申请实施例中提供的一个或多个技术方案,至少具有如下技术效果或优点:
在本申请实施例中,在移动目标本体的一个近似圆形区域范围内,均匀分布置n个信号源,通过从第一个信号源开始,到第n个信号源为止,以顺时针的方向依次发送信号并进行信号源切换,跟随机器人本体上的检测节点获得n个信号源的坐标信息。然后根据任意两个信号源的坐标信息可以求出移动目标本体的中心位置及中心位置的特征信息,特征信息包括移动目标本体的中心位置与跟随机器人的原点之间的距离、移动目标本体的中心位置的方向偏角。通过对多个距离和方向偏角数据进行融合,从而计算出准确的移动目标本体的中心位置及实时移动姿态。本发明采用多传感器信息融合检测技术,抗干扰能力强,可以准确地测量出移动目标的位置和姿态,满足跟随定位要求。本发明的装置简单紧凑,经济性高,便于推广。
附图说明
为了更清楚地说明本实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一个实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种基于多传感器的自主跟随定位方法中多传感器信息融合定位的示意图;
图2为本发明实施例提供的一种基于多传感器的自主跟随定位方法中采用的三角定位法的示意图;
图3为本发明实施例提供的一种基于多传感器的自主跟随定位方法中计算中心位置Mojk的示意图;
图4为本发明实施例提供的一种基于多传感器的自主跟随定位方法中计算移动姿态的示意图;
图5为本发明实施例提供的一种基于多传感器的自主跟随定位方法的仿真轨迹;
图6为图5中仿真轨迹的误差曲线。
其中,1-移动目标、2-跟随机器人。
具体实施方式
为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明。
本发明的技术方案包括:多信号源定位模型,多传感器信息融合的自主跟随定位方法的算法、多传感器信息融合的自主跟随定位方法模拟仿真结果。在被测对象(即移动目标)的一个近似圆形区域范围内,均匀分布置着n个信号源,通过从信号源M0开始,到信号源Mn-1发送信号完成截止,以顺时针的方向依次进行信号源切换,获得信号源Mi(i=0,1,2......n-1)的坐标和特征数据di和θi。对于任意两个信号源Mj和Mk可以求出对应的移动中心位置Mojk的坐标信息及特征信息(包括距离dojk和方向偏角θojk),通过对多个信息数据的融合,从而计算出移动目标中心位置及实时移动姿态。通过MATLAB软件平台,进行仿真实验,从而验证本发明所提出的基于多传感器信息融合的自主跟随定位方法的可行性。
如图1所示,本发明提供的一种基于多传感器信息融合的自主跟随定位装置由两大部分组成:移动目标1和跟随机器人2组成。所述移动目标1包括移动目标本体,和在所述移动目标本体上圆形区域的范围内均匀分布着的n个信号源发射器,n个信号源发射器作为检测目标的可识别信号源。所述跟随机器人2包括跟随机器人主体和跟随机器人主体上的检测节点组成。跟随机器人本体上的检测节点接收到信号源发射器发出的信号后,由跟随机器人主体上的处理电路对所得到的信号进行处理,主要进行放大,滤波等处理,然后经过A\D转换,将模拟信号转为计算机可以处理的数字信号,通过算法对接收到的多个信号进行处理,最终得到准确的物体距离和方向信息。
本发明由多个最小的三角定位法组成,通过对多组三角定位法所计算结果的融合,使自主跟随机器人与移动目标之间建立冗余信道,从而计算出移动目标中心位置及实时移动姿态。通过对多组三角定位法所计算结果的融合,使自主跟随机器人与移动目标之间建立冗余信道,从而计算出移动目标中心位置及实时移动姿态。
参见图1,本发明所采用的技术方案是:在被测对象(即移动目标本体)的一个近似圆形区域范围内,均匀分布置着n个信号源,通过从第一个信号源M0发送信号开始,到最后一个信号源Mn-1发送信号完成截止,以顺时针的方向依次进行信号源切换;然后通过位于跟随机器人本体上的两个检测节点获得信号源Mi(i=0,1,2......n-1)的坐标和特征数据di和θi。
具体的,两个所述检测节点A和B的坐标分别记为(xa,ya)、(xb,yb),跟随机器人主体上的处理电路对所得到的信号进行处理后获得信号源Mi相对于两个所述检测节点A、B的距离分别为la、lb,参见图2,则由几何关系可知:
设A、B的坐标分别为(-a,0),(a,0),带入公式(1),得到:
得到信号源Mi的坐标(xi,yi)。
参见图3和图4,本发明根据任意两个信号源Mj和Mk可以求出对应的移动目标本体的中心位置Mojk的坐标信息及特征信息(包括距离信息dojk和方向偏角信息θojk)。通过对信息和数据的融合,从而计算出准确的移动目标本体的中心位置及实时移动姿态。具体计算如下:
设一个信号源Mj的坐标为(xj,yj)、另一个信号源Mk的坐标为(xk,yk),信号源Mj和信号源Mk的坐标采用上述公式可以得到。其中j>k。设移动目标本体的中心位置Mojk的坐标为(xojk,yojk),由几何关系可知:
由公式(4)算出的Mojk的坐标(xojk,yojk)有两个,并不能确定移动目标本体的中心位置。本发明使用向量叉积的方法来确定移动中心位置。用表示由Mojk到Mj的向量,用表示由Mojk到Mk的向量,则的行列式为:
由于信号源是顺时针编号排布的,则:
即:
(xk-xojk)(yj-yojk)-(xj-xojk)(yk-yojk)<0 (7)
由式(4)、(6)便可以确定信号源Mj和Mk对应的移动目标本体的中心位置Mojk的坐标(xojk,yojk)。
得到所述移动目标本体的中心位置Mojk的坐标(xojk,yojk)后,根据公式(8)、公式(9):
获得所述移动目标本体的中心位置Mojk的中心距离信息dojk、方向偏角信息θojk。
为了减小复杂因素对测量的干扰,减小误差,本发明采用最小二乘逼近对计算得到的移动中心位置的特征信息(即个特征参数)进行处理,使融合后得到的移动中心位置M的特征参数d(M到O的距离)、θ(M相对于x轴的方向偏角)满足:
设Mmin为m个有效的信号源中距离原点O最近的一个信号源,dmin为Mmin到原点O的距离,即dmin=mindi(i=0、1、2...n-1)。用向量表示Mmin相对于移动中心M的方向为设信号源Mi与信号源M0相对于移动中心M的夹角为γ,其中由罗德里格旋转公式计算得出:
根据本发明提供的方法在MATLAB平台进行了仿真实验。实验模拟了一个移动目标在距离跟随机器人1m的位置沿直线运动,此移动目标由移动目标本体和设置在移动目标本体上的24个超声波传感器组成,24个超声波传感器以100mm为半径R均匀绕移动目标本体的圆心分布。其中,超声波传感器的信号发射角度为30°,测量距离为500mm-3000mm,测量误差为0-5mm。设置在跟随机器人上的两个信号接收节点距离为400mm,原点O设置在两个信号接收节点的中间位置。设置好系统所需要的参数,然后根据上面所阐述的算法步骤进行多次仿真实验,由本仿真结果(参见图5、图6)可知,计算结果轨迹与实际轨迹相近,x轴误差和y轴误差在±30mm以内,方向偏角在±15°以内,能够满足跟随的精度要求。本发明提出的方法及系统可以准确地测量出移动目标的位置和姿态(行进方向),满足跟随定位要求。
最后所应说明的是,以上具体实施方式仅用以说明本发明的技术方案而非限制,尽管参照实例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (2)
1.一种基于多传感器的自主跟随定位方法,其特征在于,包括以下步骤:
位于移动目标本体上的n个信号源Mi以顺时针方向依次发送信号;其中,i=0,1,2......n-1;
位于跟随机器人本体上的两个检测节点依次接收n个信号源Mi发送的信号,并根据接收到的信号获得信号源的坐标信息;
根据任意两个信号源Mj和Mk的坐标信息获得所述移动目标本体的中心位置Mojk的坐标信息及特征信息,所述特征信息包括中心距离信息dojk、方向偏角信息θojk;
通过融合多个所述移动目标本体的中心位置Mojk的坐标信息及特征信息,获得所述移动目标本体的移动信息;
其中,n个信号源Mi均匀分布在以移动目标本体的中心位置Mojk为圆心,以R为半径的圆周上;两个所述检测节点与所述跟随机器人本体的原点O之间的距离相等;
两个所述检测节点A和B的坐标分别记为(xa,ya)、(xb,yb),信号源Mi相对于两个所述检测节点A、B的距离分别为la、lb,由几何关系可知:
设A、B的坐标分别为(-a,0),(a,0),带入公式(1),得到:
(xi,yi)为信号源Mi的坐标;
所述根据任意两个信号源Mj和Mk的坐标信息获得所述移动目标本体的中心位置Mojk的坐标信息的计算方法为:
设信号源Mj的坐标为(xj,yj),信号源Mk的坐标为(xk,yk),其中j>k,设移动目标本体的中心位置Mojk的坐标为(xojk,yojk),由几何关系可知:
由于信号源是顺时针编号排布的,则:
即:
(xk-xojk)(yj-yojk)-(xj-xojk)(yk-yojk)<0 (7)
由公式(4)、公式(6)可计算得到移动目标本体的中心位置Mojk的坐标(xojk,yojk);
得到所述移动目标本体的中心位置Mojk的坐标(xojk,yojk)后,根据公式(8)、公式(9):
获得所述移动目标本体的中心位置Mojk的中心距离信息dojk、方向偏角信息θojk;
设Mmin为m个信号源中距离原点O最近的一个信号源,dmin为Mmin到原点O的距离;
2.根据权利要求1所述的基于多传感器的自主跟随定位方法,其特征在于,所述信号源为超声波传感器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811338187.0A CN109307857B (zh) | 2018-11-12 | 2018-11-12 | 一种基于多传感器的自主跟随定位装置及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811338187.0A CN109307857B (zh) | 2018-11-12 | 2018-11-12 | 一种基于多传感器的自主跟随定位装置及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109307857A CN109307857A (zh) | 2019-02-05 |
CN109307857B true CN109307857B (zh) | 2020-06-09 |
Family
ID=65222973
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811338187.0A Active CN109307857B (zh) | 2018-11-12 | 2018-11-12 | 一种基于多传感器的自主跟随定位装置及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109307857B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111596257B (zh) | 2020-07-22 | 2020-11-03 | 上海擎朗智能科技有限公司 | 一种机器人启动定位方法、装置、电子设备和存储介质 |
CN112346103A (zh) * | 2020-10-29 | 2021-02-09 | 清华大学 | 基于v2x的智能网联汽车动态协同定位方法与装置 |
EP4264313A4 (en) * | 2020-12-21 | 2024-09-25 | Nokia Technologies Oy | METHODS, DEVICES AND COMPUTER-READABLE MEDIA FOR AUTONOMOUS GROUPING |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN202041852U (zh) * | 2011-04-13 | 2011-11-16 | 北京航空航天大学 | 一种基于超声波控制的非接触式自动跟踪运输车 |
JP2013088348A (ja) * | 2011-10-20 | 2013-05-13 | Kddi Corp | ナビゲーション端末及びその位置の取得方法 |
CN105807260B (zh) * | 2016-04-19 | 2019-06-04 | 北京九星智元科技有限公司 | 一种基于超声传感器的动态定位系统及方法 |
CN206368837U (zh) * | 2016-12-20 | 2017-08-01 | 湖北工业大学 | 一种自动跟随且保持距离的智能风扇 |
CN107422725B (zh) * | 2017-04-22 | 2020-04-17 | 南京阿凡达机器人科技有限公司 | 一种基于声纳的机器人跟踪方法 |
CN207123758U (zh) * | 2017-07-15 | 2018-03-20 | 上海伯物智能科技有限公司 | 一种智能自动跟随遛儿车 |
CN107765220B (zh) * | 2017-09-20 | 2020-10-23 | 武汉木神机器人有限责任公司 | 基于uwb和激光雷达混合定位的行人跟随系统及方法 |
-
2018
- 2018-11-12 CN CN201811338187.0A patent/CN109307857B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109307857A (zh) | 2019-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109307857B (zh) | 一种基于多传感器的自主跟随定位装置及方法 | |
CN108680156B (zh) | 一种多传感器数据融合的机器人定位方法 | |
CN108614258B (zh) | 一种基于单水声信标距离量测的水下定位方法 | |
CN108802689B (zh) | 基于声源阵列的空间麦克风定位方法 | |
US20190202067A1 (en) | Method and device for localizing robot and robot | |
CN108613679B (zh) | 一种移动机器人扩展卡尔曼滤波同步定位与地图构建方法 | |
CN110026993B (zh) | 一种基于uwb及热释电红外传感器的人体跟随机器人 | |
CN104035065A (zh) | 基于主动旋转的声源定向装置及其应用方法 | |
CN108489382B (zh) | 一种基于空间多点约束的agv动态位姿测量方法 | |
CN104331078B (zh) | 一种基于位置映射算法的多机器人协作定位方法 | |
CN113048983B (zh) | 一种异时序贯量测的改进分层式auv协同导航定位方法 | |
CN104424650A (zh) | 一种光学式人体运动捕捉中手臂信息补偿方法 | |
Masmitja et al. | Range-only single-beacon tracking of underwater targets from an autonomous vehicle: From theory to practice | |
CN105353351A (zh) | 一种基于多信标到达时间差改进型定位方法 | |
CN114390431B (zh) | 一种基于超宽带的两基站二维相对定位方法及装置 | |
CN102445692B (zh) | 基于二维图像声纳的水下运动目标位置测定方法 | |
CN109489658B (zh) | 一种运动目标定位方法、装置及终端设备 | |
CN108332749B (zh) | 一种室内动态追踪定位方法 | |
CN111693051A (zh) | 一种基于光电传感器的多目标数据关联方法 | |
CN108896984B (zh) | 一种基于射频单频连续波的运动物体定位跟踪方法 | |
Adinandra et al. | A low cost indoor localization system for mobile robot experimental setup | |
CN112214028A (zh) | 一种基于OpenMV的水下机器人位姿控制方法 | |
CN104407324A (zh) | 物体的目标定位方法及定位设备 | |
CN103163502A (zh) | 一种大孔径水声柔性阵阵形自校准装置及方法 | |
Han et al. | Sound source based mobile robot control for human following in a networked intelligent space |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
EE01 | Entry into force of recordation of patent licensing contract |
Application publication date: 20190205 Assignee: Hubei Haijia Machinery Co.,Ltd. Assignor: HUBEI University OF TECHNOLOGY Contract record no.: X2023980053044 Denomination of invention: A multi-sensor based autonomous tracking and positioning device and method Granted publication date: 20200609 License type: Common License Record date: 20231220 |
|
EE01 | Entry into force of recordation of patent licensing contract |