CN103885455A - 跟踪测量机器人 - Google Patents
跟踪测量机器人 Download PDFInfo
- Publication number
- CN103885455A CN103885455A CN201410114680.XA CN201410114680A CN103885455A CN 103885455 A CN103885455 A CN 103885455A CN 201410114680 A CN201410114680 A CN 201410114680A CN 103885455 A CN103885455 A CN 103885455A
- Authority
- CN
- China
- Prior art keywords
- unit
- image
- processing unit
- target
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000005259 measurement Methods 0.000 title claims abstract description 166
- 238000003384 imaging method Methods 0.000 claims abstract description 285
- 238000012545 processing Methods 0.000 claims abstract description 191
- 238000004891 communication Methods 0.000 claims abstract description 46
- 230000003993 interaction Effects 0.000 claims abstract description 25
- 238000000034 method Methods 0.000 claims description 74
- 230000001360 synchronised effect Effects 0.000 claims description 73
- 230000033001 locomotion Effects 0.000 claims description 60
- 230000007246 mechanism Effects 0.000 claims description 47
- 230000005540 biological transmission Effects 0.000 claims description 41
- 230000003287 optical effect Effects 0.000 claims description 40
- 230000008569 process Effects 0.000 claims description 34
- 230000006870 function Effects 0.000 claims description 31
- 238000005086 pumping Methods 0.000 claims description 21
- 238000012937 correction Methods 0.000 claims description 14
- 230000002093 peripheral effect Effects 0.000 claims description 10
- 230000004907 flux Effects 0.000 claims description 9
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 8
- 230000003321 amplification Effects 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 125000004122 cyclic group Chemical group 0.000 claims description 2
- 230000010354 integration Effects 0.000 description 17
- 238000005516 engineering process Methods 0.000 description 16
- 238000013507 mapping Methods 0.000 description 12
- 238000004364 calculation method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000004297 night vision Effects 0.000 description 6
- 230000003068 static effect Effects 0.000 description 6
- WHXSMMKQMYFTQS-UHFFFAOYSA-N Lithium Chemical compound [Li] WHXSMMKQMYFTQS-UHFFFAOYSA-N 0.000 description 5
- 230000009977 dual effect Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 229910052744 lithium Inorganic materials 0.000 description 5
- 235000019800 disodium phosphate Nutrition 0.000 description 4
- 229920001971 elastomer Polymers 0.000 description 4
- 238000009434 installation Methods 0.000 description 4
- 229910052751 metal Inorganic materials 0.000 description 4
- 239000002184 metal Substances 0.000 description 4
- 239000002861 polymer material Substances 0.000 description 4
- 229920002635 polyurethane Polymers 0.000 description 4
- 239000004814 polyurethane Substances 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000004438 eyesight Effects 0.000 description 3
- 238000005065 mining Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 238000012800 visualization Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013075 data extraction Methods 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000010971 suitability test Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
Abstract
一种跟踪测量机器人,包括遥感遥测系统、三维姿态系统和中央控制与定位通信系统,所述遥感遥测系统包括测距单元(1)、红外激光光源(2)、搜索成像单元(3)、图像处理单元(4)、天文望远镜成像单元(5)和光敏电阻(6);所述三维姿态系统包括仰俯姿态单元(7)、横轴(10)、水平姿态单元(8)、航向姿态单元(9)和竖轴(11);所述中央控制与定位通信系统包括中央处理器(12)、人机交互单元(13)、存储单元(14)、全球定位单元(15)、通信单元(16)、图像识别单元(17)、电源单元(18)。本发明适用于地面测站对地面目标和近距离空中目标的测量,可应用于摄影测量、大地测量。
Description
技术领域
本发明属于地理信息技术领域的延伸应用范畴,特别是涉及一种跟踪测量机器人。
背景技术
地理信息产业有成千上万的应用,源于4个核心需求:获取目标物的三维大地坐标;获取三维大地坐标下的地形图;获取三维大地坐标下的物方三维影像;获取大地坐标系下基于三维影像的三维导航图。
地理信息技术领域的延伸应用中,跟踪测量是重要一枝。
一、地理信息产业技术现状
多组人员使用种类繁多的多组仪器设备以不同方式分段获取上述某一核心需求,形成各种应用。
目前市场上有4类用于野外测绘的相关产品:常规测绘仪器、“精密测量机器人”、用于近景道路摄影测量数据采集的设备集成系统、三维激光扫描仪。
1、常规测绘仪器:
如测距仪、水准仪、平板仪、倾斜仪、沉降仪、经纬仪、全站仪(测距仪+经纬仪)、GPS定位仪以及配套使用的数传电台/GPRS/3G通信设备、超站仪(全站仪+GPS定位仪)等。全球、我国均有多家公司生产销售。常规测绘仪器均无摄影测量功能。常规测绘仪器存在的局限是:
1)传统设备:测距仪、水准仪、平板仪、倾斜仪、沉降仪、经纬仪、标杆、棱镜等传统设备均属单一功能仪器,通过测角、测高、测距、测水准等手段的综合使用来获取测站与被测目标之间在自定义坐标下的的相对关系数据。传统设备依靠人工操作,人为误差和分段引入大地坐标的误差均大且无有效的误差改正方法。传统设备效率很低,获取一个低精度的物方三维大地坐标常常需要一队专业技术人员工作很长时间。大量耗费人力和时间,实际工作成本高。
2)GPS定位仪:须将仪器架设在被测目标上观测,这首先需要被测目标具有架设仪器的条件,在此前提下还需投入较大的人力、物力和较长的时间,而需要测量的目标点常常并不具备架设仪器的条件。
3)全站仪:只能在自定义坐标系内测角和测距;完全依靠人工操作,人为误差较大且无有效的误差改正方法;测量物方三维坐标时需要同时具备两个以上的已知控制点;确定正北方 向须借助GPS定位仪并购买当地GPS控制网(如果当地存在这样的网)数据,或借助陀螺仪;引入大地坐标须借助GPS定位仪。
4)超站仪:除测角、测距之外还能够测定自身的三维大地坐标(日本拓扑康超站仪单价60万元人民币)。超站仪存在与全站仪类似的问题。
2、“精密测量机器人”(全站仪+伺服系统,无摄影功能):
“精密测量机器人”是新型全站仪,与常规全站仪的唯一区别是具有“ATR功能(棱镜瞄准功能)”:人工瞄准棱镜目标后,按照常规全站仪方法获取并存储这些棱镜在自定义坐标下的三维坐标数据和自身的姿态数据。启动伺服系统后,机器参照上次测量获取的坐标数据和姿态数据重新自动瞄准棱镜并再次获取自定义坐标下的三维坐标数据,据此扩展出一个以棱镜为观测目标的可用于形变监测的功能。
精密测量机器人是瑞士徕卡公司的独家产品,其航向角和仰俯角的测量精度达到0.5角秒,代表了全站仪的当今全球最高水平;价格适中:当需要扫描的棱镜个数小于10时,单台售价45万元人民币;棱镜个数大于10时另作系统方案,按系统方案另外加价。
精密测量机器人无摄影功能且存在与全站仪类似的局限。
3、用于道路摄影测量数据采集的设备集成系统:
目前市场上的道路摄影测量数据采集系统均为设备集成系统。美国谷歌、日本拓扑康的车载道路摄影测量系统是代表。其硬件特征是将位置测量设备(GPS)、姿态测量设备、定位补偿设备(INS或航位推算系统)、视频设备(CCD系统)、激光测距扫描仪、车载计算机系统设备连接在一起,安装在汽车上,在车辆的行进之中采集道路及道路两旁地物的空间位置数据和属性数据,如:道路中心线或边线位置坐标、目标地物的位置坐标、路(车道)宽、桥(隧道)高、交通标志、道路设施等。数据同步存储在车载计算机系统中;软件特征是基于GPS、RS、GIS、数据的3S集成,将外业采集回来的数据进行事后编辑处理,形成各种有用的专题数据成果,如导航电子地图等等。它的显著特点是:a.针对道路及临近两侧的独立的测成图系统。无需借助任何底图,即可独立完成路网图测量。在作业流程上形成了摄影测量的闭环控制,空间坐标数据与包含丰富属性信息的道路及临近两侧之立体影像同时获得,外业与内业紧密衔接,避免了人工方式下的人为误差;b.针对道路的实景三维可视化的数据成果。它以面状的方式快速采集道路及道路临近周边的地理空间数据,其数据成果是连续拍摄的实景可量测影像;c.道路及道路临近周边信息与卫片/航片无缝链接,形成针对道路及临近周边地物的“天地一体化”新一代地理信息系统。
存在的局限是:
1)工作范围限于道路,无法进行野外作业:移动道路测量系统(道路摄影测量数据采集系统)是将GPS(全球定位系统)、姿态测量系统、CCD(视频系统)、INS(惯性导航系统或航位推算系统)、三维激光扫描系统、车载计算机系统等先进的传感器和设备装配在汽车上,这就意味着它只能用于道路及其临近两侧的摄影测量,无法进行野外环境的摄影测量。
2)近景:不带望远镜,广角摄影。能够对道路两侧200m内的景物进行近景摄影测量数据采集。物方三维大地坐标的解算精度为1米左右。
3)移动与操作:组成系统的各设备体积大、重量大,系统结构松散,须固定于汽车等大型载体上,多人操作。
4)外业数据采集内业事后处理的工作方式导致重复性外业劳动不可避免。
5)需要道路沿途有GPS控制网的支持。
6)价格昂贵:移动道路测量系统的全部组件均系外购,这些高端设备的昂贵价格使得“移动道路测量系统”的成本居高不下,无激光测距扫描仪的移动道路测量系统(无测距功能的数据采集系统)产品的价格为400万元人民币/套;有激光扫描测距设备的国外产品价格高于600万元人民币/套。
4、三维激光扫描仪
三维激光扫描仪可在自定义坐标下提供近景三维影像:用高速激光扫描测距方式获得大量的目标点距离数据并同步记录计算测距姿态数据,计算得到目标点三维坐标;用数码相机摄取目标景物影像;将两者叠加,获得三维影像。
三维激光扫描仪可广泛应用于室内灯光环境和室外晴朗天气的白昼环境下的近景目标。美国、日本、中国均有数家公司生产销售。瑞典Rigle公司的野外三维激光扫描仪处于国际领先地位:好天气、良好能见度条件下测距可达2公里。
三维激光扫描仪单台售价为60万元人民币—600万元人民币不等。
二、地理信息技术领域的跟踪测量延伸应用
跟踪测量技术分为静态目标跟踪测量和动态目标跟踪测量两类。
1、静态目标跟踪测量
静态目标跟踪测量技术用于对静态地物近距离高精度的形变监测。目前的静态目标跟踪测量设备是加装了伺服系统的全站仪。市面产品目前只能实现对棱镜的跟踪测量。如前所述之瑞士徕卡公司生产的精密测量机器人即属此类。
2、动态目标跟踪测量
用于动态目标跟踪测量的设备是较为庞大复杂的设备系统。例如雷达系统、反导系统。 迄今未见便携式野外设备。
雷达探测技术是最早发展起来的动态目标跟踪测量技术,得到极为广泛的应用,早已成为动态目标跟踪测量技术的主干。雷达设备系统由发射机、接收机和终端机构成,有固定地面站、车载站、机载站、船载站方式。利用雷达探测技术的地对空、空对地、地对地探测得到长足发展,三坐标雷达、高分辨力雷达、相控阵雷达、可获得干涉影像的空对地成像雷达SAR及ISAR等技术均已成熟并得到广泛应用。毫米波雷达、激光雷达技术亦可望在不久的将来进入实用阶段。
反导系统的跟踪测量系统比单一的雷达设备系统更为庞大复杂,是雷达、红外和其它遥感技术的结合。如最先进的陆基中段防御系统的跟踪测量部分由改进型预警雷达、X波段雷达、天基红外系统、信息管理系统等设备系统构成。
发明内容
本发明提供一种用于跟踪测量的便携式野外设备,目的有七:
一是提供一种适合单人使用的激光测距型多用途便携式野外跟踪测量设备,填补空白;
二是用基于底层结构的多系统一体化方法和机器自主测量方法,将地理信息产业的核心需求(基于实景影像的目标点三维大地坐标、基于实景影像的三维大地坐标下的地形图、基于实景影像的大地坐标系下的物方三维影像)和相关应用融为一体,同步解决;
三是用基于底层结构的多系统一体化产生的涌现性和机器自主测量方法获得高精度;
四是利用基于底层结构的多系统一体化产生的涌现性扩展出全新应用,一机功能覆盖多种类地理信息产业应用及其外延应用;
五是用基于底层结构的多系统一体化方法获得低成本、高性价比的产品;
六是用机器自主测量的新方法改变传统工作方式,极大幅度地减少人工介入、简化工作流程、降低劳动强度和操作难度、降低工作成本、提高工作效率。
七是为微波测距设备、雷达设备提供一种光学附件。
本发明提供的一种跟踪测量机器人,包括遥感遥测系统、三维姿态系统和中央控制与定位通信系统,
所述遥感遥测系统包括测距单元1、红外激光光源2、搜索成像单元3、图像处理单元4、天文望远镜成像单元5和光敏电阻6;
所述三维姿态系统包括仰俯姿态单元7、横轴10、水平姿态单元8、航向姿态单元9和竖轴11;横轴10的中轴线与竖轴11的中轴线相互正交且交于空间点O,横轴10的中轴线与竖轴11的中轴线所构成的平面垂直于跟踪测量机器人的底座平面;测距单元1的光轴、红外 激光光源2的光轴、搜索成像单元3的光轴、天文望远镜成像单元5的光轴标定在同一轴线L上,称为四光同轴;轴线L过空间点O与横轴10的中轴线正交;
所述中央控制与定位通信系统包括中央处理器12、人机交互单元13、存储单元14、全球定位单元15、通信单元16、图像识别单元17、电源单元18,中央处理器12与测距单元1、红外激光光源2、搜索成像单元3、图像处理单元4、天文望远镜成像单元5和光敏电阻6、仰俯姿态单元7、水平姿态单元8、航向姿态单元9、人机交互单元13、存储单元14、全球定位单元15、通信单元16、图像识别单元17、电源单元18分别连接。
而且,所述三维姿态系统中,
所述仰俯姿态单元7包括第一离合器7.1、第一同步带放大器7.2、第一编码器7.3、第一蜗轮7.4、第一同步带轮7.5、第一蜗杆7.6、第一弹性机构7.7、第二蜗轮7.8、第二弹性机构7.9、第二蜗杆7.10和第一电机与驱动7.11,第一电机与驱动7.11连接第二蜗杆7.10,第二蜗轮7.8和第二蜗杆7.10经第二弹性机构7.9啮合,第二蜗轮7.8和第一蜗杆7.6经第一弹性机构7.7啮合,第一蜗轮7.4和第一蜗杆7.6之间经第一同步带轮7.5传动,第一蜗轮7.4和第一编码器7.3之间经第一同步带放大器7.2传动,第一蜗轮7.4连接第一离合器7.1,第一离合器7.1闭合时连接横轴10,中央处理器12和第一离合器7.1、第一同步带放大器7.2、第一编码器7.3、第一电机与驱动7.11分别连接;
设第一同步带放大器7.2的传动比为1:H,中央处理器12经第一电机与驱动7.11的输出在传动后在第一蜗轮7.4产生仰俯运动结果,仰俯运动结果由第一同步带放大器7.2放大H倍,放大结果传递给第一编码器7.3并经由第一编码器7.3转换为数字信号上传给中央处理器12,中央处理器12将所得数据除以H倍后得到横轴10真实的位置到达数据;
所述航向姿态单元9包括第二离合器9.1、第二同步带放大器9.2、第二编码器9.3、第三蜗轮9.4、第二同步带轮9.5、第三蜗杆9.6、第三弹性机构9.7、第四蜗轮9.8、第四弹性机构9.9、第四蜗杆9.10、第二电机与驱动9.11,第二电机与驱动9.11连接第四蜗杆9.10,第四蜗轮9.8和第四蜗杆9.10经第四弹性机构9.9啮合,第四蜗轮9.8和第三蜗杆9.6经第三弹性机构9.7啮合,第三蜗轮9.4和第三蜗杆9.6之间经第二同步带轮9.5传动,第三蜗轮9.4和第二编码器9.3之间经第二同步带放大器9.2传动,第三蜗轮9.4连接第二离合器9.1,第二离合器9.1闭合时连接竖轴11,中央处理器12和第二离合器9.1、第二同步带放大器9.2、第二编码器9.3、第二电机与驱动9.11分别连接;
设第二同步带放大器9.2的传动比为1:Z,中央处理器12经第二电机与驱动9.11的输出在传动后在第三蜗轮9.4产生仰俯运动结果,仰俯运动结果由第二同步带放大器9.2放大Z 倍,放大结果传递给第二编码器9.3并经由第二编码器9.3转换为数字信号上传给中央处理器12,中央处理器12将所得数据除以Z倍后得到竖轴11真实的位置到达数据。
而且,所述红外激光光源2包括红外激光镜头2.1、红外激光调焦镜2.2、红外激光发生器2.3、泵浦电源2.4、第一电机2.5、第一驱动电路2.6和第三编码器2.7,红外激光镜头2.1、红外激光调焦镜2.2、红外激光发生器2.3、泵浦电源2.4依次连接,第一电机2.5与红外激光调焦镜2.2、第一驱动电路2.6、第三编码器2.7分别连接,中央处理器12和泵浦电源2.4、第一驱动电路2.6、第三编码器2.7分别连接;所述天文望远镜成像单元5包括第三电机5.1、第三驱动电路5.2、第五蜗轮5.3、第五蜗杆5.4、第五编码器5.5、第二物镜5.6、第二调焦镜5.7、第二成像镜组5.8和第二双滤光片结构CCD模块5.9,第二物镜5.6、第二调焦镜5.7、第二成像镜组5.8和第二双滤光片结构CCD模块5.9依次连接,第三驱动电路5.2、第三电机5.1、第五蜗杆5.4、第五编码器5.5依次连接,第五蜗杆5.4与第五蜗轮5.3啮合,第五蜗轮5.3连接第二调焦镜5.7,中央处理器12和第三驱动电路5.2、第五编码器5.5、第二双滤光片结构CCD模块5.9分别连接。
而且,所述搜索成像单元3包括第二电机3.1、第二驱动电路3.2、第六蜗轮3.3、第六蜗杆3.4、第四编码器3.5、第一物镜3.6、变焦镜组3.7、第一调焦镜3.8、第一成像镜组3.9、第一双滤光片结构CCD模块3.10、第七蜗轮3.11、第七蜗杆3.12、第六编码器3.13、第四电机3.14和第四驱动电路3.15,第一物镜3.6、变焦镜组3.7、第一调焦镜3.8、第一成像镜组3.9、第一双滤光片结构CCD模块3.10依次连接,第二驱动电路3.2、第二电机3.1、第六蜗杆3.4、第四编码器3.5依次连接,第六蜗杆3.4与第六蜗轮3.3啮合,第六蜗轮3.3连接第一调焦镜3.8,第四驱动电路3.15、第四电机3.14、第七蜗杆3.12、第六编码器3.13依次连接,第七蜗杆3.12与第七蜗轮3.11啮合,第七蜗轮3.11连接变焦镜组3.7,中央处理器12和第二驱动电路3.2、第四编码器3.5、第六编码器3.13、第四驱动电路3.15、第一双滤光片结构CCD模块3.10分别连接。
而且,基于光敏电阻6进行自主成像过程,包括根据白光光通量,光敏电阻6发出信号控制中央处理器12关闭或打开泵浦电源2.4,对应白光光源或红外激光光源;搜索成像单元3、天文望远镜成像单元5分别与图像处理单元4连接,成像结果由图像处理单元4判断图像清晰度,在白光光源下的成像结果达不到清晰度要求时,中央处理器12打开泵浦电源2.4提供红外激光光源。
而且,所述自主成像过程的工作步骤如下,
步骤1,进行成像光源初始选择,实现如下,
在白光光通量足以使第二双滤光片结构CCD模块5.9白光成像时,光敏电阻6的信号口处于闭合状态,中央处理器12关闭泵浦电源2.4,进入步骤2;白光光通量不足以第二双滤光片结构CCD模块5.9白光成像时,光敏电阻6的信号口处于常开状态,中央处理器12开启泵浦电源2.4,红外激光光源2照射目标,搜索成像单元3、天文望远镜成像单元5接受自目标返回的红外激光,进入步骤4;
步骤2,白光光源下,对良好能见度及雾霾环境的自适应和成像光源的自主选择,实现如下,
中央处理器12读取变焦镜组3.7、第一调焦镜3.8的调焦标定值驱动第二电机3.1和第三电机5.1依次到达各相应标定位置,在每个相应标定位置,白光信号经由搜索成像单元3、天文望远镜成像单元5转换为数字信号后到达图像处理单元4,图像处理单元4获取图像值并比较,记录使图像值最大的第二电机3.1位置为使来自搜索成像单元3的图像最清晰处,记录使图像值最大的第三电机5.1位置为使来自天文望远镜成像单元5的图像最清晰处;
中央处理器12对目标景物的所有图像值进行分析处理,
若图像值的最大值与最小值之差的绝对值大于预设正实数Q1,则判定测站处于良好能见度环境,进入步骤3;
若图像值的最大值与最小值之差的绝对值小于预设正实数Q1大于预设正实数Q2,则判定测站处于中度或轻度雾霾环境,进入步骤4;
若图像值的最大值与最小值之差的绝对值小于预设正实数Q2,则判定测站处于重度雾霾环境,中央处理器12报警,停止流程;
其中,预设正实数Q1大于预设正实数Q2;
步骤3,基于白光光源,在自动调焦后进行自动成像,
针对搜索成像单元3的实现如下,
自动调焦时,中央处理器12向第二驱动电路3.2发出指令,使第二电机3.1、第六蜗杆3.4转动,第四编码器3.5实时记录第六蜗杆3.4的运动状态同步反馈给中央处理器12,中央处理器12算出脉冲修正值并据此发出下一指令,直到第六蜗杆3.4转动到设定的位置并通过第六蜗轮3.3完成对第一调焦镜3.8的焦距调整;
自动成像时,白光信号经过第一物镜3.6、变焦镜组3.7、第一调焦镜3.8和第一成像镜组3.9到达第一双滤光片结构CCD模块3.10,第一双滤光片结构CCD模块3.10将白光信号转换成数字信号后传至图像处理单元4,图像处理单元4得到清晰的景物图像并上传至中央处理器12,完成基于白光光源的自动成像任务,结束流程;
针对天文望远镜成像单元5的实现如下,
自动调焦时,中央处理器12向第三驱动电路5.2发出指令,使第三电机5.1、第五蜗杆5.4转动,第五编码器5.5实时记录第五蜗杆5.4的运动状态同步反馈给中央处理器12,中央处理器12算出脉冲修正值并据此发出下一指令,直到第五蜗杆5.4转动到设定的位置并通过第五蜗轮5.3完成对第二调焦镜5.7的焦距调整;
自动成像时,白光信号经过第二物镜5.6、第二调焦镜5.7和第二成像镜组5.8到达第二双滤光片结构CCD模块5.9,第二双滤光片结构CCD模块5.9将白光信号转换成数字信号后传至图像处理单元4,图像处理单元4得到清晰的景物图像并上传至中央处理器12,完成基于白光光源的自动成像任务,结束流程;
步骤4,基于红外激光光源,在红外激光照射范围准确覆盖成像单元3的视场后进行自动成像,
针对搜索成像单元3的实现如下,
首先,中央处理器12同时完成两项工作,一是开启第四驱动电路3.15,使第四电机3.14带动第七蜗杆3.12运动到Pi位置,第七蜗杆3.12带动涡轮3.11使变焦镜组3.7将搜索成像单元3的视场调整到执行第i类任务所需的大小,第六编码器3.13将第七蜗杆3.12的实际到达位置上传给中央处理器12;二是向第一驱动电路2.6发出指令使第一电机2.5带动红外激光调焦镜2.2运动到Qi位置,使红外激光光源2的照射范围正好覆盖搜索成像单元3的视场;其中,标定常数Pi是搜索成像单元3执行第i类任务时的视场,称为Pi成像视场i=1,2,3,.....J,J为总类数,标定常数Qi是与Pi一一对应的红外激光聚焦值,红外激光调焦镜2.2处于Qi位置时红外激光照射范围与Pi成像视场重合,Pi被标定后,Qi根据Pi标定;
然后,从目标景物返回的红外激光信号通过第一物镜3.6、变焦镜组3.7、第一调焦镜3.8、第一成像镜组3.9到达第一双滤光片结构CCD模块3.10,第一双滤光片结构CCD模块3.10将红外激光信号转换成数字信号后传至图像处理单元4,图像处理单元4得到清晰景物图像并上传至中央处理器12,完成基于红外激光光源的自动成像任务;
针对天文望远镜成像单元5的实现如下,
首先,中央处理器12向第一驱动电路2.6发出指令使第一电机2.5带动红外激光调焦镜2.2运动到位置vo,红外激光光源2的照射范围正好覆盖天文望远镜成像单元5的视场;
其中,vo是标定常数,按天文望远镜成像单元5的视场角uo标定红外激光光源2的相应常数vo;
然后,从目标景物返回的红外激光信号通过第二物镜5.6、第二调焦镜5.7、第二成像镜 组5.8到达第二双滤光片结构CCD模块5.9。第二双滤光片结构CCD模块5.9将红外激光信号转换成数字信号并将数字信号后传至图像处理单元4,图像处理单元4得到清晰景物图像并上传至中央处理器12,完成基于红外激光光源的自动成像任务。
而且,在天文望远镜成像单元5通视目标景物条件下,进行基于物方遥感影像的目标点三维大地坐标遥测,步骤如下,
1)精准确定测量目标,实现如下,
当用户通过在人机交互单元13的触摸屏在搜索成像单元3获取的大视场实景影像中点击选取的目标点时,中央处理器12以目标点为新的分划中心,向仰俯姿态单元7和航向姿态单元9发出运动指令,将横轴10和竖轴11转动到位,使轴线L指向目标点;天文望远镜成像单元5获取影像;中央处理器12在天文望远镜成像单元5获取的高倍光学放大后的目标点实景影像上进行数码变焦再放大,获得光学和数码两级放大后的目标点清晰影像;
2)精确瞄准测量目标,实现如下,
当用户通过在人机交互单元13的触摸屏在光学和数码两级放大后的目标点清晰影像中点击选定的测量目标时,中央处理器12以测量目标为新的分划中心,根据测量目标位置向仰俯姿态单元7和航向姿态单元9发出运动指令,将横轴10和竖轴11转动到位,使轴线L指向测量目标,完成对测量目标的精确瞄准;
3)对测量目标三维大地坐标的遥测,实现如下,
中央处理器12根据测站常量数据及仰俯姿态单元7和航向姿态单元9提供的瞄准测量目标的仰俯、航向姿态数据,测距单元1提供的测站至测量目标的距离数据计算得到测量目标的三维大地坐标。
而且,基于实时三维大地坐标和实时视频,断开第一离合器7.1、第二离合器9.1,对任意移动目标进行半自动跟踪测量;或者闭合第一离合器7.1、第二离合器9.1,对特定移动目标进行自动跟踪测量。
而且,基于实时三维大地坐标和实时视频,对任意移动目标的半自动跟踪测量的步骤如下,
1)进入半自动跟踪测量工作模式,实现方式如下,
基于自动成像方法连续获取目标影像,在人机交互单元13的触摸屏上连续播放,断开第一离合器7.1、第二离合器9.1,进入支持手动操控的半自动跟踪测量工作模式,开启测距单元1;
2)实时跟踪测量,实现方式如下,
当用户以目视人机交互单元13的触摸屏、手动调整航向角和仰俯角的方式跟踪移动目标时,航向姿态单元9和仰俯姿态单元7同步向中央处理器12提供瞄准移动目标的实时姿态数据;测距单元1连续自动测距,同步向中央处理器12提供测站与移动目标之间的实时距离;中央处理器12根据测站常量数据和目标变量数据解算出移动目标的实时三维大地坐标;
3)同步数据传输,由中央处理器12通过通信单元16远程传输移动目标的实时视频和实时三维大地坐标。
而且,基于实时三维大地坐标和实时视频,对特定移动目标的全自动跟踪测量的步骤如下,
1)搜索成像单元3循环扫描搜索范围,实现方式如下,
输入搜索范围后,中央处理器12协调相关工作单元同步工作,包括取与扫描搜索任务对应的变倍参数Pi,通过变焦镜组3.7将搜索成像单元3的放大倍数固定在Pi位置;闭合第一离合器7.1、第二离合器9.1,仰俯姿态单元7和航向姿态单元9带动测距单元1、红外激光光源2、搜索成像单元3、天文望远镜成像单元5连续运动,循环覆盖搜索范围;根据自动成像过程,在搜索范围内连续获取野外实景影像;
2)获取目标搜索数据,实现方式如下,
搜索成像单元3提供以搜索范围为界的全局影像数据,天文望远镜成像单元5提供全局影像中每幅以其视场为界的单幅影像的分划中心附近的局部影像详细数据;
3)获取待识别目标影像,实现方式如下,
图像识别单元17比对搜索成像单元3提供的全局影像数据,得到待识别目标,中央处理器12根据待识别目标在全局影像中的位置向仰俯姿态单元7和航向姿态单元9发出运动指令,将横轴10和竖轴11转动到位,使轴线L瞄准待识别目标,天文望远镜成像单元5获取待识别目标影像;
4)目标识别,包括由图像识别单元17比对天文望远镜成像单元5提供的待识别目标影像数据和特定目标的详细特征数据,识别瞄准对象;
5)跟踪瞄准,实现方式如下,
中央处理器12以图像识别单元17提供的瞄准对象为跟踪瞄准对象,指令仰俯姿态单元7和航向姿态单元9带动红外激光光源2、搜索成像单元3和天文望远镜成像单元5连续运动,使跟踪瞄准对象的影像始终保持在野外实景影像中的分划中心位置;仰俯姿态单元7和航向姿态单元9同步向中央处理器12反馈姿态数据;
同时,搜索成像单元3以向中央处理器12提供包括特定目标方位、环境在内的周边影像 数据;天文望远镜成像单元5向中央处理器12提供特定目标的详细影像数据;
6)跟踪测距,包括由测距单元1对轴线L瞄准的目标连续测距并同步向中央处理器12提供距离数据;
7)跟踪测量,包括由中央处理器12根据测站常量数据和目标变量数据解算出运动中的特定目标的实时三维大地坐标;
8)航迹推算与再搜索,实现方式如下,
包括在设定的时间段内,中央处理器12按特定目标在所保存每一时刻的三维大地坐标数据和周边影像数据,得到航迹推算函数;若搜索成像单元3在跟踪特定目标的过程中失锁,则中央处理器12根据航迹推算函数推算其下一时间可能出现的空间位置,据此划定目标再搜索范围并循环搜索,通过仰俯姿态单元7和航向姿态单元9使轴线L逐次瞄准这些空间位置,等待特定目标的再次出现;
9)同步数据传输,实现方式如下,
中央处理器12通过通信单元16远程传输特定目标的实时影像和实时三维大地坐标。
而且,在天文望远镜成像单元5通视目标景物条件下,进行全天候自动生成基于野外实景影像的地形图,步骤如下,
1)在单幅野外实景影像中确定第一个起始点,实现方式如下,
中央处理器12通过当前摄取的野外实景影像得到航向角和仰俯角的起始终止位置与运动范围并指令三维姿态系统将航向角和仰俯角运动到起始位置,瞄准第一个起始点K0;测距单元1对第一个起始点K0测距,中央处理器12通过测站常量数据和目标变量数据计算得到K0的三维大地坐标(X0,Y0,H0);
2)在单幅野外实景影像上自动绘制等高线,实现方式如下,
从第一个起始点(X0,Y0,H0)开始,中央处理器12根据第一个起始点的高程值H0指令航向姿态单元9和仰俯姿态单元7运动,获得高程值H0处一系列三维大地坐标点,连接所述各点得到等高线L1;
3)在单幅野外实景影像上自动生成地形图,实现方式如下,
依次类推获得以设定的密度覆盖野外实景影像的等高线族,得到基于野外实景影像的地形图。
而且,进行360°全景野外实景影像的无重叠拼接,包括变换航向角和仰俯角,进行二维野外实景影像遍历拍摄,排列构成环绕测站360°的全景二维野外实景影像并生成等高线和地形图。
而且,在天文望远镜成像单元5通视目标景物条件下,在二维野外实景影像内自动生成任意形状、任意幅面大小的三维野外实景影像,步骤如下,
1)任意界定工作范围,实现方式如下,
当用户在人机交互单元13的触摸屏显示的二维野外实景影像上勾勒任意形状的闭合曲线C,中央处理器12将C所包围的区域M界定为工作范围;仰俯姿态单元7和航向姿态单元9按中央处理器12的指令将运动起止点位置全部落在闭合曲线C上;
2)在任意界定的工作范围内自动生成三维大地坐标点阵云,实现方式如下,
按照设定的密度,测距单元1、仰俯姿态单元7和航向姿态单元9在界定的工作范围内同步工作,连续向中央处理器12提供目标变量数据,中央处理器12根据测站常量数据和目标变量数据连续解算,在任意界定的工作范围内获得三维大地坐标点阵云;
3)自动生成三维野外实景影像,实现方式如下,
中央处理器12在所述二维野外实景影像中,利用已知的三维大地坐标点阵云向无三维大地坐标的点推算三维大地坐标,获得三维野外实景影像。
而且,所述搜索成像单元3包括第二电机3.1、第二驱动电路3.2、第六蜗轮3.3、第六蜗杆3.4、第四编码器3.5、第一物镜3.6、第一调焦镜3.8、第一成像镜组3.9、双滤光片结构CCD模块3.10,第一物镜3.6、第一调焦镜3.8、第一成像镜组3.9、第一双滤光片结构CCD模块3.10依次连接,第二驱动电路3.2、第二电机3.1、第六蜗杆3.4、第四编码器3.5依次连接,第六蜗杆3.4与第六蜗轮3.3啮合,第六蜗轮3.3连接第一调焦镜3.8,中央处理器12和第二驱动电路3.2、第四编码器3.5、第一双滤光片结构CCD模块3.10分别连接。
本发明提供的跟踪测量机器人,具有高精度、高效率、高可靠性、高性价比、低成本、智慧型、便携、由丰富涌现性获得超级功能的野外特征,可应用于摄影测量、大地测量;对建筑物/大坝/闸门/桥梁的裂隙监测;大范围快速测图、精确瞄准定位、目标识别、对动态目标的跟踪测量等各种地理信息产业类应用及其外延应用。采用激光器为测距手段时,跟踪测量机器人是野外便携式光学测量设备,最大测量距离可达40公里,适用于地面测站对地面目标和近距离空中目标的测量,具有自适应环境光源全天候自动成像、自动同步获取目标影像和目标三维大地坐标、自动跟踪测量运动目标、自动绘制地形图、自动生成地面静态目标景物在大地坐标系下的三维实景影像等功能。
附图说明
图1是本发明实施例一所提供的跟踪测量机器人结构图。
图2是本发明实施例二所提供的定焦型跟踪测量机器人结构图。
图3是本发明实施例的跟踪测量机器人通信原理图。
图4是本发明实施例的跟踪测量机器人的轴系示意图。
图5是本发明实施例的跟踪测量机器人整机装配示意图。
图6是本发明实施例的跟踪测量机器人电路原理框图。
具体实施方式
本发明是一种便携式野外工作站。为叙述准确,在本发明中将“道路”定义为:适于汽车行驶的地球陆地表面。将“野外”定义为:包含道路在内的地球陆地表面。
以下结合附图和实施例详细说明本发明技术方案。实施例提供的跟踪测量机器人,包括遥感遥测系统、三维姿态系统和中央控制与定位通信系统。为便于叙述起见,以下将跟踪测量机器人分五部分描述:遥感遥测系统、三维姿态系统、中央控制与定位通信系统,其中提供跟踪测量机器人各部分的工作方式,以供实施参考;还有跟踪测量机器人的功能实现、跟踪测量机器人系统特点,以便本领域技术人员理解本发明技术效果。
一.遥感遥测系统
1、系统构成:
遥感遥测系统包括测距单元1、红外激光光源2、搜索成像单元3、图像处理单元4、天文望远镜成像单元5、光敏电阻6构成。遥感遥测系统的传感器是多光同轴的:测距单元1、红外激光光源2、搜索成像单元3、天文望远镜成像单元5的光轴,四者可标定在同一轴线L上。
为便于实施参考起见,实施例进一步提出:
跟踪测量机器人支持激光测距、微波测距、雷达测距三种测距方式。采用激光测距方式时,跟踪测量机器人是便携式野外测量设备;采用微波测距方式和雷达测距方式时,跟踪测量机器人成为微波设备和雷达的附件。
所述红外激光光源2包括红外激光镜头2.1、红外激光调焦镜2.2、红外激光发生器2.3、泵浦电源2.4、第一电机2.5、第一驱动电路2.6和第三编码器2.7,红外激光镜头2.1、红外激光调焦镜2.2、红外激光发生器2.3、泵浦电源2.4依次连接,第一电机2.5与红外激光调焦镜2.2、第一驱动电路2.6、第三编码器2.7分别连接,中央处理器12和泵浦电源2.4、第一驱动电路2.6、第三编码器2.7分别连接。
所述搜索成像单元3有两种建议实现方案。参见图1,实施例一中是最佳实施方案,包括第二电机3.1、第二驱动电路3.2、第六蜗轮3.3、第六蜗杆3.4、第四编码器3.5、第一物镜3.6、变焦镜组3.7、第一调焦镜3.8、第一成像镜组3.9、第一双滤光片结构CCD模块3.10、第七蜗轮3.11、第七蜗杆3.12、第六编码器3.13、第四电机3.14和第四驱动电路3.15,第一 物镜3.6、变焦镜组3.7、第一调焦镜3.8、第一成像镜组3.9、第一双滤光片结构CCD模块3.10依次连接,第二驱动电路3.2、第二电机3.1、第六蜗杆3.4、第四编码器3.5依次连接,第六蜗杆3.4与第六蜗轮3.3啮合,第六蜗轮3.3连接第一调焦镜3.8,第四驱动电路3.15、第四电机3.14、第七蜗杆3.12、第六编码器3.13依次连接,第七蜗杆3.12与第七蜗轮3.11啮合,第七蜗轮3.11连接变焦镜组3.7,中央处理器12和第二驱动电路3.2、第四编码器3.5、第六编码器3.13、第四驱动电路3.15、第一双滤光片结构CCD模块3.10分别连接。搜索成像单元3通过变焦镜组3.7实现变倍。具体实施时,存储单元14中可设置任务库和变倍参数库:其中的变倍参数是按照任务项标定的常数构成的集合,任务项与变倍参数构成一一对应的数据对。参见图2,实施例二中是定焦型跟踪测量机器人,包括第二电机3.1、第二驱动电路3.2、第六蜗轮3.3、第六蜗杆3.4、第四编码器3.5、第一物镜3.6、第一调焦镜3.8、第一成像镜组3.9、第一双滤光片结构CCD模块3.10,第一物镜3.6、第一调焦镜3.8、第一成像镜组3.9、第一双滤光片结构CCD模块3.10依次连接,第二驱动电路3.2、第二电机3.1、第六蜗杆3.4、第四编码器3.5依次连接,第六蜗杆3.4与第六蜗轮3.3啮合,第六蜗轮3.3连接第一调焦镜3.8,中央处理器12和第二驱动电路3.2、第四编码器3.5、第一双滤光片结构CCD模块3.10分别连接。在最佳实施方案的跟踪测量机器人中去除变焦镜组3.7、第七蜗轮3.11、第七蜗杆3.12、第六编码器3.13、第四电机3.14和第四驱动电路3.15得到定焦型跟踪测量机器人。定焦型跟踪测量机器人与最佳实施方案的跟踪测量机器人的差异是:前者的搜索成像单元3不具备变倍功能,从而具有相对简单的结构、较低的成本和较弱的功能。本发明主要介绍最佳实施方案的跟踪测量机器人的实现,定焦型跟踪测量机器人不予赘述。
所述图像处理单元4用于判断成像所得图像是否清晰,是一个DSP,与搜索成像单元3、天文望远镜成像单元5、中央处理器12分别连接,具体判断可基于现有图像清晰判断技术实现,一般可分为三个部分:景物图像提取部分对景物图像进行RGB三色位图数据提取、图像灰度处理、滤波,搜索计算部分完成算子计算、边缘检测、获取图像值,图像清晰度判定部分用于比较得到图像值最大的电机位置。
所述天文望远镜成像单元5包括第三电机5.1、第三驱动电路5.2、第五蜗轮5.3、第五蜗杆5.4、第五编码器5.5、第二物镜5.6、第二调焦镜5.7、第二成像镜组5.8和第二双滤光片结构CCD模块5.9,第二物镜5.6、第二调焦镜5.7、第二成像镜组5.8和第二双滤光片结构CCD模块5.9依次连接,第三驱动电路5.2、第三电机5.1、第五蜗杆5.4、第五编码器5.5依次连接,第五蜗杆5.4与第五蜗轮5.3啮合,第五蜗轮5.3连接第二调焦镜5.7,中央处理器12和第三驱动电路5.2、第五编码器5.5、第二双滤光片结构CCD模块5.9分别连接。天文望远镜成像单元5的 放大倍数小于或等于480倍。放大倍数为480倍时,观察40公里外的物体的放大效果约等于肉眼观察83米处的同一物体;放大倍数为400倍时,观察40公里外的物体的放大效果约等于肉眼观察100米处的同一物体;如此等等。具体实施时,本发明建议采用折返式天文望远镜,具有小体积、高倍数的特点,所须双滤光镜片可自制或定制。
2、对白视环境和夜视环境、雾霾条件的自适应、对成像光源的自主选择
本发明可基于光敏电阻6进行自主成像过程,包括根据白光光通量,光敏电阻6发出信号控制中央处理器12关闭或打开泵浦电源2.4,对应白光光源或红外激光光源;成像结果由图像处理单元4判断图像清晰度,在白光光源下的成像结果达不到清晰度要求时,中央处理器12打开泵浦电源2.4提供红外激光光源。
步骤1,进行成像光源初始选择:对白视环境和夜视环境的自适应、对成像光源的自主选择。
遥感遥测系统前端装有光敏电阻6。白光光通量足以使第二双滤光片结构CCD模块5.9白光成像时光敏电阻6的信号口处于闭合状态,此时中央处理器12关闭泵浦电源2.4,进入步骤2。白光光通量不足以第二双滤光片结构CCD模块5.9白光成像时光敏电阻6的信号口处于常开状态,此时中央处理器12开启泵浦电源2.4,红外激光光源2照射目标,搜索成像单元3、天文望远镜成像单元5接受自目标返回的红外激光,进入步骤4。
步骤2,白光光源下,对良好能见度及雾霾环境的自适应和成像光源的自主选择,实现如下:
获取图像值:白光信号经由搜索成像单元3或天文望远镜成像单元5转换为数字信号后到达图像处理单元4,图像处理单元4中的景物图像提取部分对景物图像进行RGB三色位图数据提取、图像灰度处理、滤波;搜索计算部分完成算子计算、边缘检测、获取图像值任务。
图像清晰度判定:中央处理器12读取变焦镜组3.7、第二调焦镜5.7的调焦标定值驱动第二电机3.1和第三电机5.1依次到达各相应标定位置,搜索计算部分在这些位置获得来自搜索成像单元3、天文望远镜成像单元5的图像值。图像清晰度判定部分完成图像值比较任务:使图像值最大的第二电机3.1位置即为来自搜索成像单元3的图像的最清晰处,使图像值最大的第三电机5.1位置即为来自天文望远镜成像单元5的图像的最清晰处。
对良好能见度/雾霾环境的自适应和成像光源的自主选择:中央处理器12对来自搜索成像单元3的目标景物的所有图像值进行分析处理。若图像值的最大值与最小值之差的绝对值大于正实数Q1,则判定测站处于良好能见度环境,遥感遥测系统进入步骤3;若图像值的最大值与最小值之差的绝对值小于正实数Q1大于正实数Q2,则判定测站处于中度或轻度雾霾环境, 遥感遥测系统进入步骤4;若图像值的最大值与最小值之差的绝对值小于Q2,则判定测站处于重度雾霾环境,中央处理器12报警。其中,Q1、Q2是预先根据搜索成像单元3的第一双滤光片结构CCD模块3.10的技术指标和环境适应性测试得到的标定常数。
本发明搜索成像单元3、天文望远镜成像单元5在白视、夜视、雾霾条件下可对目标景物的同步自动成像。四光同轴使得搜索成像单元3与天文望远镜成像单元5的视场具有同一中心位置,搜索成像单元3的最小视场大于且包含了天文望远镜成像单元5的视场。具体实施时,可在存储单元14中预先存有任务与变倍参数库,其中的变倍参数是按照任务标定的常数,任务与变倍参数构成一一对应的数据对(Ei,Pi),i=1,2,...J。其中Ei是任务,Pi是变倍参数。可支持用户在人机交互单元13的触摸屏上点击任务项,中央处理器12自动将搜索成像单元3的视场调整到适合该项任务的大小,跟踪测量机器人进入同步自动成像工作流程:
步骤3,基于白光光源,在自动调焦后进行自动成像:
搜索成像单元3自动调焦:中央处理器12向第二驱动电路3.2发出指令,使第二电机3.1、第六蜗杆3.4转动,第四编码器3.5实时记录第六蜗杆3.4的运动状态同步反馈给中央处理器12,中央处理器12算出脉冲修正值并据此发出下一指令,直到第六蜗杆3.4转动到设定的位置并通过第六蜗轮3.3完成对第一调焦镜3.8的焦距调整。
搜索成像单元3自动成像:白光信号经过第一物镜3.6、变焦镜组3.7、第一调焦镜3.8和第一成像镜组3.9到达第一双滤光片结构CCD模块3.10。第一双滤光片结构CCD模块3.10将白光信号转换成数字信号后上传至图像处理单元4,图像处理单元4得到清晰的景物图像并上传至中央处理器12,完成基于白光光源的自动成像任务。
天文望远镜成像单元5自动调焦:中央处理器12向第三驱动电路5.2发出指令,使第三电机5.1、第五蜗杆5.4转动,第五编码器5.5实时记录第五蜗杆5.4的运动状态同步反馈给中央处理器12,中央处理器12算出脉冲修正值并据此发出下一指令,直到第五蜗杆5.4转动到设定的位置并通过第五蜗轮5.3完成对第二调焦镜5.7的焦距调整。
天文望远镜成像单元5自动成像:白光信号经过第二物镜5.6、第二调焦镜5.7和第二成像镜组5.8到达第二双滤光片结构CCD模块5.9。第二双滤光片结构CCD模块5.9将白光信号转换成数字信号后上传至图像处理单元4,图像处理单元4清晰的景物图像并上传至中央处理器12,完成基于白光光源的自动成像任务。
步骤4,基于红外激光光源,在红外激光照射范围准确覆盖搜索成像单元3的视场后进行自动成像,适用于夜视、雾霾条件:
a.红外激光照射范围准确覆盖搜索成像单元3的视场
中央处理器12同时完成两项工作:一是开启第四驱动电路3.15,使第四电机3.14带动第七蜗杆3.12运动到相应Pi位置,第七蜗杆3.12带动第七蜗轮3.11使变焦镜组3.7将搜索成像单元3的视场调整到执行第i类任务所需的大小,第六编码器3.13将第七蜗杆3.12的实际到达位置上传给中央处理器12;二是向第一驱动电路2.6发出指令使第一电机2.5带动红外激光调焦镜2.2运动到相应Qi位置,使红外激光光源2的照射范围正好覆盖搜索成像单元3的视场。
其中,标定常数Pi是搜索成像单元3执行第i类任务时的视场,称为Pi成像视场(i=1,2,3,.....J),J为任务数。标定常数Qi(i=1,2,3,.....J)是与Pi一一对应的红外激光聚焦值,红外激光调焦镜2.2处于Qi位置时红外激光照射范围与Pi成像视场重合。Pi被标定后,Qi根据Pi标定。
b.搜索成像单元3基于红外激光光源的自动成像
中央处理器12、搜索成像单元3、图像处理单元4进入景物图像清晰度判定工作流程:从目标景物返回的红外激光信号通过第一物镜3.6、变焦镜组3.7、第一调焦镜3.8、第一成像镜组3.9到达第一双滤光片结构CCD模块3.10。第一双滤光片结构CCD模块3.10将红外激光信号转换成数字信号并将数字信号上传至图像处理单元4。图像处理单元4得到清晰景物图像并上传至中央处理器12,完成基于红外激光光源的自动成像任务。
c.红外激光照射范围准确覆盖天文望远镜成像单元5的视场
中央处理器12向第一驱动电路2.6发出指令使第一电机2.5带动红外激光调焦镜2.2运动到位置vo,红外激光光源2的照射范围正好覆盖天文望远镜成像单元5的视场。
其中,vo是标定常数:天文望远镜成像单元5的视场角是常数,记为uo,按uo标定红外激光光源2的相应常数vo,使红外激光调焦镜2.2运动到位置vo时红外激光照射范围与天文望远镜成像单元5的视场重合。
d.天文望远镜成像单元5基于红外激光光源的自动成像
中央处理器12、天文望远镜成像单元5、图像处理单元4进入景物图像清晰度判定工作流程:从目标景物返回的红外激光信号通过第二物镜5.6、第二调焦镜5.7、第二成像镜组5.8到达第二双滤光片结构CCD模块5.9。第二双滤光片结构CCD模块5.9将红外激光信号转换成数字信号并将数字信号上传至图像处理单元4。图像处理单元4得到清晰景物图像并上传至中央处理器12,完成基于红外激光光源的自动成像。
3、测距单元
跟踪测量机器人支持激光测距、微波测距、雷达测距。
1)测距单元1采用激光测距方式
在目前的激光器产品中,测程超过40公里的激光器的重量和供电方式不适于便携。随着激光技术的不断发展,更大测距、更小质量、更高测距频率、更高测距精度的适合锂电池供电的激光器将不断面市。目前,适于便携的基于锂电池供电的相关国产激光器已能实现的技术指标为:测程从8公里到40公里不等、测距频率从0.2Hz到5Hz不等、测距误差从分米级到1米不等。可自由采购到的相关北美产品具有类似的技术指标:40公里测程、15Hz测距频率、分米级测距误差、支持锂电池供电、适于便携。
2)测距单元1采用微波测距或雷达测距方式
对于中央处理器12而言测距单元1是一个能够与之进行数据通信的外设,只要能够从测距单元1读取距离数据即可。测距单元1采用什么方式获取距离数据是不重要的。
对于遥感遥测系统和三维姿态系统而言,需要测距单元1与其它相关单元在轴系中保持同轴、同心的几何关系。因此,测距单元1采用微波测距或雷达测距方式时,跟踪测量机器人将作为一个工作部件成为微波或雷达设备的子系统:按雷达提供的方位搜索发现跟踪目标、用所述跟踪测量方法获取天文望远镜成像单元5力所能及之近程目标的光学影像和三维坐标并同步上传给微波或雷达系统的终端机。
二.三维姿态系统
三维姿态系统包括仰俯姿态单元7、横轴10、水平姿态单元8、航向姿态单元9和竖轴11;横轴10的中轴线与竖轴11的中轴线相互正交且交于空间点O,横轴10的中轴线与竖轴11的中轴线所构成的平面垂直于跟踪测量机器人的底座平面;测距单元1的光轴、红外激光光源2的光轴、搜索成像单元3的光轴、天文望远镜成像单元5的光轴标定的同一轴线L过空间点O与横轴10的中轴线正交。
1)仰俯姿态单元7的工作系统构成、精度控制、数据读取:
a.仰俯姿态单元7的工作系统构成
仰俯姿态单元7由第一离合器7.1、第一同步带放大器7.2、第一蜗轮7.4、第一同步带轮7.5、第一蜗杆7.6、第一弹性机构7.7、第二蜗轮7.8、第二弹性机构7.9、第二蜗杆7.10、第一电机与驱动7.11、第一编码器7.3构成。第一电机与驱动7.11连接第二蜗杆7.10,第二蜗轮7.8和第二蜗杆7.10经第二弹性机构7.9啮合,第二蜗轮7.8和第一蜗杆7.6经第一弹性机构7.7啮合,第一蜗轮7.4和第一蜗杆7.6之间经第一同步带轮7.5传动,第一蜗轮7.4和第一编码器7.3之间经第一同步带放大器7.2传动,第一蜗轮7.4连接第一离合器7.1,第一离合器7.1闭合时连接横轴10,中央处理器12和第一离合器7.1、第一同步带放大器7.2、第一 编码器7.3、第一电机与驱动7.11分别连接。
其中,
使用可微调的第一弹性机构7.7使第二蜗轮7.8和第一蜗杆7.6在运行中始终全面啮合,令第二蜗轮7.8和第一蜗杆7.6构成的蜗轮蜗杆机构的正反向旋转间隙达到最小;
使用可微调的第二弹性机构7.9使第二蜗轮7.8和第二蜗杆7.10在运行中始终全面啮合,令第二蜗轮7.8和第二蜗杆7.10构成的蜗轮蜗杆机构的正反向旋转间隙达到最小;
第一同步带轮7.5的传动是由传动比为1:1的同步轮(金属、高分子材料)+同步轮传动带(橡胶、聚氨酯)构成。有时由于安装顺序的不同须加装张紧机构。第一同步带轮7.5的传动使第一蜗轮7.4和第一蜗杆7.6构成的蜗轮蜗杆机构在运行中紧密啮合不产生间隙。
第一同步带放大器7.2的传动是由传动比为1:H的同步轮(金属、高分子材料)+同步轮传动带(橡胶、聚氨酯)构成。第一同步带放大器7.2的工作原理和机构与同步带轮类同。有时由于安装顺序的不同须加装张紧机构。第一同步带放大器7.2的传动使第一蜗轮7.4和第一编码器7.3构成的机构在运行中紧密啮合不产生间隙。
b.仰俯姿态精度控制
当第二蜗杆7.10第二蜗轮7.8传动组的传动比为N且第一蜗杆7.6第一蜗轮7.4传动组的传动比为M时,整体传动比为N×M。此时若第一电机与驱动7.11中的电机对应一个脉冲信号的最大误差为h角秒,则横轴对应一个脉冲信号的最大误差为
(h/N角秒+a角秒+b角秒)/M+c角秒 (a)
上式中,a是第二蜗杆7.10与第二蜗轮7.8之间的机械间隙,第二弹性机构7.9使a的变化范围足够小;b是第二蜗轮7.8与第一蜗杆7.6之间的机械间隙,第一弹性机构7.7使b的变化范围足够小;c是第一蜗杆7.6与第一蜗轮7.4之间的机械间隙,实测数据证明第一同步带轮7.5使c的绝对值趋于零。选定第一电机与驱动7.11中电机)并设定细分数之后h成为已知常量,故足够大的N和M就使得(a)式的绝对值充分小。实测数据证明,经过整体传动之后,第一电机与驱动7.11在执行中央处理器12指令的过程中产生的运动误差被缩小了约N×M倍。这使得仰俯姿态的测控精度可达0.1角秒或更高(目前仰俯姿态测控的全球最高精度为0.5角秒,由瑞士徕卡公司的精密测量机器人创造并保持)。
c.仰俯姿态数据的读取
第一电机与驱动7.11在执行中央处理器12指令的过程中产生的运动误差被缩小了约N×M倍之后可达到误差小于0.1角秒的精度,这种精度远远超出绝大多数角度编码器的分辨率。
用第一同步带放大器7.2协助第一编码器7.3完成数据读取,可有效减少角度编码器对超高精度数据的读取难度并完全避免了为此而专门研制超高分辨率角度编码器所带来的一系列问题:从第一电机与驱动7.11到第一蜗轮7.4的整体运动结果由第一蜗轮7.4表达。第一同步带放大器7.2通过第一蜗轮7.4将整体运动在执行中央处理器12指令的过程中产生的运动误差放大H倍后传递给第一编码器7.3并经由第一编码器7.3转换为数字信号上传给中央处理器12。中央处理器12将所得运动数据除以H倍后得到横轴10真实的位置到达数据。
2)航向姿态单元9的工作系统构成、精度控制、数据读取:
a.航向姿态单元9的工作系统构成
航向姿态单元9由第二离合器9.1、第二同步带放大器9.2、第三蜗轮9.4、第二同步带轮9.5、第三蜗杆9.6、第三弹性机构9.7、第四蜗轮9.8、第四弹性机构9.9、第四蜗杆9.10、第二电机与驱动9.11、第二编码器9.3构成。第二电机与驱动9.11连接第四蜗杆9.10,第四蜗轮9.8和第四蜗杆9.10经第四弹性机构9.9啮合,第四蜗轮9.8和第三蜗杆9.6经第三弹性机构9.7啮合,第三蜗轮9.4和第三蜗杆9.6之间经第二同步带轮9.5传动,第三蜗轮9.4和第二编码器9.3之间经第二同步带放大器9.2传动,第三蜗轮9.4连接第二离合器9.1,第二离合器9.1闭合时连接竖轴11,中央处理器12和第二离合器9.1、第二同步带放大器9.2、第二编码器9.3、第二电机与驱动9.11分别连接。
其中,
使用可微调的第三弹性机构9.7使第四蜗轮9.8和第三蜗杆9.6在运行中始终全面啮合,令第四蜗轮9.8和第三蜗杆9.6构成的蜗轮蜗杆机构的正反向旋转间隙达到最小;
使用可微调的第四弹性机构9.9使第四蜗轮9.8和第四蜗杆9.10在运行中始终全面啮合,令第四蜗轮9.8和第四蜗杆9.10构成的蜗轮蜗杆机构的正反向旋转间隙达到最小;
第二同步带轮9.5的传动是由传动比为1:1的同步轮(金属、高分子材料)+同步轮传动带(橡胶、聚氨酯)构成。有时由于安装顺序的不同须加装张紧机构。第二同步带轮9.5的传动使第三蜗轮9.4和第三蜗杆9.6构成的蜗轮蜗杆机构在运行中紧密啮合不产生间隙。
第二同步带放大器9.2的传动是由传动比为1:Z的同步轮(金属、高分子材料)+同步轮传动带(橡胶、聚氨酯)构成。有时由于安装顺序的不同须加装张紧机构。第二同步带放大器9.2的传动使第三蜗轮9.4和第二编码器9.3蜗杆构成的机构在运行中紧密啮合不产生间隙,工作原理和机构与同步带轮类同。
b.航向精度控制
当第四蜗杆9.10第四蜗轮9.8传动组的传动比为R且第三蜗杆9.6第三蜗轮9.4传动组的传 动比为S时,整体传动比为R×S。此时若第二电机与驱动9.11对应一个脉冲信号的最大误差为f角秒,则竖轴对应一个脉冲信号的最大误差为
(f/R角秒+d角秒+e角秒)/S+g角秒 (b)
上式中,d是第四蜗杆9.10与第四蜗轮9.8之间的机械间隙,第四弹性机构9.9使d的变化范围足够小;e是第四蜗轮9.8与第三蜗杆9.6之间的机械间隙,第三弹性机构9.7使e的变化范围足够小;g是第三蜗杆9.6与第三蜗轮9.4之间的机械间隙,实测数据证明第二同步带轮9.5使c的绝对值趋于零。选定第二电机与驱动9.11并设定细分数之后S成为已知常量,故足够大的R和S就使得(b)式的绝对值充分小。实测数据证明,经过整体传动之后,第二电机与驱动9.11在执行中央处理器12指令的过程中产生的运动误差被缩小了约R×S倍。这使得航向姿态的测控精度可达0.1角秒或更高(目前航向姿态测控的全球最高精度为0.5角秒,由瑞士徕卡公司的精密测量机器人创造并保持)。
c.航向姿态数据的读取
第二电机与驱动9.11在执行中央处理器12指令的过程中产生的运动误差被缩小了约R×S倍之后可达到误差小于0.1角秒的精度,这种精度远远超出绝大多数角度编码器的分辨率。
用第二同步带放大器9.2协助第二编码器9.3完成数据读取,可有效减少角度编码器对超高精度数据的读取难度并完全避免了为此而专门研制超高分辨率角度编码器所带来的一系列问题:从第二电机与驱动9.11到第三蜗轮9.4的整体运动结果由第三蜗轮9.4表达。第二同步带放大器9.2通过第三蜗轮9.4将整体运动在执行中央处理器12指令的过程中产生的运动误差放大Z倍后传递给第二编码器9.3并经由第二编码器9.3转换为数字信号上传给中央处理器12。中央处理器12将所得运动数据除以Z倍后得到横轴10真实的位置到达数据。
3)水平姿态单元:
水平姿态单元8一般由机械整平机构和电子补偿构成。电子补偿模块和机械整平模块连接,中央处理器12和电子补偿模块连接。调整好机械整平机构后,电子补偿自动将水平姿态补偿到1角秒的精度并向中央处理器12上传补偿后的水平姿态数据。
4)跟踪测量机器人的三维姿态测控:
如图4所示,竖轴11的中轴线l1与横轴10的中轴线l2的几何关系。l1⊥l2,l1与l2交于空间点O(0,0,0),l1与l2构成的平面Π1与跟踪测量机器人底座平面Π2正交。红外激光光源2的光轴、天文望远镜成像单元5的光轴、测距单元1的光轴、搜索成像单元3的光轴分别垂直平面Π1,交于竖轴11、空间点O(0,0,0)、横轴10的左侧、右侧,可都标定在天文望远镜成像单元5的光轴处。
三维姿态系统一般设有音叉,如图5所示,三维姿态系统一般设有支架,支架的音叉转动部分上,由测距单元1、红外激光光源2和搜索成像单元3、天文望远镜成像单元5构成的组件通过横轴10与姿态测控机的音叉连接,航向姿态单元9通过竖轴11与遥感遥测系统连接,竖轴11的转动产生跟踪测量机器人的航向运动;航向姿态单元9经竖轴11连接,仰俯姿态单元7经横轴10与支架音叉连接,横轴10的转动产生跟踪测量机器人的航向运动。
跟踪测量机器人的整机装配:通过光学/机械/电子方法精确标定测距单元1的光轴、红外激光光源2的光轴、搜索成像单元3的光轴、天文望远镜成像单元5的光轴、横轴10的中轴线、竖轴11的中轴线、全球定位单元15天线相位中心点与竖轴11垂直于大地水准面时的中轴线之延长线相交形成的定位轴线之间的几何关系,实现多光同轴和多轴同心。
架设跟踪测量机器人并调整好水平姿态单元8之后仰俯角和航向角自动归零到位,跟踪测量机器人进入工作状态。中央处理器12可通过设定程序使仰俯姿态测控和航向姿态测控同步运行。
仰俯姿态测控:中央处理器12开启第一电机与驱动7.11,通过从第一电机与驱动7.11到第一蜗轮7.4的传动使仰俯角以设定精度一次性到达指定位置。第一编码器7.3实时测量第一蜗轮7.4的运动到达位置并同步向中央处理器12上传。中央处理器12据此推算、读取精确的仰俯角的位置到达数据。
航向姿态测控:中央处理器12开启第二电机与驱动9.11,通过从第二电机与驱动9.11到第三蜗轮9.4的传动使仰俯角以设定精度一次性到达指定位置。第二编码器9.3实时测量第三蜗轮9.4的运动到达位置并同步向中央处理器12上传。中央处理器12据此推算、读取精确的航向角的位置到达数据。
三.中央控制与定位通信系统
中央控制与定位通信系统包括中央处理器12、人机交互单元13、存储单元14、全球定位单元15、通信单元16、图像识别单元17、电源单元18。参见图6,中央处理器12与测距单元1、红外激光光源2、搜索成像单元3、图像处理单元4、天文望远镜成像单元5和光敏电阻6、仰俯姿态单元7、水平姿态单元8、航向姿态单元9、人机交互单元13、存储单元14、全球定位单元15、通信单元16、图像识别单元17、电源单元18分别连接。
其中,全球定位单元15的模块和天线是北斗、GPS、GLONASS、伽利略4系统一体化的定位装置,可同时利用4个天网定位;通信单元16支持3G、4G、自组网通信,包括3G/4G模块16.1和电台模块16.2,中央处理器12和3G/4G模块16.1、电台模块16.2分别连接。图像识别单元17可采用一个DSP实现,具体识别可采用现有识别算法。人机交互单元13一般 包括键盘、触摸屏、鼠标,电源单元18一般包括锂电池和充电电路。
如图3所示本发明实施例的跟踪测量机器人通信原理图,以下用从上往下分层的方式诠释。第一层:左边标示“全球定位卫星”的云朵表示用于全球定位的卫星群构成的天网,包含中国的北斗、美国的GPS、欧盟的伽利略、俄罗斯的GLONASS等可用资源。例如,GPS用于全球定位的卫星群含有26-30颗卫星(24颗运行、其它备份),分6条轨道等。这24颗工作卫星就构成了GPS天网。同理表述北斗天网、伽利略天网和GLONASS天网。右边标示“遥感卫星”的云朵表示由各国、各种用于观测地球资源的RS卫星的可用资源(如航天遥感影像等);第二层:左边为本专利技术的跟踪测量机器人,右边为基准站。标有“自组网”字样的位于中间的闪电形符号表示跟踪测量机器人之间通过自组网进行的无线通信,标有“地面RS数据”字样的位于两边的闪电形符号表示跟踪测量机器人的地面遥感功能;第三层:地面通信网络。左边标有“有线/无线电话网”字样的云朵表示用于地面通话的电话网,其终端包含手机和座机。中间标有“无线Internet(2.5G/3G/4G)”字样的云朵表示无线数据网。右边标有“地面站”字样的云朵表示遥感卫星的地面站网络;第四层:地面通信网络的数据平台。标有“2.5G平台”、“3G平台”、“4G平台”、“RS数据平台”的方框分别表示2.5G无线数据通信平台、3G无线数据通信平台、4G无线数据通信平台和与各地面站连接的遥感数据平台;第五层:标有“有线Internet”字样的云朵表示通用的因特网,左边标有B/S后方数据中心字样的图标表示连接在因特网上的以B/S方式收发信息的计算机服务器,右边标有C/S后方数据中心字样的图标表示连接在因特网上的以C/S方式收发信息的计算机服务器;各层之间的通信符号:闪电形符号表示无线通信方式的数据链接,直线相连表示有线通信方式的数据链接。
四.跟踪测量机器人功能实现方法
综上所述,由跟踪测量机器人所有工作单元、模块、部件、芯片构成的系统围绕中央处理器12可实现多种功能。例如:
通过全球定位单元15和通信单元16实现差分定位,获得跟踪测量机器人在测位上的三维大地坐标。
通过通信单元16在跟踪测量机器人与基准站之间、跟踪测量机器人与跟踪测量机器人之间、跟踪测量机器人与后方计算机服务器之间实现包括物方三维坐标、物方影像、三维姿态数据、三维导航图、地形图、航空航天遥感影像、工作指令在内各种工作数据的互传、上传和下传,实现云计算、云端库、内业工作与外业工作的实时一体化;
通过全球定位单元15、通信单元16、一台全球定位仪(两台跟踪测量机器人协同工作时则无需全球定位仪)实现跟踪测量机器人的找北。找北精度取决于姿态测量精度和定位精度:在 跟踪测量机器人的姿态测控精度之下,全球定位单元15和所述全球定位仪(或自主测绘机)的定位精度达到mm级时可完成角秒级精度的找北,实现跟踪测量机器人自定义坐标系与大地坐标系的融合归一;
通过存储单元14完成跟踪测量机器人的数据存取;
通过电源单元18向跟踪测量机器人的所有单元、模块、电路、外设供电;
通过人机交互单元13实现人机对话;
通过红外激光光源2、搜索成像单元3、图像处理单元4、天文望远镜成像单元5、光敏电阻6以及它们之间的连接互动系统实现多光源条件下的自动变倍、自动聚焦和自动成像,获得多光源条件下的目标景物影像;
通过仰俯姿态单元7、航向姿态单元9、水平姿态单元8实现三维姿态测控,获得高精度的三维姿态数据;
通过测距单元1,当前可在40公里的距离内内、0.2Hz—15Hz的测距频率下获得分米级精度的距离数据。测距单元的测距指标与时俱进:与激光测距领域的技术进步同步发展同步提高;
通过对测站三维大地坐标数据、测站正北方向数据、测站指向目标的三维姿态数据、测站与目标之间的距离数据的联合解算获得目标的三维大地坐标;
通过自动获取目标点三维大地坐标、航向角自动环绕测站360°运动、仰俯角按指定范围的自动运行获得具有地形地物影像的地形图;
通过对测距单元1、仰俯姿态单元7和航向姿态单元9数据的综合处理获得任意界定范围内的三维大地坐标点阵云;
通过对目标景物影像数据和三维大地坐标点阵云的综合数据处理获得大地坐标系下目标景物的三维影像;
通过航向角自动环绕测站360°仰俯角按指定范围的自动运行的同步运动和影像自动拼接获得测位周边的三维全景图;
通过各单元协同实现动态目标图像识别与自动跟踪功能:跟踪测量机器人自动检索其存储单元中的图像库,将所获之目标图像与之比对并予识别。识别成功并确认需要则自行启动跟踪程序,进入全自动目标跟踪。无法识别或运算量过大时,跟踪测量机器人自动链接后方数据中心(见图3)启动云计算/云端库功能,后方数据中心实时完成运算后下传图像识别数据,跟踪测量机器人据此确认需要、进入(或退出)全自动目标跟踪;
通过第一离合器7.1完成仰俯角测控的全自动/半自动切换,通过第二离合器9.1完成航向 角测控的全自动/半自动切换。
为便于实施参考起见,以下对主要功能实现进行介绍:
1、在测站周边40公里半径范围内、天文望远镜成像单元5通视目标景物条件下,基于物方遥感影像的目标点三维大地坐标高精度遥测。
1)自动放大目标点影像,精准确定测量目标
在搜索成像单元3获取的大视场实景影像中点击选取的目标点,中央处理器12以目标点为新的分划中心,换算出三维姿态系统的运动数据并向仰俯姿态单元7和航向仰俯姿态单元9发出运动指令。仰俯姿态单元7和航向姿态单元9按照姿态控制方法方法以小于等于0.1角秒的精度将横轴10和竖轴11转动到位,使轴线L指向目标点。天文望远镜成像单元5获取影像。中央处理器12在天文望远镜成像单元5获取的高倍光学放大后的目标点实景影像上自动数码变焦再放大(数码变焦放大倍数是根据CCD和触摸屏的分辨率标定的常数),获得光学/数码两级放大后的目标点清晰影像,在其中选择测量目标。
2)自动精确瞄准测量目标
在光学/数码两级放大后的目标点清晰影像中点击选定的测量目标,中央处理器12以测量目标为新的分划中心,根据测量目标在两级放大后的目标点清晰影像中的位置算出三维姿态系统的运动数据并向仰俯姿态单元7和航向姿态单元9发出运动指令。仰俯姿态单元7和航向姿态单元9以小于等于0.1角秒的精度将横轴10和竖轴11转动到位,使轴线L指向测量目标,完成对测量目标的精确瞄准。
3)对测量目标三维大地坐标的遥测
中央处理器12根据测站常量数据【确定测站时获取的数据:全球定位单元15提供的测站三维大地坐标、通过自动精确瞄准另一已知大地坐标点方法或陀螺仪等方法获取的测站正北方向数据、水平姿态单元8提供的水平姿态数据。下同。】、仰俯姿态单元7和航向姿态单元9提供的瞄准测量目标的仰俯、航向姿态数据、测距单元1提供的测站至测量目标的距离数据计算得到测量目标的三维大地坐标。
2、对任意移动目标的半自动跟踪测量——基于实时三维大地坐标和实时视频的移动目标跟踪测量,过程与实现方法。
1)进入半自动跟踪测量工作模式
在人机交互单元13的触摸屏上点击跟踪模式选项,中央处理器12协调各相关单元同步工作:按自动成像方法连续获取目标影像,以每秒钟25-30帧的速率在人机交互单元13的触摸屏上连续播放;断开第一离合器7.1、第二离合器9.1,进入手动操控;开启测距单元1。
2)实时跟踪测量
操作员以目视人机交互单元13的触摸屏、手动调整航向角和仰俯角的方式跟踪移动目标,航向姿态单元9和仰俯姿态单元7同步向中央处理器12提供瞄准移动目标的实时姿态数据;测距单元1连续自动测距,同步向中央处理器12提供测站与移动目标之间的实时距离;中央处理器12根据测站常量数据和目标变量数据【不同目标的姿态数据和距离数据、同一目标随时空变化而变化的姿态数据和距离数据,下同。】解算出移动目标的实时三维大地坐标。
3)同步数据传输:中央处理器12通过通信单元16向后方数据中心或其它需要获知信息的设备同步传输移动目标的实时视频和实时三维大地坐标。
3、对特定目标的全自动跟踪测量——基于实时三维大地坐标和实时视频的移动目标跟踪测量。
1)搜索成像单元3循环扫描搜索范围
输入搜索范围后,中央处理器12协调相关工作单元同步工作:在存储单元14的任务与变倍参数库中领取与扫描搜索任务对应的变倍参数Pi,通过变焦镜组3.7将搜索成像单元3的放大倍数固定在Pi位置;闭合第一离合器7.1、第二离合器9.1,仰俯姿态单元7和航向姿态单元9带动测距单元1、红外激光光源2、搜索成像单元3、天文望远镜成像单元5连续运动,循环覆盖搜索范围;红外激光光源2、搜索成像单元3、图像处理单元4按自动成像方法,在搜索范围内连续获取野外实景影像。
2)获取目标搜索数据
搜索成像单元3提供以搜索范围为界的全局影像数据,天文望远镜成像单元5提供全局影像中每幅以其视场为界的单幅影像的分划中心附近的局部影像详细数据。
3)获取待识别目标影像
存储单元14中事先保存了包括多立面影像和各种识别特征在内的特定目标数据库。在图像识别单元17上运行图像识别程序。
目标搜索(挖掘特定目标的轮廓特征数据):通过比对搜索成像单元3提供的全局影像数据和特定目标的轮廓特征数据的方法在全局影像数据中挖掘特定目标的轮廓特征数据。将在全局影像中发现的与特定目标的轮廓特征数据符合度较高(按事先标定的符合度系数确定)的对象定义为待识别目标。
获取待识别目标影像:中央处理器12根据待识别目标在全局影像中的位置换算出瞄准该位置的三维姿态运动数据,据此向仰俯姿态单元7和航向姿态单元9发出运动指令。仰俯姿态单元7和航向姿态单元9按照姿态控制方法以小于等于0.1角秒的精度将横轴10和竖轴11 转动到位,使轴线L瞄准待识别目标,天文望远镜成像单元5获取待识别目标影像。
4)目标识别(挖掘特定目标的详细特征数据)
通过比对天文望远镜成像单元5提供的待识别目标影像数据和特定目标的详细特征数据的方法,获取符合度系数。图像识别单元17将与特定目标的详细特征数据符合度较高的对象定义为瞄准对象。
当图像识别单元17不能在规定时间内完成识别任务确定瞄准对象时,中央处理器12通过通信单元16自动连接后方数据中心(参见图3)启动云计算和云端库完成识别运算。
5)跟踪瞄准
中央处理器12以图像识别单元17提供的瞄准对象为跟踪瞄准对象,指令仰俯姿态单元7和航向姿态单元9带动红外激光光源2、搜索成像单元3和天文望远镜成像单元5连续运动,使跟踪瞄准对象的影像始终保持在野外实景影像中的分划中心位置,这就使天文望远镜成像单元5和搜索成像单元3的光轴始终保持瞄准特定目标。仰俯姿态单元7和航向姿态单元9同步向中央处理器12反馈姿态数据。
在动态跟踪瞄准的全过程中,搜索成像单元3以每秒钟25-30帧的速率向中央处理器12提供包括特定目标方位、环境在内的周边影像数据;天文望远镜成像单元5以每秒钟25-30帧的速率向中央处理器12提供特定目标的详细影像数据。
6)跟踪测距
测距单元1对轴线L瞄准的目标连续测距并同步向中央处理器12提供距离数据。
7)跟踪测量
中央处理器12根据测站常量数据和目标变量数据解算出运动中的特定目标的实时三维大地坐标。
8)航迹推算与再搜索
航迹推算:在设定的时间段内,中央处理器12按其CPU时间记录保存特定目标在每一时刻的三维大地坐标数据和周边影像数据,据此推算特定目标下一时间可能出现的空间位置,得到航迹推算函数。航迹推算函数是按时间分段的分段函数,其中每一段函数的值域均由特定目标在前一时间段内已知的时空变化决定。
再搜索:若搜索成像单元3在跟踪特定目标的过程中失锁,则中央处理器12根据航迹推算函数推算其下一时间可能出现的空间位置,据此划定目标再搜索范围并循环搜索,通过仰俯姿态单元7和航向姿态单元9使轴线L逐次瞄准这些空间位置,等待特定目标的再次出现。
9)同步数据传输
中央处理器12通过通信单元16向后方数据中心或其它需要获知信息的设备同步传输特定目标的实时影像和实时三维大地坐标。
4、在测站周边40公里半径范围内、天文望远镜成像单元5通视目标景物条件下,跟踪测量机器人全天候自动生成基于野外实景影像的地形图。
跟踪测量机器人按照自动成像方法,在白视、夜视、中轻度雾霾条件下自主获得二维野外实景影像,它的每一个像素点都唯一对应了野外实地中的一个三维大地坐标点。
1)在单幅野外实景影像中自动确定第一个起始点
中央处理器12通过当前摄取的野外实景影像得到航向角和仰俯角的起始终止位置与运动范围并指令三维姿态系统将航向角和仰俯角运动到起始位置,瞄准第一个起始点K0。测距单元1对第一个起始点K0测距,中央处理器12通过测站常量数据和目标变量数据计算得到K0的三维大地坐标(X0,Y0,H0)。
2)在单幅野外实景影像上自动绘制等高线
从第一个起始点(X0,Y0,H0)开始,中央处理器12指令航向姿态单元9使航向角转过a1角秒,中央处理器12以符合第一个起始点的高程值H0为计算目标,计算得到仰俯角值b1并通过仰俯姿态单元7将仰俯角转过b1角秒,获得并瞄准新目标,测距单元1测量得到测站至新目标的距离。中央处理器12据此获得新目标的三维大地坐标(X1,Y1,H0)。重复上述过程获得一系列三维大地坐标点(Xn,Yn,H0),n=1,2,3,.........,N,N为点数,连接所述各点即得等高线L1。
3)在单幅野外实景影像上自动生成地形图
在L1的终点(XN,YN,H0),仰俯姿态单元7按设定的等高线密度将仰俯角调整到新的位置,得到第二个起始点K1,中央处理器12按照确定第一个起始点的方法得到第二个起始点K1的三维大地坐标(XN,YN,H1)。从第二个起始点K1开始,按照所述之绘制等高线方法得到等高线L2,依次类推获得以设定的密度覆盖野外实景影像的等高线族{Li,i=1,2,3,.........,I},I为线数,得到基于野外实景影像的地形图。
4)360°全景野外实景影像的无重叠拼接
a.用高精度姿态测控保证两幅相邻图像中景物无重叠且自然连续:
按航向角完成环绕测站360°的第一轮二维野外实景影像拍摄:中央处理器12按照与功能对应的标定参数设定变焦镜组3.7的放大倍数。遥感遥测系统在定倍条件下按照白视、夜视、雾霾条件下对目标景物的自动成像方法获得第一幅二维野外实景影像;中央处理器12根据摄取第一幅二维野外实景影像的姿态数据算出摄取第二幅二维野外实景影像的航向角位置,并 指令航向姿态单元9将航向角转动到位。航向姿态单元9以0.1角秒的精度完成指令,测量机按照上述方法获得第二幅二维野外实景影像;如此循环直到获得最后一幅影像。若最后一幅影像与第一幅影像发生重叠,则中央处理器12裁剪最后一幅影像中超出360°航向角的部分,获得环绕测站360°的二维野外实景影像。上述过程中,每两幅影像之间的拼接误差为0.1角秒,小于一个像素。
变换仰俯角完成环绕测站360°的全景二维野外实景影像拍摄:若第一幅二维野外实景影像的仰俯角不小于设定的仰俯角工作范围,则第一轮二维野外实景影像已经覆盖全景,拍摄任务完成。否则,中央处理器12指令仰俯姿态单元7将仰俯角调整至与第一轮二维野外实景影像相联接的第二轮影像拍摄的起始位置,测量机按照所述之按航向角完成环绕测站360°的第一轮二维野外实景影像拍摄方法完成第二轮拍摄,如此循环直到获得环绕测站360°的全景二维野外实景影像。上述过程中,每两轮影像之间的拼接误差为0.1角秒,小于一个像素。
b.控制图像的边缘畸变:
选择参数合适的第一双滤光片结构CCD模块3.10、第二双滤光片结构CCD模块5.9,使标定后的摄像头所拍摄图像的边缘畸变小于1%。
c.对相邻图像进行色彩均衡处理。
d.排列缩放图像数据,得到环绕测站360°的全景二维野外实景影像。
5)在360°全景野外实景影像上自动生成地形图
中央处理器12指令航向姿态单元9进行360°的连续运动,按照所述之单幅野外实景影像上自动生成等高线和地形图的方法,在环绕测站360°的全景二维野外实景影像上自动生成地形图。
5、在测站周边40公里半径范围内、天文望远镜成像单元5通视目标景物条件下,在二维野外实景影像内自动生成任意形状、任意幅面大小的三维野外实景影像的过程和实现方法。
1)任意界定工作范围
使用触摸画线(或点击屏幕)方法,在人机交互单元13的触摸屏显示的二维野外实景影像上勾勒任意形状的闭合曲线(或闭合折线)C,中央处理器12将C所包围的区域M界定为工作范围。仰俯姿态单元7和航向姿态单元9按中央处理器12的指令将其运动起止点位置全部落在闭合曲线(或闭合折线)C上。仰俯姿态单元7和航向姿态单元9连续转过以区域M的边界为起止点的仰俯、航向角度使得工作范围正好覆盖了区域M。
2)在任意界定的工作范围内自动生成三维大地坐标点阵云
按照设定的密度,测距单元1、仰俯姿态单元7和航向姿态单元9在界定的工作范围内 同步工作,连续向中央处理器12提供目标变量数据。中央处理器12根据测站常量数据和目标变量数据连续解算,在任意界定的工作范围内获得三维大地坐标点阵云。
3)自动生成三维野外实景影像
中央处理器12运行包括非线性K最近邻点算法在内的数据挖掘程序,在所述二维野外实景影像中利用已知的三维大地坐标点阵云向无三维大地坐标的点推算三维大地坐标,获得三维野外实景影像。它是野外实景三维可视化的可量测影像。
五.跟踪测量机器人系统特点
基于以上技术方案,本发明实施例所提供的跟踪测量机器人可以为空间测量领域带来多方面的改进效果,为便于理解本发明技术效果起见,提供本发明实施例的工作方式特点说明如下。
1、将地理信息产业核心需求与相关应用融为一体统一解决:
自动同步获得目标三维大地坐标和目标影像、自动获得具有实地影像的地形图、自动获得大地坐标系下的三维影像;通过多系统一体化和数据融合产生涌现性,通过涌现性衍生大量用户功能,用新方法本质改进工作质量、广泛扩展地理信息产业类应用及其延伸领域应用。
2、自主适应工作环境,全天候工作:
自主实现全天候工作,在完全无光的夜晚、白天、轻度和中度雾霾的各种条件下自动获取目标景物影像并在其屏幕上清晰成像。快捷、准确、毋需人工介入。
3、自动精确瞄准,改变现行的人工瞄准工作方式,极大提高瞄准精度和效率:
摒弃基于望远镜的人工瞄准工作方式。在跟踪测量机器人的触摸屏上点击目标点,自主测绘机自动实现对目标点细部的光学、电子两级放大。再次点击两级放大后的目标点细部,自主测绘机以0.1角秒的精度自动瞄准目标。高效、准确。
4、自动遥测获取目标点的三维大地坐标,改变常规测量方式提高测量精度和工作效率、降低劳动成本和劳动强度:
点击屏幕上的任意点,自主测绘机自动瞄准、自动在1-5秒钟内获取/存储/显示该目标点在大地坐标系下的三维坐标。毋需合作目标、毋需人工瞄准、毋需人工跋涉到目标点上去架设仪器,直接遥测获取其视场及测距范围内任意目标点的三维大地坐标。测量精度和效率高于现行常规测量方式,劳动成本和劳动强度远低于现行常规测量方式。
5、将物方三维大地坐标与物方影像融为一体,同步获取:
全自动地快速同步获取目标点的三维大地坐标和以该目标点为中心的目标点周边地物影像。
6、自主生成大地坐标系下的三维物方影像:
可在其获取的任何物方影像中自动生成大地坐标系下的三维坐标点阵云,密度可调。实现便携式单机的空间测量野外作业。
7、自主生成大地坐标系下的全景影像:
自动生成带有物方三维大地坐标的360°全景物方影像:多幅连续影像(视场可调且每幅影像的中心点带有物方三维大地坐标)的自动拼接、自动成像。实现便携式单机的空间测量野外作业。
8、野外测区布局:
在航空航天遥感影像或地形图上显示、规划已测/未测区域,进行野外测站位置布局。
9、自动生成等高线,自动生成带有实地影像的地形图:
根据测位布局完成野外各测位上的测量工作,自动拼接、实时成图。
10、多网融合通信,内业、外业一体化。
11、高精度的姿态测控:
航向角测控误差:小于等于0.1″;仰俯角测控误差:小于等于0.1″。
12、高精度的物方三维大地坐标:
将影响物方三维大地坐标测量精度的主要误差源考虑为测站定位误差、测站找北误差、姿态测量误差、成像误差、瞄准误差、距离测量误差的前提下,跟踪测量机器人具有很高的测量精度。
测站定位误差:现有的差分定位技术可在1分钟内达到厘米级定位精度,30分钟内达到mm级的定位精度;
跟踪测量机器人姿态测量误差:航向角测控误差小于等于0.1″、仰俯角测控误差小于等于0.1″;
跟踪测量机器人的成像清晰度:按照自动成像方法和自动放大目标方法,可获得高清晰度的目标点影像;
跟踪测量机器人的瞄准误差:按照自动成像方法和自动精确瞄准方法,可获得前所未有的瞄准精度;
测站找北误差:跟踪测量机器人,在全球定位单元15和已知大地坐标点定位精度达到mm级且两者间距离大于500米时,三维姿态系统的姿态测量精度、遥感遥测系统的遥感成像清晰度和自动瞄准精度保证了采用定位找北方法的测站找北误差小于等于5″。
距离测量误差:无合作目标条件下,测距小于等于40,000m时,测距单元1测量误差 分米级,这是最大的误差源。
综上所述,跟踪测量机器人在距离目标40公里时,遥测测量目标点三维大地坐标的精度可达亚米级。
13、野外独立测成图系统:
无需借助任何底图,独立完成基于野外实景影像的野外地形图和野外三维实景影像测量。在作业流程上形成了摄影测量的闭环控制,大地坐标系下的空间坐标数据与包含丰富属性信息的立体影像同时获得,外业与内业一体化,高效率高精度。
14、野外实景三维可视化的数据成果:
它以面状的方式采集大地坐标系下的野外地理空间数据,其数据成果是连续拍摄的实景可量测影像。
…,等等。
可见,本发明提供的跟踪测量机器人是光机电一体化的复杂系统(具有涌现性的系统),由多系统一体化构成。
多系统系指如下14个系统:
1、光机电一体化的具有高于0.1角秒分辨率的编码器系统;
2、光机电一体化的具有0.1角秒精度的全自动姿态测控系统;
3、全自动的快速变焦系统、聚焦系统;
4、全自动的光电转换与成像系统;
5、全自动的三维影像(大地坐标下)成像系统;
6、环境自适应与自主选择光源系统;
7、白光/红外激光自动切换、联动调焦、自动成像系统;
8、包含多种DSP在内的多核多接口高速嵌入式系统;
9、北斗、GPS、GLONASS接收机一体化的全球定位系统;
10、兼容多种测距方式的测距系统;
11、图像识别系统;
12、远程红外激光照明系统;
13、包括各种公网通信、自组网通信在内的多网融合通信系统;
14、承担云计算、云端库、调度、指挥、协同等项任务的后方数据中心。
多系统一体化系指:
1、基于芯片、DSP、模块的计算机硬件紧密物理结构的多系统功能一体化;
2、基于多源数据融合的计算机软件的多系统功能一体化;
3、基于光机电一体化的紧密物理结构的多系统功能一体化;
4、基于多网融合通信的内业工作与外业工作的一体化;
5、基于上述一体化的光机电一体化。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
Claims (14)
1.一种跟踪测量机器人,其特征在于:包括遥感遥测系统、三维姿态系统和中央控制与定位通信系统,
所述遥感遥测系统包括测距单元(1)、红外激光光源(2)、搜索成像单元(3)、图像处理单元(4)、天文望远镜成像单元(5)和光敏电阻(6);
所述三维姿态系统包括仰俯姿态单元(7)、横轴(10)、水平姿态单元(8)、航向姿态单元(9)和竖轴(11);横轴(10)的中轴线与竖轴(11)的中轴线相互正交且交于空间点O,横轴(10)的中轴线与竖轴(11)的中轴线所构成的平面垂直于跟踪测量机器人的底座平面;测距单元(1)的光轴、红外激光光源(2)的光轴、搜索成像单元(3)的光轴、天文望远镜成像单元(5)的光轴标定在同一轴线L上,称为四光同轴;轴线L过空间点O与横轴(10)的中轴线正交;
所述中央控制与定位通信系统包括中央处理器(12)、人机交互单元(13)、存储单元(14)、全球定位单元(15)、通信单元(16)、图像识别单元(17)、电源单元(18),中央处理器(12)与测距单元(1)、红外激光光源(2)、搜索成像单元(3)、图像处理单元(4)、天文望远镜成像单元(5)和光敏电阻(6)、仰俯姿态单元(7)、水平姿态单元(8)、航向姿态单元(9)、人机交互单元(13)、存储单元(14)、全球定位单元(15)、通信单元(16)、图像识别单元(17)、电源单元(18)分别连接。
2.根据权利要求1所述的跟踪测量机器人,其特征在于:所述三维姿态系统中,
所述仰俯姿态单元(7)包括第一离合器(7.1)、第一同步带放大器(7.2)、第一编码器(7.3)、第一蜗轮(7.4)、第一同步带轮(7.5)、第一蜗杆(7.6)、第一弹性机构(7.7)、第二蜗轮(7.8)、第二弹性机构(7.9)、第二蜗杆(7.10)和第一电机与驱动(7.11),第一电机与驱动(7.11)连接第二蜗杆(7.10),第二蜗轮(7.8)和第二蜗杆(7.10)经第二弹性机构(7.9)啮合,第二蜗轮(7.8)和第一蜗杆(7.6)经第一弹性机构(7.7)啮合,第一蜗轮(7.4)和第一蜗杆(7.6)之间经第一同步带轮(7.5)传动,第一蜗轮(7.4)和第一编码器(7.3)之间经第一同步带放大器(7.2)传动,第一蜗轮(7.4)连接第一离合器(7.1),第一离合器(7.1)闭合时连接横轴(10),中央处理器(12)和第一离合器(7.1)、第一同步带放大器(7.2)、第一编码器(7.3)、第一电机与驱动(7.11)分别连接;
设第一同步带放大器(7.2)的传动比为1:H,中央处理器(12)经第一电机与驱动(7.11)的输出在传动后在第一蜗轮(7.4)产生仰俯运动结果,仰俯运动结果由第一同步带放大器(7.2)放大H倍,放大结果传递给第一编码器(7.3)并经由第一编码器(7.3)转换为数字信号上传给中央处理器(12),中央处理器(12)将所得数据除以H倍后得到横轴(10)真实的位置到达数据;
所述航向姿态单元(9)包括第二离合器(9.1)、第二同步带放大器(9.2)、第二编码器(9.3)、第三蜗轮(9.4)、第二同步带轮(9.5)、第三蜗杆(9.6)、第三弹性机构(9.7)、第四蜗轮(9.8)、第四弹性机构(9.9)、第四蜗杆(9.10)、第二电机与驱动(9.11),第二电机与驱动(9.11)连接第四蜗杆(9.10),第四蜗轮(9.8)和第四蜗杆(9.10)经第四弹性机构(9.9)啮合,第四蜗轮(9.8)和第三蜗杆(9.6)经第三弹性机构(9.7)啮合,第三蜗轮(9.4)和第三蜗杆(9.6)之间经第二同步带轮(9.5)传动,第三蜗轮(9.4)和第二编码器(9.3)之间经第二同步带放大器(9.2)传动,第三蜗轮(9.4)连接第二离合器(9.1),第二离合器(9.1)闭合时连接竖轴(11),中央处理器(12)和第二离合器(9.1)、第二同步带放大器(9.2)、第二编码器(9.3)、第二电机与驱动(9.11)分别连接;
设第二同步带放大器(9.2)的传动比为1:Z,中央处理器(12)经第二电机与驱动(9.11)的输出在传动后在第三蜗轮(9.4)产生仰俯运动结果,仰俯运动结果由第二同步带放大器(9.2)放大Z倍,放大结果传递给第二编码器(9.3)并经由第二编码器(9.3)转换为数字信号上传给中央处理器(12),中央处理器(12)将所得数据除以Z倍后得到竖轴(11)真实的位置到达数据。
3.根据权利要求2所述的跟踪测量机器人,其特征在于:所述红外激光光源(2)包括红外激光镜头(2.1)、红外激光调焦镜(2.2)、红外激光发生器(2.3)、泵浦电源(2.4)、第一电机(2.5)、第一驱动电路(2.6)和第三编码器(2.7),红外激光镜头(2.1)、红外激光调焦镜(2.2)、红外激光发生器(2.3)、泵浦电源(2.4)依次连接,第一电机(2.5)与红外激光调焦镜(2.2)、第一驱动电路(2.6)、第三编码器(2.7)分别连接,中央处理器(12)和泵浦电源(2.4)、第一驱动电路(2.6)、第三编码器(2.7)分别连接;所述天文望远镜成像单元(5)包括第三电机(5.1)、第三驱动电路(5.2)、第五蜗轮(5.3)、第五蜗杆(5.4)、第五编码器(5.5)、第二物镜(5.6)、第二调焦镜(5.7)、第二成像镜组(5.8)和第二双滤光片结构CCD模块(5.9),第二物镜(5.6)、第二调焦镜(5.7)、第二成像镜组(5.8)和第二双滤光片结构CCD模块(5.9)依次连接,第三驱动电路(5.2)、第三电机(5.1)、第五蜗杆(5.4)、第五编码器(5.5)依次连接,第五蜗杆(5.4)与第五蜗轮(5.3)啮合,第五蜗轮(5.3)连接第二调焦镜(5.7),中央处理器(12)和第三驱动电路(5.2)、第五编码器(5.5)、第二双滤光片结构CCD模块(5.9)分别连接。
4.根据权利要求3所述的跟踪测量机器人,其特征在于:所述搜索成像单元(3)包括第二电机(3.1)、第二驱动电路(3.2)、第六蜗轮(3.3)、第六蜗杆(3.4)、第四编码器(3.5)、第一物镜(3.6)、变焦镜组(3.7)、第一调焦镜(3.8)、第一成像镜组(3.9)、第一双滤光片结构CCD模块(3.10)、第七蜗轮(3.11)、第七蜗杆(3.12)、第六编码器(3.13)、第四电机(3.14)和第四驱动电路(3.15),第一物镜(3.6)、变焦镜组(3.7)、第一调焦镜(3.8)、第一成像镜组(3.9)、第一双滤光片结构CCD模块(3.10)依次连接,第二驱动电路(3.2)、第二电机(3.1)、第六蜗杆(3.4)、第四编码器(3.5)依次连接,第六蜗杆(3.4)与第六蜗轮(3.3)啮合,第六蜗轮(3.3)连接第一调焦镜(3.8),第四驱动电路(3.15)、第四电机(3.14)、第七蜗杆(3.12)、第六编码器(3.13)依次连接,第七蜗杆(3.12)与第七蜗轮(3.11)啮合,第七蜗轮(3.11)连接变焦镜组(3.7),中央处理器(12)和第二驱动电路(3.2)、第四编码器(3.5)、第六编码器(3.13)、第四驱动电路(3.15)、第一双滤光片结构CCD模块(3.10)分别连接。
5.根据权利要求4所述的跟踪测量机器人,其特征在于:基于光敏电阻(6)进行自主成像过程,包括根据白光光通量,光敏电阻(6)发出信号控制中央处理器(12)关闭或打开泵浦电源(2.4),对应白光光源或红外激光光源;搜索成像单元(3)、天文望远镜成像单元(5)分别与图像处理单元(4)连接,成像结果由图像处理单元(4)判断图像清晰度,在白光光源下的成像结果达不到清晰度要求时,中央处理器(12)打开泵浦电源(2.4)提供红外激光光源。
6.根据权利要求5所述的跟踪测量机器人,其特征在于:所述自主成像过程的工作步骤如下,
步骤1,进行成像光源初始选择,实现如下,
在白光光通量足以使第二双滤光片结构CCD模块(5.9)白光成像时,光敏电阻(6)的信号口处于闭合状态,中央处理器(12)关闭泵浦电源(2.4),进入步骤2;白光光通量不足以第二双滤光片结构CCD模块(5.9)白光成像时,光敏电阻(6)的信号口处于常开状态,中央处理器(12)开启泵浦电源(2.4),红外激光光源(2)照射目标,搜索成像单元(3)、天文望远镜成像单元(5)接受自目标返回的红外激光,进入步骤4;
步骤2,白光光源下,对良好能见度及雾霾环境的自适应和成像光源的自主选择,实现如下,
中央处理器(12)读取变焦镜组(3.7)、第一调焦镜(3.8)的调焦标定值驱动第二电机(3.1)和第三电机(5.1)依次到达各相应标定位置,在每个相应标定位置,白光信号经由搜索成像单元(3)、天文望远镜成像单元(5)转换为数字信号后到达图像处理单元(4),图像处理单元(4)获取图像值并比较,记录使图像值最大的第二电机(3.1)位置为使来自搜索成像单元(3)的图像最清晰处,记录使图像值最大的第三电机(5.1)位置为使来自天文望远镜成像单元(5)的图像最清晰处;
中央处理器(12)对目标景物的所有图像值进行分析处理,
若图像值的最大值与最小值之差的绝对值大于预设正实数Q1,则判定测站处于良好能见度环境,进入步骤3;
若图像值的最大值与最小值之差的绝对值小于预设正实数Q1大于预设正实数Q2,则判定测站处于中度或轻度雾霾环境,进入步骤4;
若图像值的最大值与最小值之差的绝对值小于预设正实数Q2,则判定测站处于重度雾霾环境,中央处理器(12)报警,停止流程;
其中,预设正实数Q1大于预设正实数Q2;
步骤3,基于白光光源,在自动调焦后进行自动成像,
针对搜索成像单元(3)的实现如下,
自动调焦时,中央处理器(12)向第二驱动电路(3.2)发出指令,使第二电机(3.1)、第六蜗杆(3.4)转动,第四编码器(3.5)实时记录第六蜗杆(3.4)的运动状态同步反馈给中央处理器(12),中央处理器(12)算出脉冲修正值并据此发出下一指令,直到第六蜗杆(3.4)转动到设定的位置并通过第六蜗轮(3.3)完成对第一调焦镜(3.8)的焦距调整;
自动成像时,白光信号经过第一物镜(3.6)、变焦镜组(3.7)、第一调焦镜(3.8)和第一成像镜组(3.9)到达第一双滤光片结构CCD模块(3.10),第一双滤光片结构CCD模块(3.10)将白光信号转换成数字信号后到达图像处理单元(4),图像处理单元(4)得到清晰的景物图像并上传至中央处理器(12),完成基于白光光源的自动成像任务,结束流程;
针对天文望远镜成像单元(5)的实现如下,
自动调焦时,中央处理器(12)向第三驱动电路(5.2)发出指令,使第三电机(5.1)、第五蜗杆(5.4)转动,第五编码器(5.5)实时记录第五蜗杆(5.4)的运动状态同步反馈给中央处理器(12),中央处理器(12)算出脉冲修正值并据此发出下一指令,直到第五蜗杆(5.4)转动到设定的位置并通过第五蜗轮(5.3)完成对第二调焦镜(5.7)的焦距调整;
自动成像时,白光信号经过第二物镜(5.6)、第二调焦镜(5.7)和第二成像镜组(5.8)到达第二双滤光片结构CCD模块(5.9),第二双滤光片结构CCD模块(5.9)将白光信号转换成数字信号后传至图像处理单元(4),图像处理单元(4)得到清晰的景物图像并上传至中央处理器(12),完成基于白光光源的自动成像任务,结束流程;
步骤4,基于红外激光光源,在红外激光照射范围准确覆盖成像单元(3)的视场后进行自动成像,
针对搜索成像单元(3)的实现如下,
首先,中央处理器(12)同时完成两项工作,一是开启第四驱动电路(3.15),使第四电机(3.14)带动第七蜗杆(3.12)运动到Pi位置,第七蜗杆(3.12)带动涡轮(3.11)使变焦镜组(3.7)将搜索成像单元(3)的视场调整到执行第i类任务所需的大小,第六编码器(3.13)将第七蜗杆(3.12)的实际到达位置上传给中央处理器(12);二是向第一驱动电路(2.6)发出指令使第一电机(2.5)带动红外激光调焦镜(2.2)运动到Qi位置,使红外激光光源(2)的照射范围正好覆盖搜索成像单元(3)的视场;
其中,标定常数Pi是搜索成像单元(3)执行第i类任务时的视场,称为Pi成像视场i=1,2,3,.....J,J为总类数,标定常数Qi是与Pi一一对应的红外激光聚焦值,红外激光调焦镜(2.2)处于Qi位置时红外激光照射范围与Pi成像视场重合,Pi被标定后,Qi根据Pi标定;
然后,从目标景物返回的红外激光信号通过第一物镜(3.6)、变焦镜组(3.7)、第一调焦镜(3.8)、第一成像镜组(3.9)到达第一双滤光片结构CCD模块(3.10),第一双滤光片结构CCD模块(3.10)将红外激光信号转换成数字信号后传至图像处理单元(4),图像处理单元(4)得到清晰景物图像并上传至中央处理器(12),完成基于红外激光光源的自动成像任务;
针对天文望远镜成像单元(5)的实现如下,
首先,中央处理器(12)向第一驱动电路(2.6)发出指令使第一电机(2.5)带动红外激光调焦镜(2.2)运动到位置vo,红外激光光源(2)的照射范围正好覆盖天文望远镜成像单元(5)的视场;其中,vo是标定常数,按天文望远镜成像单元(5)的视场角uo标定红外激光光源(2)的相应常数vo;
然后,从目标景物返回的红外激光信号通过第二物镜(5.6)、第二调焦镜(5.7)、第二成像镜组(5.8)到达第二双滤光片结构CCD模块(5.9)。第二双滤光片结构CCD模块(5.9)将红外激光信号转换成数字信号并将数字信号后传至图像处理单元(4),图像处理单元(4)得到清晰景物图像并上传至中央处理器(12),完成基于红外激光光源的自动成像任务。
7.根据权利要求6所述的跟踪测量机器人,其特征在于:在天文望远镜成像单元(5)通视目标景物条件下,进行基于物方遥感影像的目标点三维大地坐标遥测,步骤如下,
1)精准确定测量目标,实现如下,
当用户通过在人机交互单元(13)的触摸屏在搜索成像单元(3)获取的大视场实景影像中点击选取的目标点时,中央处理器(12)以目标点为新的分划中心,向仰俯姿态单元(7)和航向姿态单元(9)发出运动指令,将横轴(10)和竖轴(11)转动到位,使轴线L指向目标点;天文望远镜成像单元(5)获取影像;中央处理器(12)在天文望远镜成像单元(5)获取的高倍光学放大后的目标点实景影像上进行数码变焦再放大,获得光学和数码两级放大后的目标点清晰影像;
2)精确瞄准测量目标,实现如下,
当用户通过在人机交互单元(13)的触摸屏在光学和数码两级放大后的目标点清晰影像中点击选定的测量目标时,中央处理器(12)以测量目标为新的分划中心,根据测量目标位置向仰俯姿态单元(7)和航向姿态单元(9)发出运动指令,将横轴(10)和竖轴(11)转动到位,使轴线L指向测量目标,完成对测量目标的精确瞄准;
3)对测量目标三维大地坐标的遥测,实现如下,
中央处理器(12)根据测站常量数据及仰俯姿态单元(7)和航向姿态单元(9)提供的瞄准测量目标的仰俯、航向姿态数据,测距单元(1)提供的测站至测量目标的距离数据计算得到测量目标的三维大地坐标。
8.根据权利要求7所述的跟踪测量机器人,其特征在于:基于实时三维大地坐标和实时视频,断开第一离合器(7.1)、第二离合器(9.1),对任意移动目标进行半自动跟踪测量;或者闭合第一离合器(7.1)、第二离合器(9.1),对特定移动目标进行自动跟踪测量。
9.根据权利要求8所述的跟踪测量机器人,其特征在于:基于实时三维大地坐标和实时视频,对任意移动目标的半自动跟踪测量的步骤如下,
1)进入半自动跟踪测量工作模式,实现方式如下,
基于自动成像方法连续获取目标影像,在人机交互单元(13)的触摸屏上连续播放,断开第一离合器(7.1)、第二离合器(9.1),进入支持手动操控的半自动跟踪测量工作模式,开启测距单元(1);
2)实时跟踪测量,实现方式如下,
当用户以目视人机交互单元(13)的触摸屏、手动调整航向角和仰俯角的方式跟踪移动目标时,航向姿态单元(9)和仰俯姿态单元(7)同步向中央处理器(12)提供瞄准移动目标的实时姿态数据;测距单元(1)连续自动测距,同步向中央处理器(12)提供测站与移动目标之间的实时距离;中央处理器(12)根据测站常量数据和目标变量数据解算出移动目标的实时三维大地坐标;
3)同步数据传输,由中央处理器(12)通过通信单元(16)远程传输移动目标的实时视频和实时三维大地坐标。
10.根据权利要求8所述的跟踪测量机器人,其特征在于:基于实时三维大地坐标和实时视频,对特定移动目标的全自动跟踪测量的步骤如下,
1)搜索成像单元(3)循环扫描搜索范围,实现方式如下,
输入搜索范围后,中央处理器(12)协调相关工作单元同步工作,包括取与扫描搜索任务对应的变倍参数Pi,通过变焦镜组(3.7)将搜索成像单元(3)的放大倍数固定在Pi位置;闭合第一离合器(7.1)、第二离合器(9.1),仰俯姿态单元(7)和航向姿态单元(9)带动测距单元(1)、红外激光光源(2)、搜索成像单元(3)、天文望远镜成像单元(5)连续运动,循环覆盖搜索范围;根据自动成像过程,在搜索范围内连续获取野外实景影像;
2)获取目标搜索数据,实现方式如下,
搜索成像单元(3)提供以搜索范围为界的全局影像数据,天文望远镜成像单元(5)提供全局影像中每幅以其视场为界的单幅影像的分划中心附近的局部影像详细数据;
3)获取待识别目标影像,实现方式如下,
图像识别单元(17)比对搜索成像单元(3)提供的全局影像数据,得到待识别目标,中央处理器(12)根据待识别目标在全局影像中的位置向仰俯姿态单元(7)和航向姿态单元(9)发出运动指令,将横轴(10)和竖轴(11)转动到位,使轴线L瞄准待识别目标,天文望远镜成像单元(5)获取待识别目标影像;
4)目标识别,包括由图像识别单元(17)比对天文望远镜成像单元(5)提供的待识别目标影像数据和特定目标的详细特征数据,识别瞄准对象;
5)跟踪瞄准,实现方式如下,
中央处理器(12)以图像识别单元(17)提供的瞄准对象为跟踪瞄准对象,指令仰俯姿态单元(7)和航向姿态单元(9)带动红外激光光源(2)、搜索成像单元(3)和天文望远镜成像单元(5)连续运动,使跟踪瞄准对象的影像始终保持在野外实景影像中的分划中心位置;仰俯姿态单元(7)和航向姿态单元(9)同步向中央处理器(12)反馈姿态数据;
同时,搜索成像单元(3)以向中央处理器(12)提供包括特定目标方位、环境在内的周边影像数据;天文望远镜成像单元(5)向中央处理器(12)提供特定目标的详细影像数据;
6)跟踪测距,包括由测距单元(1)对轴线L瞄准的目标连续测距并同步向中央处理器(12)提供距离数据;
7)跟踪测量,包括由中央处理器(12)根据测站常量数据和目标变量数据解算出运动中的特定目标的实时三维大地坐标;
8)航迹推算与再搜索,实现方式如下,
包括在设定的时间段内,中央处理器(12)按特定目标在所保存每一时刻的三维大地坐标数据和周边影像数据,得到航迹推算函数;若搜索成像单元(3)在跟踪特定目标的过程中失锁,则中央处理器(12)根据航迹推算函数推算其下一时间可能出现的空间位置,据此划定目标再搜索范围并循环搜索,通过仰俯姿态单元(7)和航向姿态单元(9)使轴线L逐次瞄准这些空间位置,等待特定目标的再次出现;
9)同步数据传输,实现方式如下,
中央处理器(12)通过通信单元(16)远程传输特定目标的实时影像和实时三维大地坐标。
11.根据权利要求7所述的跟踪测量机器人,其特征在于:在天文望远镜成像单元(5)通视目标景物条件下,进行全天候自动生成基于野外实景影像的地形图,步骤如下,
1)在单幅野外实景影像中确定第一个起始点,实现方式如下,
中央处理器(12)通过当前摄取的野外实景影像得到航向角和仰俯角的起始终止位置与运动范围并指令三维姿态系统将航向角和仰俯角运动到起始位置,瞄准第一个起始点K0;测距单元(1)对第一个起始点K0测距,中央处理器(12)通过测站常量数据和目标变量数据计算得到K0的三维大地坐标(X0,Y0,H0);
2)在单幅野外实景影像上自动绘制等高线,实现方式如下,
从第一个起始点(X0,Y0,H0)开始,中央处理器(12)根据第一个起始点的高程值H0指令航向姿态单元(9)和仰俯姿态单元(7)运动,获得高程值H0处一系列三维大地坐标点,连接所述各点得到等高线L1;
3)在单幅野外实景影像上自动生成地形图,实现方式如下,
依次类推获得以设定的密度覆盖野外实景影像的等高线族,得到基于野外实景影像的地形图。
12.根据权利要求11所述的跟踪测量机器人,其特征在于:进行360°全景野外实景影像的无重叠拼接,包括变换航向角和仰俯角,进行二维野外实景影像遍历拍摄,排列构成环绕测站360°的全景二维野外实景影像并生成等高线和地形图。
13.根据权利要求11所述的跟踪测量机器人,其特征在于:在天文望远镜成像单元(5)通视目标景物条件下,在二维野外实景影像内自动生成任意形状、任意幅面大小的三维野外实景影像,步骤如下,
1)任意界定工作范围,实现方式如下,
当用户在人机交互单元(13)的触摸屏显示的二维野外实景影像上勾勒任意形状的闭合曲线C,中央处理器(12)将C所包围的区域M界定为工作范围;仰俯姿态单元(7)和航向姿态单元(9)按中央处理器(12)的指令将运动起止点位置全部落在闭合曲线C上;
2)在任意界定的工作范围内自动生成三维大地坐标点阵云,实现方式如下,
按照设定的密度,测距单元(1)、仰俯姿态单元(7)和航向姿态单元(9)在界定的工作范围内同步工作,连续向中央处理器(12)提供目标变量数据,中央处理器(12)根据测站常量数据和目标变量数据连续解算,在任意界定的工作范围内获得三维大地坐标点阵云;
3)自动生成三维野外实景影像,实现方式如下,
中央处理器(12)在所述二维野外实景影像中,利用已知的三维大地坐标点阵云向无三维大地坐标的点推算三维大地坐标,获得三维野外实景影像。
14.根据权利要求3所述的跟踪测量机器人,其特征在于:所述搜索成像单元(3)包括第二电机(3.1)、第二驱动电路(3.2)、第六蜗轮(3.3)、第六蜗杆(3.4)、第四编码器(3.5)、第一物镜(3.6)、第一调焦镜(3.8)、第一成像镜组(3.9)、第一双滤光片结构CCD模块(3.10),第一物镜(3.6)、第一调焦镜(3.8)、第一成像镜组(3.9)、第一双滤光片结构CCD模块(3.10)依次连接,第二驱动电路(3.2)、第二电机(3.1)、第六蜗杆(3.4)、第四编码器(3.5)依次连接,第六蜗杆(3.4)与第六蜗轮(3.3)啮合,第六蜗轮(3.3)连接第一调焦镜(3.8),中央处理器(12)和第二驱动电路(3.2)、第四编码器(3.5)、第一双滤光片结构CCD模块(3.10)分别连接。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410114680.XA CN103885455B (zh) | 2014-03-25 | 2014-03-25 | 跟踪测量机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410114680.XA CN103885455B (zh) | 2014-03-25 | 2014-03-25 | 跟踪测量机器人 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103885455A true CN103885455A (zh) | 2014-06-25 |
CN103885455B CN103885455B (zh) | 2015-03-25 |
Family
ID=50954402
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410114680.XA Active CN103885455B (zh) | 2014-03-25 | 2014-03-25 | 跟踪测量机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103885455B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104822019A (zh) * | 2015-03-31 | 2015-08-05 | 深圳市莫孚康技术有限公司 | 计算摄影机视场角的方法 |
CN105141828A (zh) * | 2015-07-08 | 2015-12-09 | 成都西可科技有限公司 | 一种运动相机锁定场景后自动调整视角进行录制的方法 |
CN106042001A (zh) * | 2016-06-04 | 2016-10-26 | 上海大学 | 机器人末端空间位置测量装置 |
CN106525007A (zh) * | 2016-11-01 | 2017-03-22 | 许凯华 | 分布交互式测绘通用机器人 |
CN106595608A (zh) * | 2016-11-01 | 2017-04-26 | 许凯华 | 分布交互通用测绘仪 |
CN108839018A (zh) * | 2018-06-25 | 2018-11-20 | 盐城工学院 | 一种机器人控制操作方法及装置 |
CN109932707A (zh) * | 2019-04-22 | 2019-06-25 | 重庆市勘测院 | 顾及雷达结构的移动测量系统标定方法 |
CN111174765A (zh) * | 2020-02-24 | 2020-05-19 | 北京航天飞行控制中心 | 基于视觉引导的行星车目标探测控制方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002035183A1 (en) * | 2000-07-28 | 2002-05-02 | Litton Systems, Inc. | Attitude alignment of a slave inertial measurement system |
CN101858743A (zh) * | 2010-06-04 | 2010-10-13 | 西安天和防务技术股份有限公司 | 基于大视场摄像及图像处理的测距装置及其方法 |
CN101858744A (zh) * | 2010-06-03 | 2010-10-13 | 唐粮 | 一种全景数码成像系统 |
CN102072725A (zh) * | 2010-12-16 | 2011-05-25 | 唐粮 | 一种基于激光点云和实景影像进行空间三维测量的方法 |
-
2014
- 2014-03-25 CN CN201410114680.XA patent/CN103885455B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002035183A1 (en) * | 2000-07-28 | 2002-05-02 | Litton Systems, Inc. | Attitude alignment of a slave inertial measurement system |
CN101858744A (zh) * | 2010-06-03 | 2010-10-13 | 唐粮 | 一种全景数码成像系统 |
CN101858743A (zh) * | 2010-06-04 | 2010-10-13 | 西安天和防务技术股份有限公司 | 基于大视场摄像及图像处理的测距装置及其方法 |
CN102072725A (zh) * | 2010-12-16 | 2011-05-25 | 唐粮 | 一种基于激光点云和实景影像进行空间三维测量的方法 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104822019B (zh) * | 2015-03-31 | 2019-02-26 | 深圳市莫孚康技术有限公司 | 计算摄影机视场角的方法 |
CN104822019A (zh) * | 2015-03-31 | 2015-08-05 | 深圳市莫孚康技术有限公司 | 计算摄影机视场角的方法 |
CN105141828A (zh) * | 2015-07-08 | 2015-12-09 | 成都西可科技有限公司 | 一种运动相机锁定场景后自动调整视角进行录制的方法 |
CN106042001A (zh) * | 2016-06-04 | 2016-10-26 | 上海大学 | 机器人末端空间位置测量装置 |
CN106042001B (zh) * | 2016-06-04 | 2018-12-07 | 上海大学 | 机器人末端空间位置测量装置 |
CN106525007A (zh) * | 2016-11-01 | 2017-03-22 | 许凯华 | 分布交互式测绘通用机器人 |
CN106595608A (zh) * | 2016-11-01 | 2017-04-26 | 许凯华 | 分布交互通用测绘仪 |
CN106595608B (zh) * | 2016-11-01 | 2018-06-29 | 许凯华 | 分布交互通用测绘仪 |
CN108839018A (zh) * | 2018-06-25 | 2018-11-20 | 盐城工学院 | 一种机器人控制操作方法及装置 |
CN109932707A (zh) * | 2019-04-22 | 2019-06-25 | 重庆市勘测院 | 顾及雷达结构的移动测量系统标定方法 |
CN109932707B (zh) * | 2019-04-22 | 2023-03-10 | 重庆市勘测院 | 顾及雷达结构的移动测量系统标定方法 |
CN111174765A (zh) * | 2020-02-24 | 2020-05-19 | 北京航天飞行控制中心 | 基于视觉引导的行星车目标探测控制方法及装置 |
CN111174765B (zh) * | 2020-02-24 | 2021-08-13 | 北京航天飞行控制中心 | 基于视觉引导的行星车目标探测控制方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN103885455B (zh) | 2015-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103885455B (zh) | 跟踪测量机器人 | |
CN103837143B (zh) | 一种超视瞄准测绘机 | |
US20240053477A1 (en) | System and method for measuring image distance of power transmission lines with unmanned aerial vehicle (uav) | |
Nagai et al. | UAV-borne 3-D mapping system by multisensor integration | |
CN111077535B (zh) | 一种激光雷达数据采集系统及数据处理方法 | |
CN105606077B (zh) | 大地测量系统 | |
CN102072725B (zh) | 一种基于激光点云和实景影像进行空间三维测量的方法 | |
CN103868504B (zh) | 自主测绘机 | |
CN109737981B (zh) | 基于多传感器的无人车目标搜索装置及方法 | |
CN104964673A (zh) | 一种可定位定姿的近景摄影测量系统和测量方法 | |
CN113012292B (zh) | 一种基于无人机航拍的ar远程施工监控方法及系统 | |
CN103837138B (zh) | 精密摄影测量机器人 | |
CN106525007B (zh) | 分布交互式测绘通用机器人 | |
CN104913766A (zh) | 一种激光扫描测量方法及装置 | |
CN113340277B (zh) | 一种基于无人机倾斜摄影的高精度定位方法 | |
JP2007107962A (ja) | 測定対象物計測システム、及び送電線下離隔計測システム | |
CN104729482A (zh) | 一种基于飞艇的地面微小目标侦测系统及方法 | |
CN115937446A (zh) | 基于ar技术的地形测绘装置及方法 | |
CN114371725A (zh) | 一种适合于风电机组自动化巡检的系统 | |
CN103217188A (zh) | 遥感遥测手持机 | |
CN117782007A (zh) | 地面沉降高精度无人机近景摄影测量装置及测量方法 | |
CN202453010U (zh) | 遥感遥测手持机 | |
CN108195359A (zh) | 空间数据的采集方法及系统 | |
CN203772276U (zh) | 自主测绘机 | |
CN115752468A (zh) | 一种基于手眼协调的无人机避障方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20170724 Address after: 223800 Suqian City, Jiangsu Province Economic Development Zone Industrial Park Sucheng laser creating factory Patentee after: Jiangsu, such as the earth space Mdt InfoTech Ltd Address before: 430079, No. 34-6, Shandong village, GUI Zi village, Hongshan District, Hubei, Wuhan Patentee before: Xu Kaihua |