CN113325844A - 一种辅助自主定位导航ar教学演示的障碍物位置识别方法 - Google Patents
一种辅助自主定位导航ar教学演示的障碍物位置识别方法 Download PDFInfo
- Publication number
- CN113325844A CN113325844A CN202110584558.9A CN202110584558A CN113325844A CN 113325844 A CN113325844 A CN 113325844A CN 202110584558 A CN202110584558 A CN 202110584558A CN 113325844 A CN113325844 A CN 113325844A
- Authority
- CN
- China
- Prior art keywords
- unit
- mobile robot
- real
- navigation
- end point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 19
- 238000012545 processing Methods 0.000 claims abstract description 35
- 230000004888 barrier function Effects 0.000 claims abstract description 7
- 230000016776 visual perception Effects 0.000 claims description 12
- 230000003068 static effect Effects 0.000 claims description 10
- 230000003993 interaction Effects 0.000 claims description 8
- 238000009434 installation Methods 0.000 claims description 4
- 238000007499 fusion processing Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 11
- 230000002452 interceptive effect Effects 0.000 abstract description 4
- 230000009286 beneficial effect Effects 0.000 abstract description 2
- 230000010354 integration Effects 0.000 abstract description 2
- 230000001737 promoting effect Effects 0.000 abstract description 2
- 230000001105 regulatory effect Effects 0.000 description 28
- 238000013473 artificial intelligence Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000003750 conditioning effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0234—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
- G05D1/0236—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明提供了一种辅助自主定位导航AR教学演示的障碍物位置识别方法,包括以下步骤:S1、移动机器人单元通过激光传感器构建真实场景的虚拟地图,同时获取真实场景内的障碍物实时坐标,并将虚拟地图的坐标集合、障碍物实时坐标、机器人自身当前的坐标回传到综合处理单元;S2、综合处理单元选取虚拟地图中的某一点作为移动机器人单元的目标终点,同时将选取的目标终点坐标传输至移动机器人单元。本发明有益效果:本项目系统具有灵活部署、安全性高、可重复使用和良好的科普互动体验感,对人工智能科学知识传播和推广应用具有重大推动作用,随着今后科普场景的不断深化扩展,以机器视觉、机器人技术和AR技术融合的科普产品系列将不断更新迭代。
Description
技术领域
本发明属于AR技术以及相关配件领域,尤其是涉及一种辅助自主定位导航AR教学演示的障碍物位置识别方法。
背景技术
AR技术是近年来快速兴起的一种现实感知技术,在展示生动性、逼真性方面显现出了巨大的优势,如果将其运用于对青少年人工智能科普展示与讲解中,将能够大大增强青少年对人工智能原理认知,从而提高青少年对于人工智能知识探索、交互体验和科学传播的兴趣。
发明内容
有鉴于此,本发明旨在提出一种辅助自主定位导航AR教学演示的障碍物位置识别方法,通过搭建融合AR和机器人自主定位导航算法的特定场景,利用机器视觉动态检测定位技术,通过AR方式呈现自主定位导航及避障路径规划,开发机器人定位导航算法教学演示系统。
为达到上述目的,本发明的技术方案是这样实现的:
一种辅助自主定位导航AR教学演示的障碍物位置识别方法,包括以下步骤:
S1、移动机器人单元通过激光传感器构建真实场景的虚拟地图,同时获取真实场景内的障碍物实时坐标,并将虚拟地图的坐标集合、障碍物实时坐标、机器人自身当前的坐标回传到综合处理单元;
S2、综合处理单元选取虚拟地图中的某一点作为移动机器人单元的目标终点,同时将选取的目标终点坐标传输至移动机器人单元;
S3、移动机器人单元结合目标终点坐标以及障碍物的实时坐标生成从当前位置到选取的目标点的行进路径;
S4、通过AR投影单元将步骤S2中生成的目标终点、步骤S3中生成的行进路径进行可视化输出。
进一步的,还包括视觉感知单元,用于采集真实场景内的图像信息,并处理获取各个物体与移动机器人之间的位置关系,将各个物体与移动机器人之间的位置关系回传到综合处理单元,综合处理单元对视觉感知单元和移动机器人单元采集的信息进行融合处理,生成具有坐标信息的图像信息。
进一步的,还包括展示交互单元,用户在展示交互上随机选点作为目标终点,综合处理单元将选取的作为输出至移动机器人单元作为行进路径党的目标终点。
进一步的,障碍物包括动态障碍物和静态障碍物。
进一步的,综合处理单元还用于对障碍物的实时位置、目标终点、行进路径进行颜色标记后输出。
进一步的,AR投影单元包括安装和投影仪,投影仪通过安装支架固定在墙体上。
包括固定座、竖直调节杆和安装座,固定座顶部与房顶连接,竖直调节杆包括第一端和第二端,竖直调节杆的第一端与固定座连接,第二端与安装座连接,待安装的投影仪通过安装座安装在安装支架本体上;
固定座包括第一水平连接板和第一侧向调节板,第一水平连接板上设有与屋顶连接的安装孔,第一侧向调节板与第一水平连接板垂直设置,第一侧向调节板上设有第一水平调节槽,竖直调节杆的第一端设有与第一水平调节槽对应的第一水平调节孔,还包括调节螺栓,调节螺栓穿过第一水平调节槽后与第一水平调节孔连接,用于保持竖直调节杆与固定座的相对位置。
进一步的,竖直调节杆为套管结构,包括内调节杆和外调节杆,内调节杆套设在外调节杆内部,外调节杆设置有用于容纳内调节杆的容纳空腔;
竖直调节杆的第一端设置在内调节杆靠近固定座一侧,竖直调节杆的第二端设置在外调节杆靠近安装座一侧;
外调节杆侧壁设置有第一竖直调节槽,内调节杆侧壁设置有与第一竖直调节槽位置对应的第一竖直调节孔,还包括调节螺栓,调节螺栓穿过第一竖直调节槽后与第一竖直调节孔连接,用于保持内调节杆和外调节杆的相对位置。
进一步的,安装座包括第一调节单元,第一调节单元包括安装板、第一调节件,安装板上设置有用于与投影仪本体安装的安装槽;
第一调节件包括第一调节板、第二调节板和第三调节板,第一调节板、第二调节板和第三调节板呈C型设置,第一调节板和第三调节板相对于第二连接板垂直设置,第二调节板与安装板活动连接,第一调节板和第三调节板上设置有第一弧形调节槽,第一调节板和第三调节板上还设置有第一转轴;
外调节杆底部还连接有调节块,调节块一端与外调节杆连接,另一端设置在第一调节板、第二调节板和第三调节板之间形成的容纳空腔内,调节块两侧设置有与第一弧形调节槽对应的第一弧形调节孔,调节块端部还通过第一转轴与第一调节板、第三调节板转动连接,调节块通过第一弧形调节槽调节与第一调节件之间的俯仰角度。
进一步的,所述安装槽为条形安装槽,条形安装槽设有多个,多个条形安装槽之间平行设置。
进一步的,安装板上还设置有第二调节单元,包括第二弧形调节槽和第二转轴,第二调节板设有与第二弧形调节槽对应的第二弧形调节孔,安装板通过第二转轴与第二调节板转动连接。
进一步的,安装支架本体设有两组,两组安装支架本体均包括固定座、竖直调节杆和安装座,两组安装支架本体之间还设有连接臂,连接臂两端分别连接竖直调节杆。
进一步的,连接臂两端还设置有间距调节单元,包括设置在连接臂两端的第二水平调节槽,通过间距调节单元调节两组装支架本体支架之间的间距,间接调节两个投影仪本体之间的间距。
相对于现有技术,本发明所述的一种辅助自主定位导航AR教学演示的障碍物位置识别方法具有以下有益效果:
(1)本专利系统包括视觉感知单元、移动机器人单元、AR投影单元和综合处理单元组成,设备系统搭建简单,广泛适用于室内教室、会议室或实验室内,通过视觉传感器搭建、标定和驱动识别,加深青少年对机器视觉的识别原理和方法认识;通过移动机器人的手动遥控建图,图形化路线规划和动作设置,实现移动机器人自主智能移动避/绕障,以实操模式培养青少年对移动机器人对实时环境感知、动态决策与规划、行为控制与执行等多种功能的亲身体验;通过AR投影单元系统对“看不见”的机器视觉和移动机器人定位导航算法功能的展示,并且让整个系统与动/静态障碍物和人一起互动起来,从而达到一种真实场景人/物与虚拟的人工智能思维充分的融合体验,让青少年亲身感受人工智能虚拟大脑的科学原理和思维模式。
(2)本项目系统具有灵活部署、安全性高、可重复使用和良好的科普互动体验感,对人工智能科学知识传播和推广应用具有重大推动作用,随着今后科普场景的不断深化扩展,以机器视觉、机器人技术和AR技术融合的科普产品系列将不断更新迭代。
(3)研发机器人定位导航算法教学演示AR系统产品,实现机器视觉识别定位跟踪算法,机器人自主定位导航算法等人工智能科学原理的可视化AR 互动展示;
(4)本项目系统采用已有成熟硬件产品进行开发,展示互动和系统本身具有高安全性,并且易于重复使用和快速复制,广泛适用于学校教室、实验室,青少年活动中心、科技馆或商务展示区等。
(5)本项目系统算法具有高度的鲁棒性和可扩展性,应对其它真实场景的应用,可进行快速二次开发,并且系统内各功能进行模块化开发,满足今后不同应用场景人工智能科学知识科普的AR演示应用。
(6)本发明所述的一种投影仪安装支架通过设置的多个调节结构,可以将投影仪通过本方案的支架悬挂在房顶,同时可以通过支架对投影仪相对于房顶的高度、俯仰角度、转动角度进行调节,提高了在不同场景的实用性。
(7)本发明所述的一种投影仪安装支架的支架设有两组,通过连接臂调节两组投影仪之间的间距。
附图说明
构成本发明的一部分的附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本发明实施例所述的一种投影仪安装支架带投影仪的整体示意图;
图2为本发明实施例所述的一种投影仪安装支架第一局部示意图;
图3为本发明实施例所述的一种投影仪安装支架第二局部示意图;
图4为本发明实施例所述的一种投影仪安装支架没安装投影仪的整体示意图;
图5为本发明实施例所述的一种投影仪安装支架第三局部示意图;
图6为本发明实施例所述的一种投影仪安装支架第四局部示意图;
图7为辅助自主定位导航AR教学演示的障碍物位置识别系统的组成示意图。
附图标记说明:
1-投影仪本体;2-固定座;21-第一水平连接板;22-第一侧向调节板; 221-第一水平调节槽;3-竖直调节杆;31-内调节杆;311-第一水平调节孔; 312-第一竖直调节孔;32-外调节杆;321-第一竖直调节槽;322-调节块; 323-第一弧形调节孔;4-安装座;41-安装板;411-条形安装槽;42-第一调节板;421-第一弧形调节槽;422-第一转轴;43-第二调节板;431-第二弧形调节孔;44-第三调节板;45-第二弧形调节槽;46-第二转轴;5-连接臂;51-第二水平调节槽。
具体实施方式
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
下面将参考附图并结合实施例来详细说明本发明。
如图1至图7所示,一种辅助自主定位导航AR教学演示的障碍物位置识别方法,包括以下步骤:
S1、移动机器人单元通过激光传感器构建真实场景的虚拟地图,同时获取真实场景内的障碍物实时坐标,并将虚拟地图的坐标集合、障碍物实时坐标、机器人自身当前的坐标回传到综合处理单元;
S2、综合处理单元选取虚拟地图中的某一点作为移动机器人单元的目标终点,同时将选取的目标终点坐标传输至移动机器人单元;
S3、移动机器人单元结合目标终点坐标以及障碍物的实时坐标生成从当前位置到选取的目标点的行进路径;
S4、通过AR投影单元将步骤S2中生成的目标终点、步骤S3中生成的行进路径进行可视化输出。
还包括视觉感知单元,用于采集真实场景内的图像信息,并处理获取各个物体与移动机器人之间的位置关系,将各个物体与移动机器人之间的位置关系回传到综合处理单元,综合处理单元对视觉感知单元和移动机器人单元采集的信息进行融合处理,生成具有坐标信息的图像信息。
还包括展示交互单元,用户在展示交互上随机选点作为目标终点,综合处理单元将选取的作为输出至移动机器人单元作为行进路径党的目标终点。
障碍物包括动态障碍物和静态障碍物。
综合处理单元还用于对障碍物的实时位置、目标终点、行进路径进行颜色标记后输出。
AR投影单元包括安装和投影仪,投影仪通过安装支架固定在墙体上。
安装支架包括固定座2、竖直调节杆3和安装座4,固定座2顶部与房顶连接,竖直调节杆3包括第一端和第二端,竖直调节杆3的第一端与固定座2连接,第二端与安装座4连接,待安装的投影仪通过安装座4安装在安装支架本体上;
固定座2包括第一水平连接板21和第一侧向调节板22,第一水平连接板21上设有与屋顶连接的安装孔,第一侧向调节板22与第一水平连接板21 垂直设置,第一侧向调节板22上设有第一水平调节槽221,竖直调节杆3 的第一端设有与第一水平调节槽221对应的第一水平调节孔311,还包括调节螺栓,调节螺栓穿过第一水平调节槽221后与第一水平调节孔311连接,用于保持竖直调节杆3与固定座2的相对位置。
竖直调节杆3为套管结构,包括内调节杆31和外调节杆32,内调节杆 31套设在外调节杆32内部,外调节杆32设置有用于容纳内调节杆31的容纳空腔;
竖直调节杆3的第一端设置在内调节杆31靠近固定座2一侧,竖直调节杆3的第二端设置在外调节杆32靠近安装座4一侧;
外调节杆32侧壁设置有第一竖直调节槽321,内调节杆31侧壁设置有与第一竖直调节槽321位置对应的第一竖直调节孔312,还包括调节螺栓,调节螺栓穿过第一竖直调节槽321后与第一竖直调节孔312连接,用于保持内调节杆31和外调节杆32的相对位置。
安装座4包括第一调节单元,第一调节单元包括安装板41、第一调节件,安装板41上设置有用于与投影仪本体1安装的安装槽;
第一调节件包括第一调节板42、第二调节板43和第三调节板44,第一调节板42、第二调节板43和第三调节板44呈C型设置,第一调节板42和第三调节板44相对于第二连接板垂直设置,第二调节板43与安装板41活动连接,第一调节板42和第三调节板44上设置有第一弧形调节槽421,第一调节板42和第三调节板44上还设置有第一转轴422;
外调节杆32底部还连接有调节块322,调节块322一端与外调节杆32 连接,另一端设置在第一调节板42、第二调节板43和第三调节板44之间形成的容纳空腔内,调节块322两侧设置有与第一弧形调节槽421对应的第一弧形调节孔323,调节块322端部还通过第一转轴422与第一调节板42、第三调节板44转动连接,调节块322通过第一弧形调节槽421调节与第一调节件之间的俯仰角度。
所述安装槽为条形安装槽411,条形安装槽411设有多个,多个条形安装槽411之间平行设置。
安装板41上还设置有第二调节单元,包括第二弧形调节槽45和第二转轴46,第二调节板43设有与第二弧形调节槽45对应的第二弧形调节孔431,安装板41通过第二转轴46与第二调节板43转动连接。
安装支架本体设有两组,两组安装支架本体均包括固定座2、竖直调节杆3和安装座4,两组安装支架本体之间还设有连接臂5,连接臂5两端分别连接竖直调节杆3。
连接臂5两端还设置有间距调节单元,包括设置在连接臂5两端的第二水平调节槽51,通过间距调节单元调节两组装支架本体支架之间的间距,间接调节两个投影仪本体1之间的间距。
视觉感知单元:采用高清(分辨率不小于2MP)网络摄像机,采集真实场景内动/静目标(人、障碍物和机器人)图像信息,并处理获取目标的实时坐标,将目标的实时坐标值回传到综合处理单元;
移动机器人单元:采用无轨激光SLAM定位导航技术,通过激光传感器构建真实场景的虚拟地图,并将虚拟地图的坐标集和机器人自身当前的坐标回传到综合处理单元,同时对真实场景虚拟地图内的动/静目标(人、障碍物和机器人)进行实时检测测量,实现在真实场景虚拟地图内,机器人移动目标点坐标输入后,通过机器人内的路线规划算法进行目标点移动前置路线的输出;
AR投影单元:采用1080p分辨率/运动补偿技术/四方梯形校正的高清短焦、高流明无畸变投影设备,实现真实场景内投影覆盖,实时呈现综合处理单元输出的真实场景内动/静目标(人、障碍物和机器人)实时位标和移动机器人规划的虚拟前置路线;
综合处理单元:在ubuntu16.04 ros kinetic操作系统下开发,对摄像机采集识别的坐标集和移动机器人构建的虚拟地图坐标集进行匹配处理,并进行真实场景内动/静目标(人、障碍物和机器人)实时目标位置、机器人路线规划及轨迹的颜色标记输出,在展示交互上实现对真实场景内移动机器人构建的虚拟地图上目标位置的随机点选,驱动移动机器人根据真实场景内的目标实时位置进行自主移动定位导航,完成目标点的到达。
视觉感知识别系统设计
视觉感知单元通过定义外部IP彩色可见光摄像机软件接口(IP网络协议),实现可见光摄像机的实时视频数据采集和传输通讯,同时通过内部摄像机参数调节处理,解决真实场景内AR投屏单元的环境影响问题,提高视觉感知单元对目标识别和定位的精度和效率。实现对真实场景、机器人、障碍物、人员基本参数/颜色/形态等采样及标定等功能。
移动机器人自主定位导航系统设计
通过手柄遥控机器人对真实场景内进行激光扫描,构建真实场景的虚拟地图,同时通过地图编辑工具进行地图的二次精细化处理,同时设定系统演示的范围,并上传虚拟地图坐标集合到综合处理单元。通过移动机器人自主导航移动算法输出的机器人控制指令转化为坐标点集合,通过机器人操作系统ROS节点回传到综合处理单元,同时接收综合处理单元对视觉感知单元实时检测到的目标位置坐标结果,通过两个坐标集的关联匹配驱动移动机器人在目标站点间的移动定位导航和避/绕障。
综合处理单元和AR投屏单元系统设计
通过视觉感知单元和移动机器人单元的识别坐标集,综合处理单元进行融合匹配,并根据不同目标进行不同颜色位标,通过移动机器人自主定位导航算法的路线规划(ROS节点集),进行移动机器人前置规划路线的颜色和路径线条标记。同时根据移动机器人构建的虚拟地图上进行目标站点点选识别,驱动移动机器人根据虚拟地图目标站点进行自主定位导航移动。
本专利采用视觉识别算法与跟踪定位算法和移动机器人自主定位导航算法,将真实场景内动/静状态下人、障碍物和机器人的实时方位进行感知测量,并实时反馈到移动机器人进行路线规划处理,最终将移动机器人自主导航规划的动态路线、真实场景内的动/静目标(人、障碍物和机器人)的实时位置(位标)和机器人虚拟的动态规划的行走路线,通过AR单元系统投屏到真实场景内与实体进行联动和展示互动。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围,其均应涵盖在本发明的权利要求和说明书的范围当中。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种辅助自主定位导航AR教学演示的障碍物位置识别方法,其特征在于,包括以下步骤:
S1、移动机器人单元通过激光传感器构建真实场景的虚拟地图,同时获取真实场景内的障碍物实时坐标,并将虚拟地图的坐标集合、障碍物实时坐标、机器人自身当前的坐标回传到综合处理单元;
S2、综合处理单元选取虚拟地图中的某一点作为移动机器人单元的目标终点,同时将选取的目标终点坐标传输至移动机器人单元;
S3、移动机器人单元结合目标终点坐标以及障碍物的实时坐标生成从当前位置到选取的目标点的行进路径;
S4、通过AR投影单元将步骤S2中生成的目标终点、步骤S3中生成的行进路径进行可视化输出。
2.根据权利要求1所述的一种辅助自主定位导航AR教学演示的障碍物位置识别方法,其特征在于:还包括视觉感知单元,用于采集真实场景内的图像信息,并处理获取各个物体与移动机器人之间的位置关系,将各个物体与移动机器人之间的位置关系回传到综合处理单元,综合处理单元对视觉感知单元和移动机器人单元采集的信息进行融合处理,生成具有坐标信息的图像信息。
3.根据权利要求1所述的一种辅助自主定位导航AR教学演示的障碍物位置识别方法,其特征在于:还包括展示交互单元,用户在展示交互上随机选点作为目标终点,综合处理单元将选取的作为输出至移动机器人单元作为行进路径党的目标终点。
4.根据权利要求2所述的一种辅助自主定位导航AR教学演示的障碍物位置识别方法,其特征在于:障碍物包括动态障碍物和静态障碍物。
5.根据权利要求1所述的一种辅助自主定位导航AR教学演示的障碍物位置识别方法,其特征在于:综合处理单元还用于对障碍物的实时位置、目标终点、行进路径进行颜色标记后输出。
6.根据权利要求1所述的一种辅助自主定位导航AR教学演示的障碍物位置识别方法,其特征在于:AR投影单元包括安装和投影仪,投影仪通过安装支架固定在墙体上。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110584558.9A CN113325844B (zh) | 2021-05-27 | 2021-05-27 | 一种辅助自主定位导航ar教学演示的障碍物位置识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110584558.9A CN113325844B (zh) | 2021-05-27 | 2021-05-27 | 一种辅助自主定位导航ar教学演示的障碍物位置识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113325844A true CN113325844A (zh) | 2021-08-31 |
CN113325844B CN113325844B (zh) | 2023-03-28 |
Family
ID=77421720
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110584558.9A Active CN113325844B (zh) | 2021-05-27 | 2021-05-27 | 一种辅助自主定位导航ar教学演示的障碍物位置识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113325844B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116560089A (zh) * | 2023-05-10 | 2023-08-08 | 广州视景医疗软件有限公司 | 一种视觉辅助方法及ar眼镜 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3311079A (en) * | 1964-07-22 | 1967-03-28 | Inst Francais Du Petrole | Steering system for dynamically positioning a vessel |
CN208041487U (zh) * | 2018-03-19 | 2018-11-02 | 深圳市龙高教学设备有限公司 | 一种方便调整的投影仪 |
CN108873585A (zh) * | 2018-07-17 | 2018-11-23 | 刘仲华 | 一种家用投影仪 |
US20190208171A1 (en) * | 2018-01-02 | 2019-07-04 | Boe Technology Group Co., Ltd. | Projection device, and method and device for controlling the same |
CN111785194A (zh) * | 2020-07-13 | 2020-10-16 | 西安新航展览有限公司 | 一种基于3d全息投影的人工智能展示系统 |
CN112212188A (zh) * | 2020-10-09 | 2021-01-12 | 广州形银科技有限公司 | 一种游戏展示投影仪固定架 |
CN112445204A (zh) * | 2019-08-15 | 2021-03-05 | 长沙智能驾驶研究院有限公司 | 工地中的物体移动导航方法、装置和计算机设备 |
CN212672885U (zh) * | 2020-05-29 | 2021-03-09 | 张家港市万事达电教科技有限公司 | 一种高端微调万能吊架 |
CN112601693A (zh) * | 2018-09-06 | 2021-04-02 | 大众汽车股份公司 | 用于监测和规划交通工具的运动的方案 |
-
2021
- 2021-05-27 CN CN202110584558.9A patent/CN113325844B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3311079A (en) * | 1964-07-22 | 1967-03-28 | Inst Francais Du Petrole | Steering system for dynamically positioning a vessel |
US20190208171A1 (en) * | 2018-01-02 | 2019-07-04 | Boe Technology Group Co., Ltd. | Projection device, and method and device for controlling the same |
CN208041487U (zh) * | 2018-03-19 | 2018-11-02 | 深圳市龙高教学设备有限公司 | 一种方便调整的投影仪 |
CN108873585A (zh) * | 2018-07-17 | 2018-11-23 | 刘仲华 | 一种家用投影仪 |
CN112601693A (zh) * | 2018-09-06 | 2021-04-02 | 大众汽车股份公司 | 用于监测和规划交通工具的运动的方案 |
CN112445204A (zh) * | 2019-08-15 | 2021-03-05 | 长沙智能驾驶研究院有限公司 | 工地中的物体移动导航方法、装置和计算机设备 |
CN212672885U (zh) * | 2020-05-29 | 2021-03-09 | 张家港市万事达电教科技有限公司 | 一种高端微调万能吊架 |
CN111785194A (zh) * | 2020-07-13 | 2020-10-16 | 西安新航展览有限公司 | 一种基于3d全息投影的人工智能展示系统 |
CN112212188A (zh) * | 2020-10-09 | 2021-01-12 | 广州形银科技有限公司 | 一种游戏展示投影仪固定架 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116560089A (zh) * | 2023-05-10 | 2023-08-08 | 广州视景医疗软件有限公司 | 一种视觉辅助方法及ar眼镜 |
Also Published As
Publication number | Publication date |
---|---|
CN113325844B (zh) | 2023-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106802658B (zh) | 一种全自动高精度室内快速定位方法 | |
US6920376B2 (en) | Mutually-immersive mobile telepresence system with user rotation and surrogate translation | |
CN111447340A (zh) | 混合现实虚拟预演拍摄系统 | |
Fong et al. | Pdadriver: A handheld system for remote driving | |
CN101800907B (zh) | 一种展现三维图像的方法及装置 | |
CN109828658A (zh) | 一种人机共融的远程态势智能感知系统 | |
CN102411783A (zh) | 在视频聊天应用中自动跟踪用户移动 | |
CN111716365B (zh) | 基于自然行走的沉浸式远程交互系统及方法 | |
Saakes et al. | A teleoperating interface for ground vehicles using autonomous flying cameras | |
CN110267028B (zh) | 一种用于五面led-cave的信号同步显示系统 | |
CN110163963B (zh) | 一种基于slam的建图装置和建图方法 | |
CN113325844B (zh) | 一种辅助自主定位导航ar教学演示的障碍物位置识别方法 | |
Kamarudin et al. | Method to convert Kinect's 3D depth data to a 2D map for indoor SLAM | |
US20180329283A1 (en) | Projection method, projector and projection system of fully covering multi-directional circular-screen | |
CN105183161A (zh) | 一种用户在现实环境和虚拟环境中同步移动的方法 | |
CN111958593B (zh) | 一种语义智能变电站巡视作业机器人视觉伺服方法及系统 | |
CN115562474A (zh) | 一种虚拟环境与现实场景融合的展示系统 | |
CN113110742A (zh) | 一种基于slam定位技术的ar多人交互的工业机器人教学系统 | |
CN110660311B (zh) | 智能展品演示机器人系统 | |
Oehler et al. | A flexible framework for virtual omnidirectional vision to improve operator situation awareness | |
CN111805557A (zh) | 一种基于类人形机器人的室内讲解系统及方法 | |
US12118673B2 (en) | Method and system for displaying a virtual scene | |
CN110378077A (zh) | 基于驾驶员视野的隧道光环境动态暗适应实验方法及装置 | |
CN115648221A (zh) | 基于ros系统的教育机器人 | |
Ross et al. | Vision-based target geolocation and optimal surveillance on an unmanned aerial vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |