CN115359222A - 一种基于扩展现实的无人交互控制方法及系统 - Google Patents
一种基于扩展现实的无人交互控制方法及系统 Download PDFInfo
- Publication number
- CN115359222A CN115359222A CN202211008633.8A CN202211008633A CN115359222A CN 115359222 A CN115359222 A CN 115359222A CN 202211008633 A CN202211008633 A CN 202211008633A CN 115359222 A CN115359222 A CN 115359222A
- Authority
- CN
- China
- Prior art keywords
- unmanned system
- unmanned
- real
- virtual
- mode
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 59
- 238000000034 method Methods 0.000 title claims abstract description 36
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 25
- 230000000875 corresponding effect Effects 0.000 claims abstract description 4
- 230000002452 interceptive effect Effects 0.000 claims description 17
- 238000004891 communication Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 230000033001 locomotion Effects 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims 1
- 230000006870 function Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 8
- 238000013507 mapping Methods 0.000 description 8
- 238000007500 overflow downdraw method Methods 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 4
- 239000003642 reactive oxygen metabolite Substances 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000013079 data visualisation Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 241000203475 Neopanax arboreus Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Computer Graphics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种基于扩展现实的无人交互控制方法,其包括有如下步骤:步骤S1,构建虚拟无人系统模型,之后将虚拟无人系统模型导入Unity3D游戏引擎中;步骤S2,采取点云匹配方式或者AR标记方式将虚拟无人系统与真实无人系统重叠;步骤S3,由搭载虚拟无人系统的混合现实设备构成的本地端与由真实无人系统构成的远程端通过Ros‑sharp功能包进行通讯,混合现实设备利用工控机对真实无人系统的电机控制板发出信号,再由电机控制板控制电机运动,从而驱动真实无人系统完成相应动作;步骤S4,混合现实设备与真实无人系统通信成功后,混合现实设备识别多模态交互方式并实时发送至真实无人系统。本发明能满足复杂多变任务环境的应用要求,更具易用性和易操作性。
Description
技术领域
本发明涉及无人控制系统技术领域,尤其涉及一种基于扩展现实的无人交互控制方法及系统。
背景技术
无人系统是指具有一定自治能力和自主性的无人控制系统,它是人工智能与机器人技术以及实时控制决策系统的结合产物。其中,地面无人系统融合了动力、机动、控制、传感器、人工智能等多学科先进技术于一体,地面无人系统发展过程中,起步阶段的无人系统仅能移动数米距离,现代无人系统则能够探测与规避障碍,可自主“跟随”车辆或人员行进,之后相继开展了移动机器人、智能车辆和地面无人平台的关键技术研究。但是传统无人系统中,人与无人系统交互方式单一,友好性不高,导致的操作员易产生疲劳和精神压力,影响作业效率,容易出现操作偏差等问题。
发明内容
本发明要解决的技术问题在于,针对现有技术的不足,提供一种能满足复杂多变任务环境的应用要求,能提高作业人员与真实无人系统的契合度,有助于减轻工作压力,更具易用性和易操作性的基于扩展现实的无人交互控制方法及系统。
为解决上述技术问题,本发明采用如下技术方案。
一种基于扩展现实的无人交互控制方法,其包括有如下步骤:步骤S1,构建虚拟无人系统模型,之后将虚拟无人系统模型导入Unity3D游戏引擎中;步骤S2,采取点云匹配方式或者AR标记方式将虚拟无人系统与真实无人系统重叠;步骤S3,由搭载虚拟无人系统的混合现实设备构成的本地端与由真实无人系统构成的远程端通过Ros-sharp功能包进行通讯,混合现实设备利用工控机对真实无人系统的电机控制板发出信号,再由电机控制板控制电机运动,从而驱动真实无人系统完成相应动作;步骤S4,混合现实设备与真实无人系统通信成功后,混合现实设备识别多模态交互方式并实时发送至真实无人系统。
优选地,所述步骤S1中,通过3DMAX或Solidworks软件构建虚拟无人系统模型。
优选地,所述步骤S1中,为所述虚拟无人系统模型添加贴近真实无人系统的组件。
优选地,所述步骤S1中,开发混合现实场景,所述混合现实场景包括控制面板和显示面板,诉述控制面板用于为识别多模态交互方式提供接口,所述显示面板用于实时显示真实无人系统反馈的数据。
优选地,所述步骤S2中,所述点云匹配方式包括:利用操作者头戴的混合现实设备扫描面空间环境,以及利用移动机器人的车载3D雷达扫描周围环境,得到一次点云数据,再利用最近点迭代法计算旋转矩阵和平移矩阵。
优选地,所述步骤S2中,所述AR标记方式包括通过混合现实设备读取基准参照物,计算真实无人系统与虚拟无人系统之间的坐标信息后,自动将虚拟无人系统叠加至真实无人系统上。
优选地,所述步骤S3中,所述真实无人系统包括SLAM算法、自主避障算法以及路径规划算法,所述虚拟无人系统利用工控设备进行运动控制以及与混合现实设备建立通讯。
优选地,所述步骤S3中,所述虚拟无人系统的数据信息通过TCP/TP通讯方式传送至混合现实设备并实时显示。
优选地,所述步骤S4中,所述多模态交互方式基于手势交互模块、语音交互模块和图像交互模块实现。
一种基于扩展现实的无人交互控制系统,所述无人交互控制系统用于实现上述无人交互控制方法。
本发明公开的基于扩展现实的无人交互控制方法及系统中,扩展现实无人系统控制技术分成了3个部分,混合现实设备、无人系统部分、多模态交互控制系统部分。扩展现实部分提供了MR接口和虚拟环境,多模态交互控制系统部分主要组成为点云匹配器、移动机器人控制器,基于ROS实现的无人机器人控制,使用混合现实设备上的深度相机扫描得到的空间映射和移动机器人上的3D雷达得到的点云发送到点云匹配器,计算两者之间的转换,对机器人的控制是通过坐标变换使用轨迹控制器实现的,具体的交互方式包括语音交互、手势交互等;无人系统具有SLAM、定位和控制的软件模块,同时在该系统上装配了传感器和驱动器。相比现有技术而言,本发明较好地满足了复杂多变任务环境的应用要求,能显著提高作业人员与真实无人系统的契合度,有助于减轻工作压力,同时更具易用性和易操作性。
附图说明
图1为本发明基于扩展现实的无人交互控制系统的架构图;
图2为地面真实无人系统的架构图。
具体实施方式
下面结合附图和实施例对本发明作更加详细的描述。
本发明公开了一种基于扩展现实的无人交互控制方法,请参见图1,其包括有如下步骤:
步骤S1,构建虚拟无人系统模型,之后将虚拟无人系统模型导入Unity3D游戏引擎中;进一步地:
所述步骤S1中,通过3DMAX或Solidworks软件构建虚拟无人系统模型;
所述步骤S1中,为所述虚拟无人系统模型添加贴近真实无人系统的组件;
所述步骤S1中,开发混合现实场景,所述混合现实场景包括控制面板和显示面板,诉述控制面板用于为识别多模态交互方式提供接口,所述显示面板用于实时显示真实无人系统反馈的数据;
步骤S2,采取点云匹配方式或者AR标记方式将虚拟无人系统与真实无人系统重叠;具体地,在所述步骤S2中:
所述点云匹配方式包括:利用操作者头戴的混合现实设备扫描面空间环境,以及利用移动机器人的车载3D雷达扫描周围环境,得到一次点云数据,再利用最近点迭代法计算旋转矩阵和平移矩阵;进而改变虚拟移动机器人的位置;
所述AR标记方式包括通过混合现实设备读取基准参照物,计算真实无人系统与虚拟无人系统之间的坐标信息后,自动将虚拟无人系统叠加至真实无人系统上。
步骤S3,由搭载虚拟无人系统的混合现实设备构成的本地端与由真实无人系统构成的远程端通过Ros-sharp功能包进行通讯,混合现实设备利用工控机对真实无人系统的电机控制板发出信号,再由电机控制板控制电机运动,从而驱动真实无人系统完成相应动作;进一步地:
所述步骤S3中,所述真实无人系统包括SLAM算法、自主避障算法以及路径规划算法,所述虚拟无人系统利用工控设备进行运动控制以及与混合现实设备建立通讯;
所述步骤S3中,所述虚拟无人系统的数据信息通过TCP/TP通讯方式传送至混合现实设备并实时显示;
步骤S4,混合现实设备与真实无人系统通信成功后,混合现实设备识别多模态交互方式并实时发送至真实无人系统;
所述步骤S4中,所述多模态交互方式基于手势交互模块、语音交互模块和图像交互模块实现。
上述方法中,请参见图1,扩展现实无人系统控制技术分成了3个部分,扩展现实部分(混合现实设备)、无人系统部分、多模态交互控制系统部分。扩展现实部分提供了MR接口和虚拟环境,多模态交互控制系统部分主要组成为点云匹配器、移动机器人控制器,基于ROS实现的无人机器人控制,使用混合现实设备上的深度相机扫描得到的空间映射(Spatialmapping,深度相机周围的详细的环境信息)和移动机器人上的3D雷达得到的点云发送到点云匹配器,计算两者之间的转换,对机器人的控制是通过坐标变换使用轨迹控制器实现的,具体的交互方式包括语音交互、手势交互等;无人系统具有SLAM、定位和控制的软件模块,同时在该系统上装配了传感器和驱动器。相比现有技术而言,本发明较好地满足了复杂多变任务环境的应用要求,能显著提高作业人员与真实无人系统的契合度,有助于减轻工作压力,同时更具易用性和易操作性。
关于地面无人系统,请参见图2,其关键技术体系包括总体设计模块、机动平台、自主行为模块、指挥控制模块。其中:
总体设计模块用于研究如何利用平台“无人”的优势、规避其劣势,通过综合各分系统技术水平,实现各分系统优化匹配,并制定总体设计流程和顶层规范,是设计最优地面无人系统总体方案、促进模块化、通用化、系列化与标准化发展的关键;
地面无人机动平台是实现自主机动的物理基础,该技术是研制具有高机动能力、长时间续航能力和高负载能力的地面无人系统的支撑技术,也是降低无人平台对自主系统依赖程度的关键;
自主行为模块用于解决无人平台的智能问题,包括环境感知、路径规划与跟踪、实时行为规划与决策等多个方面;
地面无人系统指挥控制模块主要研究地面无人系统与指挥人员以及操控人员之间的交互机制、多个平台之间的协作机制以及所必需的其它支撑技术。
在此基础上,本发明还公开了一种基于扩展现实的无人交互控制系统,所述无人交互控制系统用于实现以上所述的无人交互控制方法。请参见图1,在本发明的优选实施例中,所述无人交互控制系统可实现如下功能:
1、坐标系统的初始化和点云匹配:为实现人员对无人系统的控制,使用点云的匹配算法,将人员、机器人和虚拟机器人统一在一个坐标系统中,本发明提供了混合现实设备和界面,将虚拟和真实的两个世界连接在一起,控制单元与各部分相连,实现计算、界面与机器人之间的指令传递、虚拟物体的运动和机器人控制。进一步地,无人系统和扩展现实部分发送点云到点云匹配节点,点云匹配节点计算从一个坐标系统到另一个坐标系统的转换,然后计算全息透镜到真实空间坐标的转换,经过轴系比较的步骤,所有元件可以在一个共同的空间内工作。
2、多模态交互功能:在大数据可视化交互过程中,多模态交互结合单一模态的优点,充分发挥了人员对各个感知通道传达信息的高度接收与处理能力,有助于增强用户对交互行为的理解,进而提高对大数据可视化的探索与分析效率。在本发明的优选实施例中,多模态人机交互可实现利用语音、图像、文本、眼动和触觉等多模态信息进行人员与计算机之间的信息交换,本实施例以手势交互和语音交互为主,其中:
手势交互:可采用MediaPipe手势识别算法。MediaPipe是一种基于机器学习技术的手势识别算法,其特点是准确率高,支持五指和手势追踪,可根据一帧图像推断出单手21个立体节点,并且还能同时追踪多只手,可识别遮挡。MediaPipe框架有3个模型组成,包括:手掌识别模型BlazePalm(用于识别手的整体框架和方向)、Landmark模型(识别立体手部节点)、手势识别模型(将识别到的节点分类成一系列手势)。其中,BlazePalm是一个可识别单帧图像的模型,主要为Landmark模型提供准确剪裁的手掌图像。而Landmark模型,则是在BlazePalm基础上识别到的21个立体节点坐标,这些节点之间的位置遮挡也可被识别。接下来,通过手势识别模型,从Landmark提取的数据来推断每根手指伸直或弯曲等动作,接着将这些动作与预设的手势匹配,以预测基础的静态手势。
语音交互:利用改进深度神经网络的自动语音识别模块将采集到的语音数据转换为文本数据,并经过一个文本数据理解模块,将语音信号翻译成控制指令。
多模态融合的方法可分为3种:特征层融合方法、决策层融合方法以及混合融合方法,特征层融合方法将从多个模态中抽取的特征通过某种变换映射为一个特征向量,而后送入分类模型中,获得最终决策;决策层融合方法将不同模态信息获得的决策合并来获得最终决策;混合融合方法同时采用特征层融合方法和决策层融合方法,例如可以将两种模态特征通过特征层融合获得的决策与第3种模态特征获得的决策进行决策层融合来得到最终决策。
3、无人系统的SLAM建图、路径规划功能:ROS开源社区中集成了众多的SLAM算法可以直接使用或者进行二次开发,其中最为常用和成熟的当属gmapping功能包。gmapping功能包集成了Rao-Blackwellized粒子滤波算法,为开发者隐取去了复杂的内部实现,该功能包订阅机器人的深度信息、IMU信息和里程计信息,同时完成一些必要的参数配置,即可创建并输出基于概率地图。SLAM算法已经在gmapping功能包中实现。实际上SLAM解决的问题主要是构图和定位,而无人平台想要自动行驶就必须具备自主导航的能力。在无人平台明确了自身的位姿后需要通过一定的策略,规划从当前位置到目标位置的合适路径。在作业场景下,需要使用雷达等传感装备实时对环境周围采样,并生成地图,即SLAM技术,路径的规划问题使用启发式搜索的思想,比如A*算法等,使用全局路径规划和局部路径相互结合的方式实现从起点到终点的整个自主行驶;
4、混合现实接口下的交互与控制功能:虚拟空间和现实空间的连接通过MR混合现实的接口完成,通过改进的ICP点云匹配得到统一的世界坐标系,项目基于Unity3D软件开发了移动机器人交互界面,使用智能头盔,搭建了混合现实的交互环境,通过头显可以看到虚拟的移动机器人,该接口叠加在真实的机器人上,并显示与之交互对象的附加信息,可以通过操纵杆、语音、手势、脑电来控制虚拟机器人移动直至到达目的地,并显示其移动的路径,同样真实的移动机器人自主规划路径,最终到达目的地,以再次实现虚拟和真实机器人的相叠加。
本发明公开的基于扩展现实的无人交互控制方法及系统,其解决了现有地面无人系统在执行任务中采集的相机、雷达等画面后,依靠服务器达到控制效果会引发沉浸感低、认知时间长、操作出现偏差等问题,以及单一交互方式无法满足复杂多变任务环境等问题。相比现有技术而言,本发明能提高作业人员与真实无人系统的契合度,能满足复杂多变任务环境的应用要求,有助于减轻工作压力,更具易用性和易操作性,较好地满足了应用需求。
以上所述只是本发明较佳的实施例,并不用于限制本发明,凡在本发明的技术范围内所做的修改、等同替换或者改进等,均应包含在本发明所保护的范围内。
Claims (10)
1.一种基于扩展现实的无人交互控制方法,其特征在于,包括有如下步骤:
步骤S1,构建虚拟无人系统模型,之后将虚拟无人系统模型导入Unity3D游戏引擎中;
步骤S2,采取点云匹配方式或者AR标记方式将虚拟无人系统与真实无人系统重叠;
步骤S3,由搭载虚拟无人系统的混合现实设备构成的本地端与由真实无人系统构成的远程端通过Ros-sharp功能包进行通讯,混合现实设备利用工控机对真实无人系统的电机控制板发出信号,再由电机控制板控制电机运动,从而驱动真实无人系统完成相应动作;
步骤S4,混合现实设备与真实无人系统通信成功后,混合现实设备识别多模态交互方式并实时发送至真实无人系统。
2.如权利要求1所述的基于扩展现实的无人交互控制方法,其特征在于,所述步骤S1中,通过3DMAX或Solidworks软件构建虚拟无人系统模型。
3.如权利要求1所述的基于扩展现实的无人交互控制方法,其特征在于,所述步骤S1中,为所述虚拟无人系统模型添加贴近真实无人系统的组件。
4.如权利要求3所述的基于扩展现实的无人交互控制方法,其特征在于,所述步骤S1中,开发混合现实场景,所述混合现实场景包括控制面板和显示面板,诉述控制面板用于为识别多模态交互方式提供接口,所述显示面板用于实时显示真实无人系统反馈的数据。
5.如权利要求1所述的基于扩展现实的无人交互控制方法,其特征在于,所述步骤S2中,所述点云匹配方式包括:利用操作者头戴的混合现实设备扫描面空间环境,以及利用移动机器人的车载3D雷达扫描周围环境,得到一次点云数据,再利用最近点迭代法计算旋转矩阵和平移矩阵。
6.如权利要求1所述的基于扩展现实的无人交互控制方法,其特征在于,所述步骤S2中,所述AR标记方式包括通过混合现实设备读取基准参照物,计算真实无人系统与虚拟无人系统之间的坐标信息后,自动将虚拟无人系统叠加至真实无人系统上。
7.如权利要求1所述的基于扩展现实的无人交互控制方法,其特征在于,所述步骤S3中,所述真实无人系统包括SLAM算法、自主避障算法以及路径规划算法,所述虚拟无人系统利用工控设备进行运动控制以及与混合现实设备建立通讯。
8.如权利要求7所述的基于扩展现实的无人交互控制方法,其特征在于,所述步骤S3中,所述虚拟无人系统的数据信息通过TCP/TP通讯方式传送至混合现实设备并实时显示。
9.如权利要求1所述的基于扩展现实的无人交互控制方法,其特征在于,所述步骤S4中,所述多模态交互方式基于手势交互模块、语音交互模块和图像交互模块实现。
10.一种基于扩展现实的无人交互控制系统,其特征在于,所述无人交互控制系统用于实现权利要求1至9任一项所述的无人交互控制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211008633.8A CN115359222A (zh) | 2022-08-22 | 2022-08-22 | 一种基于扩展现实的无人交互控制方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211008633.8A CN115359222A (zh) | 2022-08-22 | 2022-08-22 | 一种基于扩展现实的无人交互控制方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115359222A true CN115359222A (zh) | 2022-11-18 |
Family
ID=84002837
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211008633.8A Pending CN115359222A (zh) | 2022-08-22 | 2022-08-22 | 一种基于扩展现实的无人交互控制方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115359222A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116520997A (zh) * | 2023-07-05 | 2023-08-01 | 中国兵器装备集团自动化研究所有限公司 | 一种混合现实的增强显示与交互系统 |
-
2022
- 2022-08-22 CN CN202211008633.8A patent/CN115359222A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116520997A (zh) * | 2023-07-05 | 2023-08-01 | 中国兵器装备集团自动化研究所有限公司 | 一种混合现实的增强显示与交互系统 |
CN116520997B (zh) * | 2023-07-05 | 2023-09-26 | 中国兵器装备集团自动化研究所有限公司 | 一种混合现实的增强显示与交互系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11079897B2 (en) | Two-way real-time 3D interactive operations of real-time 3D virtual objects within a real-time 3D virtual world representing the real world | |
Moniruzzaman et al. | Teleoperation methods and enhancement techniques for mobile robots: A comprehensive survey | |
CN103389699B (zh) | 基于分布式智能监测控制节点的机器人监控及自主移动系统的运行方法 | |
US7353082B2 (en) | Method and a system for programming an industrial robot | |
CN110082781A (zh) | 基于slam技术与图像识别的火源定位方法及系统 | |
CN114815654A (zh) | 一种面向无人车控制的数字孪生系统及其搭建方法 | |
Li et al. | A framework and method for human-robot cooperative safe control based on digital twin | |
CN110794844B (zh) | 自动驾驶方法、装置、电子设备及可读存储介质 | |
Chen et al. | A multichannel human-swarm robot interaction system in augmented reality | |
CN108762253A (zh) | 一种应用于为人导航系统的人机队形控制方法 | |
CN114791765B (zh) | 一种基于混合现实技术的ros智能车交互方法 | |
CN115359222A (zh) | 一种基于扩展现实的无人交互控制方法及系统 | |
Bechar et al. | A review and framework of laser-based collaboration support | |
CN111134974B (zh) | 一种基于增强现实和多模态生物信号的轮椅机器人系统 | |
Helmert et al. | Design and Evaluation of an AR Voice-based Indoor UAV Assistant for Smart Home Scenarios | |
Han et al. | Novel cartographer using an oak-d smart camera for indoor robots location and navigation | |
CN114935340A (zh) | 一种室内导航机器人、控制系统及方法 | |
US20190389061A1 (en) | Displaying method of robot simulator | |
Safia et al. | Visual path following by an omnidirectional mobile robot using 2d visual servoing | |
Fournier et al. | Immersive virtual environment for mobile platform remote operation and exploration | |
Sofge et al. | Collaborating with humanoid robots in space | |
Pareigis et al. | Artificial Intelligence in Autonomous Systems. A Collection of Projects in Six Problem Classes | |
Ayyagari | Comparative Study of Model-based Lateral Controllers with Selected Deep Learning Methods for Autonomous Driving | |
Brenner et al. | Towards gesture-based cooperation with cargo handling unmanned aerial vehicles: A conceptual approach | |
Cai et al. | Autonomous navigation system for exhibition hall service robots via laser SLAM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |