CN113536467A - 一种无人机远程操作显示系统 - Google Patents

一种无人机远程操作显示系统 Download PDF

Info

Publication number
CN113536467A
CN113536467A CN202110841148.8A CN202110841148A CN113536467A CN 113536467 A CN113536467 A CN 113536467A CN 202110841148 A CN202110841148 A CN 202110841148A CN 113536467 A CN113536467 A CN 113536467A
Authority
CN
China
Prior art keywords
aerial vehicle
unmanned aerial
parameters
module
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110841148.8A
Other languages
English (en)
Other versions
CN113536467B (zh
Inventor
李慧生
赖光程
王超
彭霞宇
唐国俊
吴朝敬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Hyperspectral New Technology Co ltd
Shenzhen Beidouyun Information Technology Co ltd
Original Assignee
Shenzhen Hyperspectral New Technology Co ltd
Shenzhen Beidouyun Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Hyperspectral New Technology Co ltd, Shenzhen Beidouyun Information Technology Co ltd filed Critical Shenzhen Hyperspectral New Technology Co ltd
Priority to CN202110841148.8A priority Critical patent/CN113536467B/zh
Priority claimed from CN202110841148.8A external-priority patent/CN113536467B/zh
Publication of CN113536467A publication Critical patent/CN113536467A/zh
Application granted granted Critical
Publication of CN113536467B publication Critical patent/CN113536467B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/15Vehicle, aircraft or watercraft design
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2111/00Details relating to CAD techniques
    • G06F2111/18Details relating to CAD techniques using virtual or augmented reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明涉及无人机显示的技术领域,尤其是涉及一种无人机远程操作显示系统,其包括:模型构件模块,用于构建无人机模型,无人机模型是根据无人机的各项原始参数构建的;参数获取模块,用于实时获取无人机的各项静态参数和环境参数;参数分析模块,用于对环境参数进行分析以生成各项静态参数的动态参数;修正模块,用于将动态参数与当前各项静态参数相比对,当比对结果符合预设条件时,对神经网络模型进行修正;重新推理模块,用于通过修正后的神经网络模型对环境参数进行重新推理;显示模块,用于创建虚拟3D场景,并将无人机模型和包含有推理后的动态参数的数字孪生体导入虚拟3D场景中显示。本申请具有对无人机的状态更为清晰的展示的效果。

Description

一种无人机远程操作显示系统
技术领域
本发明涉及无人机显示的技术领域,尤其是涉及一种无人机远程操作显示系统。
背景技术
当前,以物联网、大数据、人工智能等新技术为代表的数字浪潮席卷全球,物理世界和与之对应的数字世界正形成两大体系平行发展、相互作用。数字世界为了服务物理世界而存在,物理世界因为数字世界变得高效有序,数字孪生技术应运而生,从制造业逐步延伸拓展至城市空间,深刻影响着城市规划、建设与发展。
然而,发明人认为,目前的3D可视化交互都是单纯的基于普通模型来进行,并且模型只作为场景的物体显示,使得表达的内容较为单一,无法对所要了解的无人机进行清晰展示。
发明内容
为了对无人机的状态更为清晰的展示,本申请提供一种无人机远程操作显示系统。
本申请的上述发明目的一是通过以下技术方案得以实现的:
一种无人机远程操作显示系统,包括:
模型构件模块,用于构建无人机模型,所述无人机模型是根据无人机的各项原始参数构建的;
参数获取模块,用于实时获取无人机的各项静态参数和环境参数,所述环境参数为无人机飞行时的环境参数;
参数分析模块,用于对所述环境参数进行分析以生成各项静态参数的动态参数;
修正模块,用于将动态参数与当前各项静态参数相比对,当比对结果符合预设条件时,对神经网络模型进行修正;
重新推理模块,用于通过修正后的神经网络模型对所述环境参数进行重新推理;
显示模块,用于创建虚拟3D场景,并将无人机模型和包含有推理后的动态参数的数字孪生体导入所述虚拟3D场景中显示。
通过采用上述技术方案,模型构件模块根据无人机的各项原始参数构建无人机模型,参数获取模块实时获取无人机的各项静态参数和环境参数,参数分析模块对环境参数进行分析以生成各项静态参数的动态参数,修正模块将动态参数与当前各项静态参数相比对,当比对结果符合预设条件时,对神经网络模型进行修正,然后通过修正后的神经网络模型对环境参数进行重新推理,最后将无人机模型和包含有推理后的动态参数的数字孪生体导入虚拟3D场景中显示,一方面,通过静态参数对神经网络模型的不断修正,另一方面,将通过环境参数推理出的动态参数包含在数字孪生体中和无人机模型一起在虚拟3D场景中显示,便于观测出无人机各原始参数相对动态参数的变化,实现对无人机的状态更为清晰的展示,观测者更为直观地了解无人机参数变化情况。
本申请在一较佳示例中可以进一步优化配置为:对所述环境参数进行分析以生成各项静态参数的动态参数包括:
将所述环境参数导入预先训练好的神经网络模型,推理出所述无人机的各项静态参数的动态参数。
本申请在一较佳示例中可以进一步优化配置为:所述无人机模型和包含有推理后的动态参数的数字孪生体具有区别的表现形式。
通过采用上述技术方案,无人机模型和数字孪生体区别的表现形式,便于观测者更为直观地观测到差异。
本申请在一较佳示例中可以进一步配置为:还包括:
指令获取模块,用于在所述虚拟3D场景处于显示状态的情况下,获取控制指令;
信号发送模块,用于根据所述控制指令发送对应的控制信号给所述无人机。
通过采用上述技术方案,指令获取模块获取控制指令,信号发送模块将对应的控制信号发送给无人机,实现对无人机的控制。
本申请在一较佳示例中可以进一步配置为:所述指令获取模块包括:
位移信息获取子模块,用于在所述虚拟3D场景处于显示状态的情况下,获取虚拟3D场景内的物体相对位移信息;
筛选子模块,用于根据物体相对位移信息和预设规则筛选出预设数据库内筛选出对应的指令信息,将该指令信息作为控制指令。
通过采用上述技术方案,位移信息获取子模块获取虚拟3D场景内的物体相对位移信息,筛选子模块根据物体相对位移信息和预设规则筛选出预设数据库内筛选出对应的指令信息,从而实现控制指令的获取。
本申请在一较佳示例中可以进一步配置为:根据物体相对位移信息和预设规则筛选出预设数据库内筛选出对应的指令信息包括:
获取物体相对位移信息在一平面上的投影的位移方向,以及物体相对位移信息在位移方向的位移量与产生位移量的时间的比值;
当比值达到预设第一阈值,将位移方向和预设数据库内的指令信息相比对以获取比对相似度;
将超过第二预设阈值的比对相似度从高到低排序以生成第一序列表,筛选出第一序列表中第一排序的指令信息。
通过采用上述技术方案,根据物体位移在一平面上的投影的位移方向,和在位移方向上的速度,当速度达到预设第一阈值,即根据位移方向在预设数据库内匹配相速度最高的且超过第二预设阈值的第一序列表,实现指令信息的匹配。
本申请在一较佳示例中可以进一步配置为:还包括:
单独展示模块,用于获取选择指令,根据所述选择指令将所述选择指令所对应的无人机模型零件单独显示,并将数字孪生体相同的零件单独展示。
通过采用上述技术方案,单独展示模块便于观测者对无人机一个或多个零件进行单独展示和比较。
本申请还公开一种无人机远程操作显示方法,包括:
构建无人机模型,所述无人机模型根据无人机的各项原始参数构建的;
实时获取无人机的各项静态参数和环境参数,所述环境参数为无人机飞行时的环境参数;
对所述环境参数进行分析以生成各项静态参数的动态参数;
将动态参数与当前各项静态参数相比对,当比对结果符合预设条件时,对神经网络模型进行修正;
通过修正后的神经网络模型对所述环境参数进行重新推理;
创建虚拟3D场景,并将无人机模型和包含有推理后的动态参数的数字孪生体导入所述虚拟3D场景中显示。
综上所述,本申请包括以下至少一种有益技术效果:
1、模型构件模块根据无人机的各项原始参数构建无人机模型,参数获取模块实时获取无人机的各项静态参数和环境参数,参数分析模块对环境参数进行分析以生成各项静态参数的动态参数,修正模块将动态参数与当前各项静态参数相比对,当比对结果符合预设条件时,对神经网络模型进行修正,然后通过修正后的神经网络模型对环境参数进行重新推理,最后将无人机模型和包含有推理后的动态参数的数字孪生体导入虚拟3D场景中显示,一方面,通过静态参数对神经网络模型的不断修正,另一方面,将通过环境参数推理出的动态参数包含在数字孪生体中和无人机模型一起在虚拟3D场景中显示,便于观测出无人机各原始参数相对动态参数的变化,实现对无人机的状态更为清晰的展示,观测者更为直观地了解无人机参数变化情况;
2、位移信息获取子模块获取虚拟3D场景内的物体相对位移信息,筛选子模块根据物体相对位移信息和预设规则筛选出预设数据库内筛选出对应的指令信息,从而实现控制指令的获取;
3、根据物体位移在一平面上的投影的位移方向,和在位移方向上的速度,当速度达到预设第一阈值,即根据位移方向在预设数据库内匹配相速度最高的且超过第二预设阈值的第一序列表,实现指令信息的匹配。
附图说明
图1是本申请一实施例中无人机远程操作显示系统的一原理框图;
图2是本申请另一实施例中无人机远程操作显示系统的一原理框图;
图3是本申请一实施例中无人机远程操作显示方法的流程图;
图4是本申请一实施例中的计算机设备示意图。
具体实施方式
以下结合附图对本申请作进一步详细说明。
本申请公开了一种无人机远程操作显示系统,参照图1,无人机远程操作显示系统包括模型构件模块,参数获取模块,参数分析模块,修正模块,重新推理模块和显示模块,系统模型构件模块、参数获取模块、参数分析模块、修正模块、重新推理模块和显示模块相互连接;
其中,模型构件模块用于构建无人机模型,无人机模型是根据无人机的各项原始参数构建的。
具体地,各项原始参数指的是无人机出厂时各项零件参数,包括但不限于各项零件的尺寸、零件之间的位置关系、飞机轴距、飞机自重、最大翼展、对称电机轴距等。根据各项零件参数进行建模,从而构建出无人机模型。
参数获取模块,用于实时获取无人机的各项静态参数和环境参数;
其中,静态参数是指无人机在飞行过程中,各项零件的尺寸、零件之间的位置关系、飞机轴距、最大翼展、对称电机轴距等,各项零件的尺寸变化可采用微型摄像头拍照对比获取,零件之间的位置关系可以是通过采用微型摄像头拍照对比获取,也可以是取一定位点建立坐标系,各零件在该坐标系内的位置变化情况实现获取零件之间的位置关系;飞机轴距、最大翼展和对称电机轴距可以在坐标系内实现传感测量。
环境参数为无人机飞行时的环境参数;准确位置、高度、飞行速度和环境参数,环境参数包括温度、湿度、光照度以及风速;无人机配备温度传感器、湿度传感器、红外热像仪和风速测量装置;微光夜视摄像机、温度传感器、湿度传感器,以及风速测量装置采集各项环境参数,从而形成环境参数,发送给参数获取参数获取模块。
参数分析模块,用于对环境参数进行分析以生成各项静态参数的动态参数;
具体地,参数分析模块包括动态参数推理模块,将环境参数导入预先训练好的神经网络模型,推理出无人机的各项静态参数的动态参数。
在一实施例中,神经网络模型是由多组实验数据通过机器学习训练得出的,多组实验数据中的每组实验数据均包括:环境参数组,以及对应环境参数组的动态参数。
动态参数的各项参数与静态参数的各项参数相对应。
修正模块,用于将动态参数与当前各项静态参数相比对,当比对结果符合预设条件时,对神经网络模型进行修正;
具体地,将动态参数与当前各项静态参数相比对,动态参数的各项参数与静态参数的各项参数相比对,当动态参数的各项参数均在对应的静态参数的各项参数的预设范围内拨动,即不符合预设条件,当动态参数的各项参数存在至少一项不在对应的静态参数的各项参数的预设范围内拨动,即符合预设条件,此时将该组环境参数以及对应的静态参数组作为实验数据对神经网络模型进行训练,实现修正。
重新推理模块,用于通过修正后的神经网络模型对环境参数进行重新推理;
神经网络模型修正后,将环境参数导入修正后的神经网络模型,推理出新的动态参数。
显示模块用于创建虚拟3D场景,并将无人机模型和包含有推理后的动态参数的数字孪生体导入虚拟3D场景中显示。
创建虚拟3D场景后,将无人机模型和包含有推理后的动态参数的数字孪生体导入虚拟3D场景中显示,通过无人机模型和数字孪生体的各零件情况进行对比,从而能够直观的了解无人机飞行过程中状态的变化。
在一优选的实施例中,无人机模型和包含有推理后的动态参数的数字孪生体具有区别的表现形式,具体地,区别的表现形式可以是无人机模型和数字孪生体色彩不同,或者是无人机模型和数字孪生体透明度不同。
参照图2,在一优选的实施例中,还包括:
指令获取模块,用于在虚拟3D场景处于显示状态的情况下,获取控制指令;
信号发送模块,用于根据控制指令发送对应的控制信号给无人机。
具体地,预先存储有指令-信号对照表,每一控制指令唯一对应一个控制信号,当获取到控制指令时,将指令-信号对照表内唯一对应该控制指令的控制信号发送给无人机,无人机根据控制信号进行相应的动作。
其中,指令获取模块包括:
位移信息获取子模块,用于在虚拟3D场景处于显示状态的情况下,获取虚拟3D场景内的物体相对位移信息;
具体地,在虚拟3D场景范围内,获取物体相对位移信息,例如肢体动作发生的位移。
筛选子模块,用于根据物体相对位移信息和预设规则筛选出预设数据库内筛选出对应的指令信息,将该指令信息作为控制指令。
根据物体相对位移信息和预设规则筛选出预设数据库内筛选出对应的指令信息包括:
获取物体相对位移信息在一平面上的投影的位移方向,以及物体相对位移信息在位移方向的位移量与产生位移量的时间的比值;
当比值达到预设第一阈值,将位移方向和预设数据库内的指令信息相比对以获取比对相似度;
将超过预设第二阈值的比对相似度从高到低排序以生成第一序列表,筛选出第一序列表中第一排序的指令信息。
在一实施例中,预设第一阈值是预先设定的值,例如1,上述的位移量可以是在位移方向上的位移增量;当比值达到预设第一阈值,即表明在一平面上的投影的位移速度达到预设第一阈值,从而确定为位移动作,然后筛选出最相似的指令信息。
无人机远程操作显示系统还包括单独展示模块,单独展示模块用于获取选择指令,根据选择指令将选择指令所对应的无人机模型零件单独显示,并将数字孪生体相同的零件单独展示。
选择指令可以是输入对应的零件名称来对零件进行选择,或是输入对应的唯一编码,唯一编码预先设定的方式。例如通过选择指令选择无人机的电机零件,则将无人机模型的电机零件单独显示,并将数字孪生体的电机零件单独展示,以便直观地了解参数变化情况。
本申请还公开一种无人机远程操作显示方法,参照图3,具体包括如下步骤:
S1、构建无人机模型,无人机模型根据无人机的各项原始参数构建的;
S2、实时获取无人机的各项静态参数和环境参数,环境参数为无人机飞行时的环境参数;
S3、对环境参数进行分析以生成各项静态参数的动态参数;
S4、将动态参数与当前各项静态参数相比对,当比对结果符合预设条件时,对神经网络模型进行修正;
S5、通过修正后的神经网络模型对环境参数进行重新推理;
S6、创建虚拟3D场景,并将无人机模型和包含有推理后的动态参数的数字孪生体导入虚拟3D场景中显示。
关于无人机远程操作显示方法的具体限定可以参见上文中对于无人机远程操作显示系统的限定,在此不再赘述。上述无人机远程操作显示系统中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图4所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种无人机远程操作显示方法:
构建无人机模型,无人机模型根据无人机的各项原始参数构建的;
实时获取无人机的各项静态参数和环境参数,环境参数为无人机飞行时的环境参数;
对环境参数进行分析以生成各项静态参数的动态参数;
将动态参数与当前各项静态参数相比对,当比对结果符合预设条件时,对神经网络模型进行修正;
通过修正后的神经网络模型对环境参数进行重新推理;
创建虚拟3D场景,并将无人机模型和包含有推理后的动态参数的数字孪生体导入虚拟3D场景中显示。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
构建无人机模型,无人机模型根据无人机的各项原始参数构建的;
实时获取无人机的各项静态参数和环境参数,环境参数为无人机飞行时的环境参数;
对环境参数进行分析以生成各项静态参数的动态参数;
将动态参数与当前各项静态参数相比对,当比对结果符合预设条件时,对神经网络模型进行修正;
通过修正后的神经网络模型对环境参数进行重新推理;
创建虚拟3D场景,并将无人机模型和包含有推理后的动态参数的数字孪生体导入虚拟3D场景中显示。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink) DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述系统的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (8)

1.一种无人机远程操作显示系统,其特征在于,包括:
模型构件模块,用于构建无人机模型,所述无人机模型是根据无人机的各项原始参数构建的;
参数获取模块,用于实时获取无人机的各项静态参数和环境参数,所述环境参数为无人机飞行时的环境参数;
参数分析模块,用于对所述环境参数进行分析以生成各项静态参数的动态参数;
修正模块,用于将动态参数与当前各项静态参数相比对,当比对结果符合预设条件时,对神经网络模型进行修正;
重新推理模块,用于通过修正后的神经网络模型对所述环境参数进行重新推理;
显示模块,用于创建虚拟3D场景,并将无人机模型和包含有推理后的动态参数的数字孪生体导入所述虚拟3D场景中显示。
2.根据权利要求1所述的无人机远程操作显示系统,其特征在于,对所述环境参数进行分析以生成各项静态参数的动态参数包括:
将所述环境参数导入预先训练好的神经网络模型,推理出所述无人机的各项静态参数的动态参数。
3.根据权利要求1所述的无人机远程操作显示系统,其特征在于,所述无人机模型和包含有推理后的动态参数的数字孪生体具有区别的表现形式。
4.根据权利要求1所述的无人机远程操作显示系统,其特征在于,还包括:
指令获取模块,用于在所述虚拟3D场景处于显示状态的情况下,获取控制指令;
信号发送模块,用于根据所述控制指令发送对应的控制信号给所述无人机。
5.根据权利要求4所述的无人机远程操作显示系统,其特征在于,所述指令获取模块包括:
位移信息获取子模块,用于在所述虚拟3D场景处于显示状态的情况下,获取虚拟3D场景内的物体相对位移信息;
筛选子模块,用于根据物体相对位移信息和预设规则筛选出预设数据库内筛选出对应的指令信息,将该指令信息作为控制指令。
6.根据权利要求5所述的无人机远程操作显示系统,其特征在于,所述根据物体相对位移信息和预设规则筛选出预设数据库内筛选出对应的指令信息包括:
获取物体相对位移信息在一平面上的投影的位移方向,以及物体相对位移信息在位移方向的位移量与产生位移量的时间的比值;
当比值达到预设第一阈值,将位移方向和预设数据库内的指令信息相比对以获取比对相似度;
将超过预设第二阈值的比对相似度从高到低排序以生成第一序列表,筛选出第一序列表中第一排序的指令信息。
7.根据权利要求1-6任一所述的无人机远程操作显示系统,其特征在于,还包括:
单独展示模块,用于获取选择指令,根据所述选择指令将所述选择指令所对应的无人机模型零件单独显示,并将数字孪生体相同的零件单独展示。
8.一种无人机远程操作显示方法,其特征在于,包括:
构建无人机模型,所述无人机模型根据无人机的各项原始参数构建的;
实时获取无人机的各项静态参数和环境参数,所述环境参数为无人机飞行时的环境参数;
对所述环境参数进行分析以生成各项静态参数的动态参数;
将动态参数与当前各项静态参数相比对,当比对结果符合预设条件时,对神经网络模型进行修正;
通过修正后的神经网络模型对所述环境参数进行重新推理;
创建虚拟3D场景,并将无人机模型和包含有推理后的动态参数的数字孪生体导入所述虚拟3D场景中显示。
CN202110841148.8A 2021-07-24 一种无人机远程操作显示系统 Active CN113536467B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110841148.8A CN113536467B (zh) 2021-07-24 一种无人机远程操作显示系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110841148.8A CN113536467B (zh) 2021-07-24 一种无人机远程操作显示系统

Publications (2)

Publication Number Publication Date
CN113536467A true CN113536467A (zh) 2021-10-22
CN113536467B CN113536467B (zh) 2024-06-04

Family

ID=

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034788A (ja) * 1999-07-26 2001-02-09 Nippon Telegr & Teleph Corp <Ntt> 画像合成表示方法および装置ならびに画像合成表示プログラムを記録した記録媒体
CN105045277A (zh) * 2015-07-08 2015-11-11 西安电子科技大学 一种多无人机操控信息显示系统
CN106844887A (zh) * 2016-12-29 2017-06-13 深圳市道通智能航空技术有限公司 旋翼无人机的动力学建模方法及装置
CN110851966A (zh) * 2019-10-30 2020-02-28 同济大学 一种基于深度神经网络的数字孪生模型修正方法
CN111061164A (zh) * 2019-12-06 2020-04-24 上海航天控制技术研究所 一种无人机半实物仿真系统与仿真方法
CN211349110U (zh) * 2020-03-24 2020-08-25 深圳臻像科技有限公司 一种基于无人机采集的三维显示系统
CN111581736A (zh) * 2020-06-08 2020-08-25 北京神舟航天软件技术有限公司 一种无人机仿真系统
CN112131661A (zh) * 2020-09-10 2020-12-25 南京大学 一种无人机自主跟拍运动目标的方法
CN113137955A (zh) * 2021-05-13 2021-07-20 江苏航空职业技术学院 一种基于场景建模和虚拟摄影的无人机航测虚拟仿真方法
CN113238571A (zh) * 2021-05-27 2021-08-10 北京三快在线科技有限公司 一种无人机监控系统、方法、装置及存储介质

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034788A (ja) * 1999-07-26 2001-02-09 Nippon Telegr & Teleph Corp <Ntt> 画像合成表示方法および装置ならびに画像合成表示プログラムを記録した記録媒体
CN105045277A (zh) * 2015-07-08 2015-11-11 西安电子科技大学 一种多无人机操控信息显示系统
CN106844887A (zh) * 2016-12-29 2017-06-13 深圳市道通智能航空技术有限公司 旋翼无人机的动力学建模方法及装置
CN110851966A (zh) * 2019-10-30 2020-02-28 同济大学 一种基于深度神经网络的数字孪生模型修正方法
CN111061164A (zh) * 2019-12-06 2020-04-24 上海航天控制技术研究所 一种无人机半实物仿真系统与仿真方法
CN211349110U (zh) * 2020-03-24 2020-08-25 深圳臻像科技有限公司 一种基于无人机采集的三维显示系统
CN111581736A (zh) * 2020-06-08 2020-08-25 北京神舟航天软件技术有限公司 一种无人机仿真系统
CN112131661A (zh) * 2020-09-10 2020-12-25 南京大学 一种无人机自主跟拍运动目标的方法
CN113137955A (zh) * 2021-05-13 2021-07-20 江苏航空职业技术学院 一种基于场景建模和虚拟摄影的无人机航测虚拟仿真方法
CN113238571A (zh) * 2021-05-27 2021-08-10 北京三快在线科技有限公司 一种无人机监控系统、方法、装置及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
蔡志浩;燕如意;王英勋;: "无人机遥感多载荷任务规划方法", 上海交通大学学报, no. 02, pages 267 - 271 *

Similar Documents

Publication Publication Date Title
CN111220159B (zh) 多无人机协同巡检任务的路径优化方法
CN113642633A (zh) 用于对驾驶场景数据进行分类的方法、装置、设备和介质
CN112912920A (zh) 用于2d卷积神经网络的点云数据转换方法和系统
US20210327287A1 (en) Uav path planning method and device guided by the safety situation, uav and storage medium
US20200005100A1 (en) Photo image providing device and photo image providing method
CN109461342B (zh) 一种用于无人驾驶机动车的教学系统及其教学方法
CN111860493A (zh) 一种基于点云数据的目标检测方法及装置
CN112256590B (zh) 虚拟场景有效性判定方法、装置和自动驾驶系统
CN110799983A (zh) 一种地图生成方法、设备、飞行器及存储介质
CN105824249A (zh) 一种飞行器参数显示结果测试方法及测试系统
CN112365549B (zh) 车载相机的姿态校正方法、装置和存储介质及电子装置
US20210166085A1 (en) Object Classification Method, Object Classification Circuit, Motor Vehicle
CN112462797A (zh) 一种利用灰色预测模型的视觉伺服控制方法及系统
CN115355901A (zh) 一种融合动态目标感知的多机联合建图方法
Rojas-Perez et al. Real-time landing zone detection for UAVs using single aerial images
CN113536467A (zh) 一种无人机远程操作显示系统
CN113536467B (zh) 一种无人机远程操作显示系统
CN114830204A (zh) 通过神经网络来训练神经网络
Merizalde et al. Autonomous Navigation Based on Proportional Controller with GPS Setpoint for UAV in External Environments
Kehrer et al. Framework for interactive testing and development of highly automated driving functions
CN115357500A (zh) 自动驾驶系统的测试方法、装置、设备和介质
US11912289B2 (en) Method and device for checking an AI-based information processing system used in the partially automated or fully automated control of a vehicle
CN112394719A (zh) 一种基于采样数据的多运动体系统编队控制装置及方法
Kabore et al. Deep Learning Based Formation Control of Drones
US20230286541A1 (en) System and method for automated road event attribution using regression testing

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant