CN114519816A - 一种数据跟踪采集方法 - Google Patents

一种数据跟踪采集方法 Download PDF

Info

Publication number
CN114519816A
CN114519816A CN202111668104.6A CN202111668104A CN114519816A CN 114519816 A CN114519816 A CN 114519816A CN 202111668104 A CN202111668104 A CN 202111668104A CN 114519816 A CN114519816 A CN 114519816A
Authority
CN
China
Prior art keywords
data
module
dynamic
dimensional
static
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202111668104.6A
Other languages
English (en)
Inventor
蒋华峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Dataku Automation Technology Co ltd
Original Assignee
Suzhou Dataku Automation Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Dataku Automation Technology Co ltd filed Critical Suzhou Dataku Automation Technology Co ltd
Priority to CN202111668104.6A priority Critical patent/CN114519816A/zh
Publication of CN114519816A publication Critical patent/CN114519816A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D21/00Measuring or testing not otherwise provided for
    • G01D21/02Measuring two or more variables by means not covered by a single other subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开的属于三维全景虚拟现实技术领域,具体为一种数据跟踪采集方法,包括以下操作步骤:S1:通过将采集模块放入远程机器人内,通过机器人的移动,从而使采集模块进行动态和静态采集,S2:当采集模块采集到动态和静态数据后,将采集到的数据传输给存储模块进行存储,S3:存储模块将数据传输给静态模型生成模块、三维定位模块和动态模型生成模块,S4:静态模型生成模块对采集模块采集的静态数据进行生成,S5:三维定位模块将远程机器人采集的定位数据和采集模块采集的三维空间数据进行结合,生成虚拟三维场景,本发明达到实时对周边环境进行数据更新和采集,进而使虚拟环境更加真实和饱满的效果。

Description

一种数据跟踪采集方法
技术领域
本发明涉及三维全景虚拟现实技术领域,具体为一种数据跟踪采集方法。
背景技术
三维全景虚拟现实,也称实景虚拟,是基于全景图像的真实场景虚拟现实技术,全景是把相机环360度拍摄的一组或多组照片拼接成一个全景图像,通过计算机技术实现全方位互动式观看的真实场景还原展示方式。
现有的三维全景虚拟现实技术不能对动态物体进行追踪采集,导致不能对动态物体进行模拟,造成三维全景内只存在静态视野,无法对现实采集的数据进行身临其境,为此,我们提出一种数据跟踪采集方法。
发明内容
鉴于上述和/或现有一种数据跟踪采集方法中存在的问题,提出了本发明。
因此,本发明的目的是提供一种数据跟踪采集方法,视觉场景融合模块通过将静态模型生成模块、三维定位模块和动态模型生成模块生成的数据进行融合,构建出三维真实虚拟场景,且通过采集模块,实时对周边环境进行数据更新和采集,能够解决上述提出现有的问题。
为解决上述技术问题,根据本发明的一个方面,本发明提供了如下技术方案:
一种数据跟踪采集方法,其包括:以下操作步骤:
S1:通过将采集模块放入远程机器人内,通过机器人的移动,从而使采集模块进行动态和静态采集;
S2:当采集模块采集到动态和静态数据后,将采集到的数据传输给存储模块进行存储;
S3:存储模块将数据传输给静态模型生成模块、三维定位模块和动态模型生成模块;
S4:静态模型生成模块对采集模块采集的静态数据进行生成;
S5:三维定位模块将远程机器人采集的定位数据和采集模块采集的三维空间数据进行结合,生成虚拟三维场景;
S6:动态模型生成模块对采集模块采集的动态数据进行生成;
S7:视觉场景融合模块结合静态模型生成模块、三维定位模块和动态模型生成模块生成的数据进行融合,使静态数据与动态数据填充至虚拟三维场景内,形成精准的虚拟场景;
S8:视觉场景融合模块将融合好后的虚拟场景数据通过传输模块传输给显示终端进行显示;
S9:显示终端可通过屏幕和VR眼镜对虚拟场景进行观看。
作为本发明所述的一种数据跟踪采集方法的一种优选方案,其中:所述采集模块包括红外相机、深度相机、视觉里程计、彩色相机、三维相机、激光测距仪和温湿度传感器。
作为本发明所述的一种数据跟踪采集方法的一种优选方案,其中:所述红外相机获取温度图像数据,并通过数据线将该数据发送给视觉场景融合模块,所述深度相机获取深度图像数据,并通过数据线将该数据发送给视觉场景融合模块。
作为本发明所述的一种数据跟踪采集方法的一种优选方案,其中:所述视觉里程计对动态物体进行动态读取,并将动态轨迹和移动数据传输给视觉场景融合模块,所述彩色相机获得彩色图像数据,并通过数据线将该数据发送给视觉场景融合模块。
作为本发明所述的一种数据跟踪采集方法的一种优选方案,其中:所述三维相机获取空间的点阵分布式数据,并通过数据线将该数据发送给视觉场景融合模块,激光测距仪获取距离测距目标点的距离,并通过数据线将该数据发送给视觉场景融合模块。
作为本发明所述的一种数据跟踪采集方法的一种优选方案,其中:所述温湿度传感器获取传感器周边的温湿度数据,并通过数据线将该数据发送给视觉场景融合模块。
作为本发明所述的一种数据跟踪采集方法的一种优选方案,其中:所述静态模型生成模块通过红外相机、深度相机、彩色相机和激光测距仪来采集周边静态环境数据,并将数据生成静态模型发送给视觉场景融合模块进行融合。
作为本发明所述的一种数据跟踪采集方法的一种优选方案,其中:所述三维定位模块通过三维相机和机器人自带的定位模块来对周边环境进行三维成像,并将数据传输给视觉场景融合模块进行融合。
作为本发明所述的一种数据跟踪采集方法的一种优选方案,其中:所述动态模型生成模块通过视觉里程计和温湿度传感器来获取动态物体的轨迹和移动数据,且获取四周环境温湿度的变化,并将采集的动态数据实时传输给视觉场景融合模块。
作为本发明所述的一种数据跟踪采集方法的一种优选方案,其中:所述视觉场景融合模块通过将静态模型生成模块、三维定位模块和动态模型生成模块生成的数据进行融合,构建出三维真实虚拟场景。
与现有技术相比:视觉里程计对动态物体进行动态读取,并将动态轨迹和移动数据传输给视觉场景融合模块,从而使视觉里程计通过视觉传感器对动态物体进行追踪采集,使采集到的动态数据传输给动态模型生成模块进行动态轨迹分析和生成,从而达到生成动态物体的移动轨迹,使动态物体能够在虚拟环境中移动,增加虚拟环境的真实性的效果;
温湿度传感器获取传感器周边的温湿度数据,并通过数据线将该数据发送给视觉场景融合模块,通过温湿度传感器能够对动态的温湿度变化进行采集,并将温湿度的变化复制到三维环境中,进而达到身临其境的效果;
通过三维相机能够对虚拟环境进行三维环境生成,并将动态和静态物体融合进三维环境,进而达到增加虚拟环境的真实性;
视觉场景融合模块通过将静态模型生成模块、三维定位模块和动态模型生成模块生成的数据进行融合,构建出三维真实虚拟场景,且通过采集模块,实时对周边环境进行数据更新和采集,进而使虚拟环境更加真实和饱满。
附图说明
图1为本发明提供的整体系统结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明的实施方式作进一步地详细描述。
本发明提供一种数据跟踪采集方法,具有实时对周边环境进行数据更新和采集,进而使虚拟环境更加真实和饱满的优点,请参阅图1,包括采集模块、存储模块、静态模型生成模块、三维定位模块、动态模型生成模块、视觉场景融合模块、传输模块和显示终端;
采集模块能够对现实环境进行静态和动态数据采集,通过采集模块能够对动态数据进行追踪采集,使动态数据呈现三维轨迹数据,进而达到方便对动态物体的移动轨迹进行三维生成的效果,采集模块包括红外相机、深度相机、视觉里程计、彩色相机、三维相机、激光测距仪和温湿度传感器,红外相机获取温度图像数据,并通过数据线将该数据发送给视觉场景融合模块,从而将获取的温度图像数据融合到三维真实虚拟场景,进而达到增加虚拟环境的真实性,深度相机获取深度图像数据,并通过数据线将该数据发送给视觉场景融合模块,从而将获取的深度图像数据融合到三维真实虚拟场景,进而达到增加虚拟环境的真实性,视觉里程计对动态物体进行动态读取,并将动态轨迹和移动数据传输给视觉场景融合模块,从而使视觉里程计通过视觉传感器对动态物体进行追踪采集,使采集到的动态数据传输给动态模型生成模块进行动态轨迹分析和生成,从而达到生成动态物体的移动轨迹,使动态物体能够在虚拟环境中移动,增加虚拟环境的真实性的效果,彩色相机获得彩色图像数据,并通过数据线将该数据发送给视觉场景融合模块,通过彩色相机能够赋予静态物体和动态物体色彩,增加生成的虚拟环境的质感,三维相机获取空间的点阵分布式数据,并通过数据线将该数据发送给视觉场景融合模块,通过三维相机能够对虚拟环境进行三维环境生成,并将动态和静态物体融合进三维环境,进而达到增加虚拟环境的真实性,激光测距仪获取距离测距目标点的距离,并通过数据线将该数据发送给视觉场景融合模块,通过激光测距仪能够对静态目标的距离进行采集,并将采集的距离排序到三维环境中,进而达到增加虚拟环境的真实性的效果,温湿度传感器获取传感器周边的温湿度数据,并通过数据线将该数据发送给视觉场景融合模块,通过温湿度传感器能够对动态的温湿度变化进行采集,并将温湿度的变化复制到三维环境中,进而达到身临其境的效果;
存储模块能够对采集模块采集的数据进行存储,防止采集数据丢失,且对采集的数据进行传输,使静态模型生成模块、三维定位模块和动态模型生成模块接收;
静态模型生成模块连接存储模块,静态模型生成模块通过红外相机、深度相机、彩色相机和激光测距仪来采集周边静态环境数据,并将数据生成静态模型发送给视觉场景融合模块进行融合,从而使静态数据呈现在三维环境中,增加虚拟环境的真实性;
三维定位模块连接存储模块,三维定位模块通过三维相机和机器人自带的定位模块来对周边环境进行三维成像,并将数据传输给视觉场景融合模块进行融合,从而对虚拟环境进行三维生成,使观看这身临其境;
动态模型生成模块连接存储模块,动态模型生成模块通过视觉里程计和温湿度传感器来获取动态物体的轨迹和移动数据,且获取四周环境温湿度的变化,并将采集的动态数据实时传输给视觉场景融合模块,从而对动态物体进行追踪采集,使虚拟环境中的动态物体与真实环境中的动态物体移动轨迹一致,进而达到增加虚拟环境的真实度,且能够对动态物体进行一比一复制的效果;
视觉场景融合模块连接静态模型生成模块、三维定位模块和动态模型生成模块,视觉场景融合模块通过将静态模型生成模块、三维定位模块和动态模型生成模块生成的数据进行融合,构建出三维真实虚拟场景,且通过采集模块,实时对周边环境进行数据更新和采集,进而使虚拟环境更加真实和饱满;
传输模块连接显示终端,通过传输模块能够对视觉场景融合模块的数据进行传输,进而使虚拟环境在显示终端上生成,便于观看;
显示终端连接传输模块,显示终端包括显示屏和VR眼镜,通过传输模块能够将视觉场景融合模块生成的三维虚拟环境在显示终端进行生成,观看者能够通过显示终端对现实环境进行实时观看,进而达到增加虚拟环境的真实性。
在具体使用时,本领域技术人员将通过将采集模块放入远程机器人内,通过机器人的移动,从而使采集模块进行动态和静态采集,当采集模块采集到动态和静态数据后,将采集到的数据传输给存储模块进行存储,存储模块将数据传输给静态模型生成模块、三维定位模块和动态模型生成模块,静态模型生成模块对采集模块采集的静态数据进行生成,三维定位模块将远程机器人采集的定位数据和采集模块采集的三维空间数据进行结合,生成虚拟三维场景,动态模型生成模块对采集模块采集的动态数据进行生成,视觉场景融合模块结合静态模型生成模块、三维定位模块和动态模型生成模块生成的数据进行融合,使静态数据与动态数据填充至虚拟三维场景内,形成精准的虚拟场景,视觉场景融合模块将融合好后的虚拟场景数据通过传输模块传输给显示终端进行显示,显示终端可通过屏幕和VR眼镜对虚拟场景进行观看。
虽然在上文中已经参考实施方式对本发明进行了描述,然而在不脱离本发明的范围的情况下,可以对其进行各种改进并且可以用等效物替换其中的部件。尤其是,只要不存在结构冲突,本发明所披露的实施方式中的各项特征均可通过任意方式相互结合起来使用,在本说明书中未对这些组合的情况进行穷举性的描述仅仅是出于省略篇幅和节约资源的考虑。因此,本发明并不局限于文中公开的特定实施方式,而是包括落入权利要求的范围内的所有技术方案。

Claims (10)

1.一种数据跟踪采集方法,其特征在于:包括以下操作步骤:
S1:通过将采集模块放入远程机器人内,通过机器人的移动,从而使采集模块进行动态和静态采集;
S2:当采集模块采集到动态和静态数据后,将采集到的数据传输给存储模块进行存储;
S3:存储模块将数据传输给静态模型生成模块、三维定位模块和动态模型生成模块;
S4:静态模型生成模块对采集模块采集的静态数据进行生成;
S5:三维定位模块将远程机器人采集的定位数据和采集模块采集的三维空间数据进行结合,生成虚拟三维场景;
S6:动态模型生成模块对采集模块采集的动态数据进行生成;
S7:视觉场景融合模块结合静态模型生成模块、三维定位模块和动态模型生成模块生成的数据进行融合,使静态数据与动态数据填充至虚拟三维场景内,形成精准的虚拟场景;
S8:视觉场景融合模块将融合好后的虚拟场景数据通过传输模块传输给显示终端进行显示;
S9:显示终端可通过屏幕和VR眼镜对虚拟场景进行观看。
2.根据权利要求1所述的一种数据跟踪采集方法,其特征在于,所述采集模块包括红外相机、深度相机、视觉里程计、彩色相机、三维相机、激光测距仪和温湿度传感器。
3.根据权利要求2所述的一种数据跟踪采集方法,其特征在于,所述红外相机获取温度图像数据,并通过数据线将该数据发送给视觉场景融合模块,所述深度相机获取深度图像数据,并通过数据线将该数据发送给视觉场景融合模块。
4.根据权利要求2所述的一种数据跟踪采集方法,其特征在于,所述视觉里程计对动态物体进行动态读取,并将动态轨迹和移动数据传输给视觉场景融合模块,所述彩色相机获得彩色图像数据,并通过数据线将该数据发送给视觉场景融合模块。
5.根据权利要求2所述的一种数据跟踪采集方法,其特征在于,所述三维相机获取空间的点阵分布式数据,并通过数据线将该数据发送给视觉场景融合模块,激光测距仪获取距离测距目标点的距离,并通过数据线将该数据发送给视觉场景融合模块。
6.根据权利要求2所述的一种数据跟踪采集方法,其特征在于,所述温湿度传感器获取传感器周边的温湿度数据,并通过数据线将该数据发送给视觉场景融合模块。
7.根据权利要求1所述的一种数据跟踪采集方法,其特征在于,所述静态模型生成模块通过红外相机、深度相机、彩色相机和激光测距仪来采集周边静态环境数据,并将数据生成静态模型发送给视觉场景融合模块进行融合。
8.根据权利要求1所述的一种数据跟踪采集方法,其特征在于,所述三维定位模块通过三维相机和机器人自带的定位模块来对周边环境进行三维成像,并将数据传输给视觉场景融合模块进行融合。
9.根据权利要求1所述的一种数据跟踪采集方法,其特征在于,所述动态模型生成模块通过视觉里程计和温湿度传感器来获取动态物体的轨迹和移动数据,且获取四周环境温湿度的变化,并将采集的动态数据实时传输给视觉场景融合模块。
10.根据权利要求1所述的一种数据跟踪采集方法,其特征在于,所述视觉场景融合模块通过将静态模型生成模块、三维定位模块和动态模型生成模块生成的数据进行融合,构建出三维真实虚拟场景。
CN202111668104.6A 2021-12-31 2021-12-31 一种数据跟踪采集方法 Withdrawn CN114519816A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111668104.6A CN114519816A (zh) 2021-12-31 2021-12-31 一种数据跟踪采集方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111668104.6A CN114519816A (zh) 2021-12-31 2021-12-31 一种数据跟踪采集方法

Publications (1)

Publication Number Publication Date
CN114519816A true CN114519816A (zh) 2022-05-20

Family

ID=81596515

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111668104.6A Withdrawn CN114519816A (zh) 2021-12-31 2021-12-31 一种数据跟踪采集方法

Country Status (1)

Country Link
CN (1) CN114519816A (zh)

Similar Documents

Publication Publication Date Title
CN207117844U (zh) 多vr/ar设备协同系统
US10560687B2 (en) LED-based integral imaging display system as well as its control method and device
CN104380347B (zh) 视频处理设备、视频处理方法和视频处理系统
JP2012084146A (ja) 拡張現実(ar)を提供するユーザ装置及び方法
CN106023241A (zh) 影像处理装置、影像处理方法及影像处理系统
CN105393158A (zh) 共享的和私有的全息物体
CN104331929A (zh) 基于视频地图与增强现实的犯罪现场还原方法
Oskiper et al. Augmented reality binoculars
CN101581874B (zh) 基于多摄像机采集的远程沉浸协同工作装置
CN110738895A (zh) 刑事现场勘查实景vr综合训练系统
CN103517061B (zh) 一种终端设备的显示控制方法及装置
EP2685707A1 (en) System for spherical video shooting
CN102446048A (zh) 信息处理设备以及信息处理方法
CN105894584A (zh) 一种三维沉浸式环境下与现实环境交互的方法和装置
CN112270702A (zh) 体积测量方法及装置、计算机可读介质和电子设备
GB2519744A (en) Augmented reality systems and methods
CN109978945B (zh) 一种增强现实的信息处理方法和装置
CN114584702A (zh) 一种拍摄可见光和热成像重叠图的方法及系统
CN114519816A (zh) 一种数据跟踪采集方法
CN101655747B (zh) 一种三维立体鼠标
CN111242107B (zh) 用于设置空间中的虚拟对象的方法和电子设备
CN112053444B (zh) 基于光通信装置叠加虚拟对象的方法和相应的电子设备
CN112312041B (zh) 基于拍摄的图像校正方法、装置、电子设备及存储介质
Yang et al. Seeing as it happens: Real time 3D video event visualization
CN104062758A (zh) 图像显示的方法和显示设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20220520

WW01 Invention patent application withdrawn after publication