CN115543093A - 基于vr技术交互实体运动的防碰撞系统 - Google Patents

基于vr技术交互实体运动的防碰撞系统 Download PDF

Info

Publication number
CN115543093A
CN115543093A CN202211479648.2A CN202211479648A CN115543093A CN 115543093 A CN115543093 A CN 115543093A CN 202211479648 A CN202211479648 A CN 202211479648A CN 115543093 A CN115543093 A CN 115543093A
Authority
CN
China
Prior art keywords
collision
area
participants
entity
different
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211479648.2A
Other languages
English (en)
Other versions
CN115543093B (zh
Inventor
艾得闻
王鹤
张依白
王天杨
陈松灵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Anji Wuzhi Technology Co ltd
Original Assignee
Anji Yuanyuan Institute Of Cosmic Hybrid Reality Technology
Zhejiang Anji Wuzhi Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anji Yuanyuan Institute Of Cosmic Hybrid Reality Technology, Zhejiang Anji Wuzhi Technology Co ltd filed Critical Anji Yuanyuan Institute Of Cosmic Hybrid Reality Technology
Priority to CN202211479648.2A priority Critical patent/CN115543093B/zh
Publication of CN115543093A publication Critical patent/CN115543093A/zh
Application granted granted Critical
Publication of CN115543093B publication Critical patent/CN115543093B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B31/00Predictive alarm systems characterised by extrapolation or other computation using updated historic data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了基于VR技术交互实体运动的防碰撞系统,涉及虚拟现实技术领域,解决了不能根据实际的运动过程中,对参与人员周边的虚拟场景进行颜色标识,同时也并不能对多组不同参与人员进行限制,对活动范围进行确认,生成不同颜色标识的区域,避免意外碰撞发生的技术问题,使虚拟场景划分为多个待碰撞区域,查看对应的待碰撞区域内是否存在多个不同的参与人员,再根据非人实体以及未知实体的具体位置,生成红色区域,再根据不同参与人员的定位信息,使此定位信息作为中心点,生成辐射范围圈,根据辐射范围圈之间的交叉区域,进行不同颜色的标识,提升参与人员的整体使用体验,并同时根据颜色区域,进行避让或者绕道,避免碰撞事故的发生。

Description

基于VR技术交互实体运动的防碰撞系统
技术领域
本发明属于虚拟现实技术领域,具体是基于VR技术交互实体运动的防碰撞系统。
背景技术
VR技术是基于虚拟现实技术领域,通过将交互技术、三维立体成像技术及传感技术等融合发展,从而增强虚拟现实技术的沉浸感、交互性及扩展用户的想象力。自2016年开始,VR设备作为虚拟现实的核心硬件,走进主流消费市场,并随着虚拟现实技术应用场景的扩展,不断推陈出新。尽管三维图形的显示技术已经较为成熟,但实时动态交互生成及虚拟现实硬件的大众化发展,并未实现。
头戴式VR设备多通过使用Unity3D实现VR技术交互,可以对转场时摄像机设置、凝视准心动态交互、UI交互方式、视线偏离提示等效果进行设计与开发。
专利公开号为CN112121405A的发明公开了一种基于VR虚拟技术的游戏设备控制系统,包括服务器和在服务器上运行的VR虚拟系统,服务器外接终端设备,终端设备包含VR头显设备和运动穿戴设备,VR虚拟系统与终端设备之间分别通过安全信号传输单元、语音传输单元和数据传输单元实现信息交互,且运动穿戴设备上按照前后左右四个方位依次设置红外测距传感器一、红外测距传感器二、红外测距传感器三和红外测距传感器四并逐一与安全信号传输单元电连接,对应体验者的前后左右方向实施与障碍物之间的距离检测。本发明较好的帮助体验者来感知外部的环境,对体验者的真实运动进行防碰撞保护,降低体验者受伤的可能性,从而提高游戏体验感。
现有的基于VR实体的防碰撞系统在具体操控过程中,并不能根据实际的运动过程中,对参与人员周边的虚拟场景进行颜色标识,同时也并不能对多组不同参与人员进行限制,对活动范围进行确认,生成不同颜色标识的区域,避免意外碰撞发生。
发明内容
本发明旨在至少解决现有技术中存在的技术问题之一;为此,本发明提出了基于VR技术交互实体运动的防碰撞系统,用于解决不能根据实际的运动过程中,对参与人员周边的虚拟场景进行颜色标识,同时也并不能对多组不同参与人员进行限制,对活动范围进行确认,生成不同颜色标识的区域,避免意外碰撞发生的技术问题。
为实现上述目的,根据本发明的第一方面的实施例提出基于VR技术交互实体运动的防碰撞系统,包括环境建设端、参数获取端以及碰撞管控中心;
所述碰撞管控中心包括实体识别单元、存储单元、碰撞区域分析单元、模型分区单元以及预警单元;
所述环境建设端,根据外部人员手动测量的参数数据,对虚拟场景进行建设;
所述实体识别单元,用于对非人实体、对应用户以及未知实体进行识别,并将识别参数传输至碰撞区域分析单元内;
所述参数获取端,用于对参与人员的参数数据进行采集,并将所采集的参数数据传输至存储单元内进行存储;
所述模型分区单元,按照特定的分割面积对所建设的虚拟场景进行分区处理,使原始的虚拟场景划分为多个待碰撞区域;
所述碰撞区域分析单元,对参与人员的定位信息进行获取,根据参与人员的移动路径,实时对参与人员周边环境进行不同颜色显示,并根据不同参与人员的移动路径,生成预碰撞信号,通过预碰撞信号警示参与人员。
优选的,所述参数获取端对参与人员的参数数据进行采集的具体方式为:
通过外部的适应设备获取所述参与人员的个人身体参数,其中身体参数包括身高以及身宽;
再对此类参与人员的正常行驶速度进行获取,其中,不同的参数数据均采用不同的参与人员编号进行捆绑,将捆绑完毕后的参数数据传输至存储单元内进行存储。
优选的,所述模型分区单元对所建设的虚拟场景进行分区处理的具体方式为:
将特定的分割面积标记为FG,其中分割面积FG的具体取值由操作人员根据经验拟定;
确定虚拟场景的涉及范围,并通过分割面积FG对虚拟场景的涉及范围进行依次分割,得到若干个分割分区,其中,当涉及范围的边缘区域不足以进行划分时,则直接将对应的边缘区域随机列属于相邻的分割分区,并将划分完毕后的不同分割分区标记为FQ,其中FQ=1、2、……、n。
优选的,所述碰撞区域分析单元对参与人员周边环境进行不同颜色显示的具体方式为:
S1、将不同参与人员的定位信息标记为DWk,其中k代表不同的参与人员,根据定位信息DWk以及分割分区标记FQ,查看单组分割分区FQ内是否存在多组定位信息DWk,若存在,执行下一步骤,若不存在,继续监视;
S2、以定位信息DWk为中心点,以半径为2.5米作为辐射范围,得到属于不同参与人员的辐射圈,查看辐射圈内是否非人实体以及未知实体,并根据非人实体以及未知实体的位置,将辐射圈内部的指定位置标记为红色区域,查看不同参与人员的辐射圈是否存在交叉区域,若存在,执行下一步骤,若不存在,继续对属于同一分区的定位信息DWk进行监视;
S3、将交叉区域进行颜色标识,使交叉区域标识为红色区域,再获取交叉区域的两处中心点Z1以及Z2,依次将此Z1以及Z2与中心点DWk进行连线处理,便得到属于交叉辐射圈的对称面积区域,并将此对称面积区域标记为黄色区域,其中黄色区域涵盖红色区域,将对称面积区域剔除红色区域便是黄色区域,红色区域为障碍物区域,黄色区域为预碰撞区域,将不同颜色的区域显示于参与人员所佩戴的VR眼镜内;
S4、根据定位信息DWk以及行驶路径,对参与人员的行驶路线进行获取,并进行延伸,查看是否存在交叉点,若存在,执行步骤S5,若不存在,则不进行处理;
S5、获取该交叉点与不同中心点DWk之间的距离参数,并将其标记为JLCk,再根据中心点DWk获取属于不同参与人员的正常行驶速度,并将其标记为SDk,采用
Figure DEST_PATH_IMAGE001
获取得到不同参与人员行驶至交叉点的时长Tk,查看对应参与人员的时长Tk是否一致,若一致,生成预碰撞信号,并将预碰撞信号传输至预警单元内,并获取对应人员的身宽,通过身宽确认红色区域范围,进行警示,反之,不进行任何处理。
优选的,所述预警单元,对预碰撞信号进行接收,并通过所佩戴的设备进行预警处理,警示参与人员。
与现有技术相比,本发明的有益效果是:对所建设的虚拟场景进行分区处理,使虚拟场景划分为多个待碰撞区域,再对参与人员的定位信息进行获取,查看对应的待碰撞区域内是否存在多个不同的参与人员,再根据非人实体以及未知实体的具体位置,生成红色区域,再根据不同参与人员的定位信息,使此定位信息作为中心点,生成对应的辐射范围圈,根据辐射范围圈之间的交叉区域,进行不同颜色的标识,以此提升参与人员的整体使用体验,并同时根据颜色区域,进行避让或者绕道,避免碰撞事故的发生;
再根据定位信息以及行驶路径,对参与人员的行驶路线进行获取,并进行延伸,查看是否存在交叉点,对行驶时长进行获取,根据具体的行驶时长,生成预碰撞信号,根据预碰撞信号,对参与人员进行警示,进一步避免碰撞事故发生。
附图说明
图1为本发明原理框架示意图;
图2为本发明原理流程示意图。
具体实施方式
下面将结合实施例对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
请参阅图1,本申请提供了基于VR技术交互实体运动的防碰撞系统,包括环境建设端、参数获取端以及碰撞管控中心;
所述环境建设端输出端与碰撞管控中心输入端电性连接,所述参数获取端输出端与碰撞管控中心输入端电性连接;
所述碰撞管控中心包括实体识别单元、存储单元、碰撞区域分析单元、模型分区单元以及预警单元;
所述实体识别单元、存储单元以及模型分区单元输出端均与碰撞区域分析单元输入端电性连接,所述碰撞区域分析单元输出端与预警单元输入端电性连接;
所述环境建设端,根据外部人员手动测量的参数数据,对虚拟场景进行建设,并将所建设的虚拟场景传输至模型分区单元内,具体的:在测量的过程中注重提升模型制作精度,采用激光测距仪、卡尺等相关设备,首先完成对窄小规则物体的测量,手动测量、多次测量并记录卡尺读数;在进行物理空间精度测量时,利用手持测距仪所含红外线的精准度,将测量目标的相关数据精确且实时的记录并展示在测距仪的显示屏幕上,此外,采用多次测量、分段测量等;
多种形式记录物体尺寸等相关数据,达到与物理空间坐标比例相一致,进而实现搭建与物理空间精准1:1匹配的三维空间,精度达到毫米级别;
所述实体识别单元,用于对虚拟场景中所存在的非人实体、对应用户以及未知实体进行识别,并将识别参数传输至碰撞区域分析单元内,具体的:虚拟空间内中存在非人实体,其中包括不可移动非人实体与可移动非人实体,通过对场景中目标物体的位姿估计,基于两步法实现对物体的分割:首先提取目标物体的关键点,获取各个关键点在坐标系中的位置坐标,快速的确定场景中物体的位置信息;其次通过挖掘各个关键点的深度姿态信息,姿态信息包括俯仰角、翻滚角、偏航角,从三维角度得到目标物体各个关键点的深层信息及目标对象的旋转角度信息;最后,根据采集的数据与建立的目标对象模板进行比对,完成对位姿估计结果的精确修正,环境照相机在环境内存在多位用户的情况下,能够通过采集估计人体姿态关节点坐标的voxel pose(多视角3D人体姿态估算),同步识别多位用户及每位用户的17个关节点的位置信息,通过优化最小化投影误差,同时参照相机参数与三维人体模型,并在三维人体模型上添加平滑性与人体测量学约束,捕捉多实体位姿数据,将数据传输至数据中心,监测环境中除了经过深度模型训练的非人实体与佩戴VR设备的用户之外,对于突发性进入环境的实体,通过Faster-RCNN算法高速抽取未知实体特征信息,并将特征数据整合在一个深度神经网络模型中,在全连接层判定目标类别,获得所检测实体的最终精确位置;
所述参数获取端,用于对参与人员的参数数据进行采集,并将所采集的参数数据传输至存储单元内进行存储,进行采集的具体方式为:
通过外部的适应设备获取所述参与人员的个人身体参数,其中身体参数包括身高以及身宽,其中适应设备为外部的测量仪器,由操作人员自行操作;
再对此类参与人员的正常行驶速度进行获取,其中,不同的参数数据均采用不同的参与人员编号进行捆绑,将捆绑完毕后的参数数据传输至存储单元内进行存储,所获取的行驶速度是为了后续对行驶路线是否存在交叉情况进行判断。
所述模型分区单元,按照特定的分割面积对所建设的虚拟场景进行分区处理,使原始的虚拟场景划分为多个待碰撞区域,其中进行具体分区处理的具体方式为:
将特定的分割面积标记为FG,其中分割面积FG的具体取值由操作人员根据经验拟定;
确定虚拟场景的涉及范围,并通过分割面积FG对虚拟场景的涉及范围进行依次分割,得到若干个分割分区,其中,当涉及范围的边缘区域不足以进行划分时,则直接将对应的边缘区域随机列属于相邻的分割分区(进行分割时,边缘区域所涵盖的面积小于分割分区,则代表此边缘区域不足以进行分割,便将对应的边缘区域根据分割分区的分割路径对边缘区域进行分割,将所分割的边缘区域随机划分至对应的分割分区内),并将划分完毕后的不同分割分区标记为FQ,其中FQ=1、2、……、n;
具体的,假设虚拟场景面积为100m2,假设分割面积为5m×5m,便将虚拟场景分割为4个待碰撞区域,具体的虚拟场景面积以及分割面积均根据实际情况认定。
所述碰撞区域分析单元,对参与人员的定位信息进行获取,根据参与人员的移动路径,实时对参与人员周边环境进行不同颜色显示,并根据不同参与人员的移动路径,生成预碰撞信号,通过预碰撞信号警示参与人员,其中进行不同颜色显示的具体方式为:
S1、将不同参与人员的定位信息标记为DWk,其中k代表不同的参与人员,根据定位信息DWk以及分割分区标记FQ,查看单组分割分区FQ内是否存在多组定位信息DWk,若存在,执行下一步骤,若不存在,继续监视;
S2、以定位信息DWk为中心点,以半径为2.5米作为辐射范围,得到属于不同参与人员的辐射圈,查看辐射圈内是否非人实体以及未知实体,并根据非人实体以及未知实体的位置,将辐射圈内部的指定位置标记为红色区域(红色区域便是障碍物区域,供参与人员进行查看,警示该参与人员禁止驶入此区域),查看不同参与人员的辐射圈是否存在交叉区域,若存在,执行下一步骤,若不存在,继续对属于同一分区的定位信息DWk进行监视;
S3、将交叉区域进行颜色标识,使交叉区域标识为红色区域,再获取交叉区域的两处中心点Z1以及Z2,依次将此Z1以及Z2与中心点DWk进行连线处理,便得到属于交叉辐射圈的对称面积区域,并将此对称面积区域标记为黄色区域,其中黄色区域涵盖红色区域,将对称面积区域剔除红色区域便是黄色区域,红色区域为障碍物区域,黄色区域为预碰撞区域,将不同颜色的区域显示于参与人员所佩戴的VR眼镜内;
S4、根据定位信息DWk以及行驶路径,对参与人员的行驶路线进行获取,并进行延伸,查看是否存在交叉点,若存在,执行步骤S5,若不存在,则不进行处理;
S5、获取该交叉点与不同中心点DWk之间的距离参数,并将其标记为JLCk,再根据中心点DWk从存储单元内获取属于不同参与人员的正常行驶速度,并将其标记为SDk,采用
Figure 35259DEST_PATH_IMAGE001
获取得到不同参与人员行驶至交叉点的时长Tk,查看对应参与人员的时长Tk是否一致,若一致,生成预碰撞信号,并将预碰撞信号传输至预警单元内,并从存储单元内获取对应人员的身宽,通过身宽确认红色区域范围,进行警示,反之,不进行任何处理。
所述预警单元,对预碰撞信号进行接收,并通过所佩戴的设备进行预警处理,警示参与人员,避免发生碰撞事故。
具体的,如图2所示
基于VR技术交互实体运动的防碰撞系统的具体操作方式为:
通过环境建设端,将虚拟场景进行建设,所建设的虚拟场景按照实际场景进行一比一建模;
再通过实体识别单元,将虚拟场景中所存在的非人实体、对应用户以及未知实体进行识别,并将识别参数传输至碰撞区域分析单元内,模型分区单元再按照特定的分割面积对所建设的虚拟场景进行分区处理,得到多个待碰撞区域,并将所生成的待碰撞区域传输至碰撞区域分析单元内;
碰撞区域分析单元根据不同参与人员的定位信息,查看对应的参与人员是否位于同一待碰撞区域内,若属于同一分区,查看对应的辐射圈是否存在交叉情况,若不属于同一分区,则对参与人员的定位信息继续监视,若参与人员的辐射圈存在交叉情况,并根据非人实体以及未知实体的位置,将辐射圈内部的指定位置标记为红色区域,再根据辐射圈的辐射范围,对不同的交叉区域进行颜色标识,若并不存在交叉情况,则对属于同一分区的参与人员进行监视,查看辐射圈是否交叉;
所述碰撞区域分析单元再对属于同一区域的参与人员进行速度处理,查看参与人员是否会在行驶过程中的行驶路径是否存在交叉情况,若存在交叉点,根据距离参数获取对应的行驶时长Tk,若行驶时长Tk一致,则会造成参与人员之间的碰撞,并生成对应的预碰撞信号,若不存在交叉点,则直接结束操作;
再根据所生成的预碰撞信号,对参与人员进行警示,进一步避免碰撞事故发生。
上述公式中的部分数据均是去除量纲取其数值计算,公式是由采集的大量数据经过软件模拟得到最接近真实情况的一个公式;公式中的预设参数和预设阈值由本领域的技术人员根据实际情况设定或者通过大量数据模拟获得。
本发明的工作原理:对所建设的虚拟场景进行分区处理,使虚拟场景划分为多个待碰撞区域,再对参与人员的定位信息进行获取,查看对应的待碰撞区域内是否存在多个不同的参与人员,再根据非人实体以及未知实体的具体位置,生成红色区域,再根据不同参与人员的定位信息,使此定位信息作为中心点,生成对应的辐射范围圈,根据辐射范围圈之间的交叉区域,进行不同颜色的标识,以此提升参与人员的整体使用体验,并同时根据颜色区域,进行避让或者绕道,避免碰撞事故的发生;
再根据定位信息以及行驶路径,对参与人员的行驶路线进行获取,并进行延伸,查看是否存在交叉点,对行驶时长进行获取,根据具体的行驶时长,生成预碰撞信号,根据预碰撞信号,对参与人员进行警示,进一步避免碰撞事故发生。
以上实施例仅用以说明本发明的技术方法而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方法进行修改或等同替换,而不脱离本发明技术方法的精神和范围。

Claims (5)

1.基于VR技术交互实体运动的防碰撞系统,其特征在于,包括环境建设端、参数获取端以及碰撞管控中心;
所述碰撞管控中心包括实体识别单元、存储单元、碰撞区域分析单元、模型分区单元以及预警单元;
所述环境建设端,根据外部人员手动测量的参数数据,对虚拟场景进行建设,并将所建设的虚拟场景传输至模型分区单元内;
所述实体识别单元,用于对虚拟场景中所存在的非人实体、对应用户以及未知实体进行识别,并将识别参数传输至碰撞区域分析单元内;
所述参数获取端,用于对参与人员的参数数据进行采集,并将所采集的参数数据传输至存储单元内进行存储;
所述模型分区单元,按照特定的分割面积对所建设的虚拟场景进行分区处理,使原始的虚拟场景划分为多个待碰撞区域;
所述碰撞区域分析单元,对参与人员的定位信息进行获取,根据参与人员的移动路径,实时对参与人员周边环境进行不同颜色显示,并根据不同参与人员的移动路径,生成预碰撞信号,通过预碰撞信号警示参与人员。
2.根据权利要求1所述的基于VR技术交互实体运动的防碰撞系统,其特征在于,所述参数获取端对参与人员的参数数据进行采集的具体方式为:
通过外部的适应设备获取所述参与人员的个人身体参数,其中身体参数包括身高以及身宽;
再对此类参与人员的正常行驶速度进行获取,其中,不同的参数数据均采用不同的参与人员编号进行捆绑,将捆绑完毕后的参数数据传输至存储单元内进行存储。
3.根据权利要求2所述的基于VR技术交互实体运动的防碰撞系统,其特征在于,所述模型分区单元对所建设的虚拟场景进行分区处理的具体方式为:
将特定的分割面积标记为FG,其中分割面积FG的具体取值由操作人员根据经验拟定;
确定虚拟场景的涉及范围,并通过分割面积FG对虚拟场景的涉及范围进行依次分割,得到若干个分割分区,其中,当涉及范围的边缘区域不足以进行划分时,则直接将对应的边缘区域随机列属于相邻的分割分区,并将划分完毕后的不同分割分区标记为FQ,其中FQ=1、2、……、n。
4.根据权利要求3所述的基于VR技术交互实体运动的防碰撞系统,其特征在于,所述碰撞区域分析单元对参与人员周边环境进行不同颜色显示的具体方式为:
S1、将不同参与人员的定位信息标记为DWk,其中k代表不同的参与人员,根据定位信息DWk以及分割分区标记FQ,查看单组分割分区FQ内是否存在多组定位信息DWk,若存在,执行下一步骤,若不存在,继续监视;
S2、以定位信息DWk为中心点,以半径为2.5米作为辐射范围,得到属于不同参与人员的辐射圈,查看辐射圈内是否非人实体以及未知实体,并根据非人实体以及未知实体的位置,将辐射圈内部的指定位置标记为红色区域,查看不同参与人员的辐射圈是否存在交叉区域,若存在,执行下一步骤,若不存在,继续对属于同一分区的定位信息DWk进行监视;
S3、将交叉区域进行颜色标识,使交叉区域标识为红色区域,再获取交叉区域的两处中心点Z1以及Z2,依次将此Z1以及Z2与中心点DWk进行连线处理,便得到属于交叉辐射圈的对称面积区域,并将此对称面积区域标记为黄色区域,其中黄色区域涵盖红色区域,将对称面积区域剔除红色区域便是黄色区域,红色区域为障碍物区域,黄色区域为预碰撞区域,将不同颜色的区域显示于参与人员所佩戴的VR眼镜内;
S4、根据定位信息DWk以及行驶路径,对参与人员的行驶路线进行获取,并进行延伸,查看是否存在交叉点,若存在,执行步骤S5,若不存在,则不进行处理;
S5、获取该交叉点与不同中心点DWk之间的距离参数,并将其标记为JLCk,再根据中心点DWk从存储单元内获取属于不同参与人员的正常行驶速度,并将其标记为SDk,采用
Figure 925100DEST_PATH_IMAGE001
获取得到不同参与人员行驶至交叉点的时长Tk,查看对应参与人员的时长Tk是否一致,若一致,生成预碰撞信号,并将预碰撞信号传输至预警单元内,并从存储单元内获取对应人员的身宽,通过身宽确认红色区域范围,进行警示,反之,不进行任何处理。
5.根据权利要求4所述的基于VR技术交互实体运动的防碰撞系统,其特征在于,所述预警单元,对预碰撞信号进行接收,并通过所佩戴的设备进行预警处理,警示参与人员。
CN202211479648.2A 2022-11-24 2022-11-24 基于vr技术交互实体运动的防碰撞系统 Active CN115543093B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211479648.2A CN115543093B (zh) 2022-11-24 2022-11-24 基于vr技术交互实体运动的防碰撞系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211479648.2A CN115543093B (zh) 2022-11-24 2022-11-24 基于vr技术交互实体运动的防碰撞系统

Publications (2)

Publication Number Publication Date
CN115543093A true CN115543093A (zh) 2022-12-30
CN115543093B CN115543093B (zh) 2023-03-31

Family

ID=84719769

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211479648.2A Active CN115543093B (zh) 2022-11-24 2022-11-24 基于vr技术交互实体运动的防碰撞系统

Country Status (1)

Country Link
CN (1) CN115543093B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106295581A (zh) * 2016-08-15 2017-01-04 联想(北京)有限公司 障碍物检测方法、装置及虚拟现实设备
CN108391231A (zh) * 2018-03-03 2018-08-10 宋彦震 基于ar的滑雪盲区显示系统及其控制方法
WO2018200315A1 (en) * 2017-04-26 2018-11-01 Pcms Holdings, Inc. Method and apparatus for projecting collision-deterrents in virtual reality viewing environments
CN110503001A (zh) * 2019-07-25 2019-11-26 青岛小鸟看看科技有限公司 一种虚拟现实vr设备及其避障方法、装置
CN110969687A (zh) * 2019-11-29 2020-04-07 中国商用飞机有限责任公司北京民用飞机技术研究中心 一种碰撞检测方法、装置、设备和介质
CN112861725A (zh) * 2021-02-09 2021-05-28 深圳市慧鲤科技有限公司 一种导航提示方法、装置、电子设备及存储介质
CN113853570A (zh) * 2019-05-20 2021-12-28 脸谱科技有限责任公司 为头戴式显示器生成动态障碍物碰撞警告的系统和方法
CN114758105A (zh) * 2022-04-27 2022-07-15 歌尔股份有限公司 碰撞提示方法、防碰撞设备以及计算机可读存储介质
CN115147747A (zh) * 2022-06-07 2022-10-04 海信视像科技股份有限公司 一种安全提示信息的展示方法及虚拟显示设备

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106295581A (zh) * 2016-08-15 2017-01-04 联想(北京)有限公司 障碍物检测方法、装置及虚拟现实设备
WO2018200315A1 (en) * 2017-04-26 2018-11-01 Pcms Holdings, Inc. Method and apparatus for projecting collision-deterrents in virtual reality viewing environments
CN108391231A (zh) * 2018-03-03 2018-08-10 宋彦震 基于ar的滑雪盲区显示系统及其控制方法
CN113853570A (zh) * 2019-05-20 2021-12-28 脸谱科技有限责任公司 为头戴式显示器生成动态障碍物碰撞警告的系统和方法
CN110503001A (zh) * 2019-07-25 2019-11-26 青岛小鸟看看科技有限公司 一种虚拟现实vr设备及其避障方法、装置
CN110969687A (zh) * 2019-11-29 2020-04-07 中国商用飞机有限责任公司北京民用飞机技术研究中心 一种碰撞检测方法、装置、设备和介质
CN112861725A (zh) * 2021-02-09 2021-05-28 深圳市慧鲤科技有限公司 一种导航提示方法、装置、电子设备及存储介质
CN114758105A (zh) * 2022-04-27 2022-07-15 歌尔股份有限公司 碰撞提示方法、防碰撞设备以及计算机可读存储介质
CN115147747A (zh) * 2022-06-07 2022-10-04 海信视像科技股份有限公司 一种安全提示信息的展示方法及虚拟显示设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KOHEI KANAMORI ET AL.: "Obstacle Avoidance Method in Real Space for Virtual Reality Immersion" *
孔盼: "虚拟现实技术浅析", 《数码世界》 *

Also Published As

Publication number Publication date
CN115543093B (zh) 2023-03-31

Similar Documents

Publication Publication Date Title
JP7220169B2 (ja) 情報処理方法、装置、記憶媒体、及びプログラム
CN110926334B (zh) 测量方法、装置、电子设备及存储介质
CN104036488A (zh) 一种基于双目视觉的人体姿态动作研究方法
CN107223261A (zh) 人机混合决策方法和装置
CN101715581A (zh) 体积识别方法和系统
JP2023522262A (ja) 地図生成方法、装置、記憶媒体及びプロセッサ
US11490062B2 (en) Information processing apparatus, information processing method, and storage medium
CN106548675A (zh) 虚拟军事训练方法及装置
US20110109628A1 (en) Method for producing an effect on virtual objects
CN107862115A (zh) 三维辐射场模型构建方法、装置、计算机设备及存储介质
CN107485100A (zh) 一种用于建筑物内救援的智能头盔及其救援导航方法
JP7164045B2 (ja) 骨格認識方法、骨格認識プログラムおよび骨格認識システム
CN104252712A (zh) 图像生成装置及图像生成方法
CN109727314A (zh) 一种增强现实场景融合及其展示方法
CN115797408A (zh) 融合多视角图像和三维点云的目标跟踪方法及装置
CN112735253A (zh) 红绿灯自动标注方法及计算机设备
Sušanj et al. Effective area coverage of 2D and 3D environments with directional and isotropic sensors
RU2562368C1 (ru) Способ трёхмерного (3d) картографирования
CN104834913A (zh) 基于深度图像的旗语识别方法及装置
CN111338232A (zh) 自动驾驶仿真方法及装置
CN115543093B (zh) 基于vr技术交互实体运动的防碰撞系统
JP2023146041A (ja) 機械学習システム
CN111126363B (zh) 自动驾驶车辆的物体识别方法及装置
CN117392611A (zh) 工地安全监测方法、系统、设备及存储介质
WO2023274270A1 (zh) 机器人术前导航方法、系统、存储介质及计算机设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20230922

Address after: Room 130, 1st Floor, Building 9, Fenghuang West Side, No. 8 Anji Avenue, Changshuo Street, Anji County, Huzhou City, Zhejiang Province, 313399

Patentee after: Zhejiang Anji Wuzhi Technology Co.,Ltd.

Address before: 313300 Room 130, 1st Floor, Building 9, West Side of Phoenix, No. 8, Anji Avenue, Changshuo Street, Anji County, Huzhou City, Zhejiang Province

Patentee before: Zhejiang Anji Wuzhi Technology Co.,Ltd.

Patentee before: Anji Yuanyuan Institute of Cosmic Hybrid Reality Technology

TR01 Transfer of patent right