CN111818322A - 基于虚拟现实技术的沉浸式行人交通行为实验平台及方法 - Google Patents
基于虚拟现实技术的沉浸式行人交通行为实验平台及方法 Download PDFInfo
- Publication number
- CN111818322A CN111818322A CN202010563293.XA CN202010563293A CN111818322A CN 111818322 A CN111818322 A CN 111818322A CN 202010563293 A CN202010563293 A CN 202010563293A CN 111818322 A CN111818322 A CN 111818322A
- Authority
- CN
- China
- Prior art keywords
- scene
- experimental
- experiment
- module
- immersive
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/10—Geometric CAD
- G06F30/18—Network design, e.g. design based on topological or interconnect aspects of utility systems, piping, heating ventilation air conditioning [HVAC] or cabling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0125—Traffic data processing
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B25/00—Models for purposes not provided for in G09B23/00, e.g. full-sized devices for demonstration purposes
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/02—Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Geometry (AREA)
- Signal Processing (AREA)
- Business, Economics & Management (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Hardware Design (AREA)
- Social Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明涉及一种基于虚拟现实技术的沉浸式行人交通行为实验平台及方法。由场景构建模块、头戴VR眼镜、万向行走垫、3D摄像装置、动作识别模块、控制模块、数据收集与导出模块和生理数据传感器组成。本发明同时提出了一种基于虚拟现实技术的行人交通行为实验方法,包括:1:构建实验场景:根据实验要求,选择基于真实场景重构方式或直接使用仿真软件编制方式来进行实验场景的构建;2:参数设置:根据实验要求,针对实验场景进行事件插入和相关参数设置;3:设备连接与测试:运行控制软件完成端口测试、连接测试,将不同设备的控制程序建立连接;4:正式实验与数据采集:与现有技术相比,本发明具有贴合实际情况,实验环境真实性强等优点。
Description
技术领域
本发明涉及智能交通系统技术领域,尤其是涉及一种基于虚拟现实技术的沉浸式行人交通行为实验平台及方法。
背景技术
在研究交通行为时,运用数学模型方法对交通行为进行理论分析的难度高、误差大,而现场实验又受到实际场景的条件限制且存在较大的安全隐患,因此模拟实验对是研究交通行为时最常用的手段。经调研,目前国内大部分交通行为研究都是针对车辆驾驶员而进行,驾驶模拟器实验平台已经较为成熟,但对行人的交通行为研究甚少,缺乏能够从行人视角进行行人交通行为模拟实验的平台。
虚拟现实是以计算机技术为核心,结合相关科学技术,生成与一定范围真实环境在视、听、触感等方面高度近似的数字化环境,用户借助必要的装备与数字化环境中的对象进行交互作用、相互影响,可以产生亲临对应真实环境的感受和体验,符合进行交通模拟实验的要求。因此可以考虑将虚拟现实技术应用于交通行为研究领域,搭建一个沉浸式的行人交通行为实验平台。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于虚拟现实技术的沉浸式行人交通行为实验平台及方法。
本发明的目的可以通过以下技术方案来实现:
一种基于虚拟现实技术的沉浸式行人交通行为实验平台,该实验平台包括:
场景构建模块,用于构建实验场景;
头戴VR眼镜,与所述场景构建模块相连接,用于实验场景的呈现,为受试者提供沉浸式的实验效果;
万向行走垫,用于供受试者在实验中行走,并能实时计算并记录受试者相关数据;
3D摄像装置,用于拍摄受试者的实验过程;
生理数据传感器,用于采集受试者的生理数据,实验时根据实际需要,在不影响受试者正常活动地前提下安装在受试者身上;
动作识别模块,用于解析所述3D摄像装置拍摄的图像和所述万向行走垫的运动路径数据,对受试者的肢体动作进行识别,结合运动路径,对受试者在虚拟环境中的形象实时发送控制指令,操纵虚拟形象完成对应动作及沿对应路径运动;
数据采集与导出模块,用于收集并整合实验过程中的各项交通行为数据,且能自动统一各项数据的时间、采集频率,整理成统一的格式以方便导出;
控制模块,用于供实验人员调节实验场景的各项参数及设置实验场景内的突发事件,同时也用于控制各模块、设备间的信息传输,实现统筹控制。
进一步地,所述的场景构建模块包括仿真软件模块和真实场景重构模块,其中:
所述仿真软件模块,用于直接设计并编制实验场景;
所述真实场景重构模块,用于辅助所述仿真软件模块重构真实场景。
进一步地,所述真实场景重构模块包括无人机及机载双目摄像机和场景处理软件,其中:
所述无人机及机载双目摄像机,用于拍摄各个视角下真实场景的三维图像;
所述场景处理软件,用于能够基于机载双目摄像机拍摄的各个视角下真实场景的三维图像,在虚拟环境内对真实场景进行识别、重构和渲染。
进一步地,所述3D摄像装置按照前、后、左、右四个方向设置于受试者的周围空间内。
本发明还提供一种采用所述的基于虚拟现实技术的沉浸式行人交通行为实验平台的实验方法,该实验方法包括以下步骤:
步骤1:构建实验场景:根据实验要求,选择基于真实场景重构方式或直接使用仿真软件编制方式来进行实验场景的构建;
步骤2:参数设置:根据实验要求,针对实验场景进行事件插入和相关参数设置;
步骤3:设备连接与测试:运行控制软件完成端口测试、连接测试,将不同设备的控制程序建立连接;
步骤4:正式实验与数据采集:受试者佩戴所述头戴VR眼镜,并于所述万向行走垫上进行实验,所述3D摄像装置拍摄被试者的实验过程,所述动作识别模块实时解析所述3D摄像装置拍摄的图像和所述万向行走垫的运动路径数据,对被试者的肢体动作进行识别,结合运动路径,对被试者在虚拟环境中的形象实时发送控制指令,操纵虚拟形象完成对应动作及沿对应路径运动,在实验过程中,所述数据采集与导出模块自动记录受试者在实验过程中的交通行为和各项生理数据。
进一步地,所述的步骤1中的选择基于真实场景重构方式来进行实验场景的构建的过程包括以下步骤:
步骤01:根据研究目的和实验方案,选择对应真实场景;
步骤02:使用所述场景构建模块中的无人机及机载双目摄像机拍摄各个视角下该真实场景的三维图像;
步骤03:利用所述场景构建模块中的场景处理软件,基于所述机载双目摄像机拍摄的各个视角下该真实场景的三维图像,在虚拟环境内对该真实场景进行识别、重构和渲染;
步骤04:导出建立好的道路及周边环境模型,完成实验场景的构建。
进一步地,所述的步骤1中的选择直接使用仿真软件编制方式来进行实验场景的构建的过程包括以下步骤:
步骤001:根据道路设计资料,利用道路设计软件,建立道路模型;
步骤002:利用三维动画渲染和制作软件对模型进行建立并优化处理;
步骤003:导出建立好的道路及周边环境模型,完成实验场景的构建。
进一步地,所述步骤001中的道路类型包括平面、横断面、纵断面以及人行道。
进一步地,所述步骤002中的三维动画渲染和制作软件为3d Max以及Rhino。
进一步地,所述步骤002中对模型进行建立并优化处理的过程具体包括:该道路模型的建立,路段连接处的细化衔接,道路及地形材质贴图,模型的优化处理及三维模型的渲染。
与现有技术相比,本发明具有以下优点:
(1)本发明实验平台包括:
场景构建模块,用于构建实验场景;
头戴VR眼镜,与场景构建模块相连接,用于实验场景的呈现,为受试者提供沉浸式的实验效果;
万向行走垫,用于供受试者在实验中行走,并能实时计算并记录受试者相关数据;
3D摄像装置,用于拍摄受试者的实验过程;
生理数据传感器,用于采集受试者的生理数据,实验时根据实际需要,在不影响受试者正常活动地前提下安装在受试者身上;
动作识别模块,用于解析3D摄像装置拍摄的图像和万向行走垫的运动路径数据,对受试者的肢体动作进行识别,结合运动路径,对受试者在虚拟环境中的形象实时发送控制指令,操纵虚拟形象完成对应动作及沿对应路径运动;
数据采集与导出模块,用于收集并整合实验过程中的各项交通行为数据,且能自动统一各项数据的时间、采集频率,整理成统一的格式以方便导出;
控制模块,用于供实验人员调节实验场景的各项参数及设置实验场景内的突发事件,同时也用于控制各模块、设备间的信息传输,实现统筹控制;
实验场景可以由真实场景重构而成,不仅更贴合实际情况,还能减少了构建实验场景的工作量。
(2)本发明实验方法包括以下步骤:
步骤1:构建实验场景:根据实验要求,选择基于真实场景重构方式或直接使用仿真软件编制方式来进行实验场景的构建;
步骤2:参数设置:根据实验要求,针对实验场景进行事件插入和相关参数设置;
步骤3:设备连接与测试:运行控制软件完成端口测试、连接测试,将不同设备的控制程序建立连接;
步骤4:正式实验与数据采集:受试者佩戴所述头戴VR眼镜,并于万向行走垫上进行实验,3D摄像装置拍摄被试者的实验过程,动作识别模块实时解析3D摄像装置拍摄的图像和万向行走垫的运动路径数据,对被试者的肢体动作进行识别,结合运动路径,对被试者在虚拟环境中的形象实时发送控制指令,操纵虚拟形象完成对应动作及沿对应路径运动,在实验过程中,数据采集与导出模块自动记录受试者在实验过程中的交通行为和各项生理数据;
实验方法使用了虚拟现实技术,实验的真实性更强,受试者的反应与真实情形下更加接近。
(3)本发明具有较高的实用价值,除了用于研究行人的交通行为外,还可以应用于道路设计方案评价、交通安全知识教育、突发紧急情况演练等多种场合。
附图说明
图1为本发明的沉浸式行人交通行为实验平台架构图;
图2为本发明实施例的方法流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都应属于本发明保护的范围。
本发明的技术方案原理如下:
本发明提供了一种基于虚拟现实技术的沉浸式行人交通行为实验平台,解决了现有技术中缺乏行人交通行为模拟实验平台,现行模拟实验平台真实度不佳,实验结果准确度不足等问题。
本发明同时提供了一种新的行人交通行为模拟实验方法。
本发明提出的一种基于虚拟现实技术的沉浸式行人交通行为实验平台,由场景构建模块、头戴VR眼镜、万向行走垫、3D摄像装置、动作识别模块、控制模块、数据收集与导出模块和生理数据传感器组成,其中:
所述场景构建模块用于构建实验场景,分为仿真软件模块和真实场景重构模块。
其中:
所述仿真软件模块用于直接设计并编制实验场景。
所述真实场景重构模块包括无人机及机载双目摄像机和场景处理软件。其中:
所述无人机及机载双目摄像机用于拍摄各个视角下真实场景的三维图像。
所述场景处理软件基于机载双目摄像机拍摄的各个视角下真实场景的三维图像,在虚拟环境内对真实场景进行识别、重构和渲染。
所述头戴VR眼镜佩戴于受试者头部,与场景构建模块相连,用于实验场景的呈现,为受试者提供沉浸式的实验效果。
所述万向行走垫用于供受试者在实验中行走,并能实时计算并记录受试者行走的速度、加速度和运动路径等数据。
所述3D摄像装置安装在受试者的前、后、左、右四个方向,用于拍摄受试者的实验过程。
所述动作识别模块用于解析3D摄像装置拍摄的图像和万向行走垫的运动路径数据,对受试者的肢体动作进行识别,结合运动路径,对受试者在虚拟环境中的形象实时发送控制指令,操纵虚拟形象完成对应动作及沿对应路径运动。
所述控制模块用于:(1)供实验人员调节实验场景的各项参数及设置实验场景内的突发事件;(2)控制各模块、设备间的信息传输,实现统筹控制。
所述数据收集与导出模块用于收集并整合实验过程中的各项交通行为数据,能自动统一各项数据的时间、采集频率,整理成统一的格式方便导出。
所述生理数据传感器用于采集受试者的心率、血压、脑电波等生理数据,实验时根据实际需要,在不影响受试者正常活动地前提下,部分或全部地安装在受试者身上。
根据本发明的另一方面,提出了一种基于虚拟现实技术的行人交通行为实验方法,通过上述系统完成,包括步骤如下:
步骤一构建实验场景:根据实验要求,可选择基于真实场景重构和直接使用仿真软件编制两种方式来进行实验场景的构建。
步骤二参数设置:根据实验要求,对实验场景的天气、车流量、人流量、交通流到达时间分布、突发事件参数等进行设置。
步骤三设备连接与测试:运行控制软件完成端口测试、连接测试,将不同设备的控制程序建立连接。
步骤四正式实验与数据采集:上述步骤完成后,进行模拟实验。受试者佩戴VR眼镜,在万向行走垫上进行实验。在实验过程中,数据收集与导出模块自动记录受试者在实验过程中的交通行为和各项生理数据。
具体实施例:
本实验例为基于虚拟现实技术的某无信号交叉口行人过街交通行为模拟实验。在现实生活中,行人在无信号交叉口过街时需要观察自身与来往车辆的距离,从而选择是否过街与过街的时机。不同年龄、个性、生心理状态的行为的过街行为存在差异,部分人群在过街时贸然前行的可能性更大,因而发生事故的概率更高。在现实环境中进行行人过街实验存在较大的安全风险,因此基于虚拟现实技术的模拟实验是一种行之有效的方式。
如图2所示,具体实施步骤如下:
步骤一,根据研究内容构建实验场景。
对于无信号交叉口行人过街交通行为研究,实验场景模型建立的具体方法包括以下两种。
A.重构真实场景
(1)根据研究目的和实验方案,选择某处无信号交叉口作为实验场景;
(2)使用无人机及机载双目摄像机拍摄各个视角下该无信号交叉口的的三维图像;
(3)利用场景处理软件,基于机载双目摄像机拍摄的各个视角下真实场景的三维图像,在虚拟环境内对真实场景进行识别、重构和渲染。
(4)导出建立好的道路及周边环境模型;
B.直接构建仿真场景
(1)根据道路设计资料,利用道路设计软件,建立道路模型,包括:道路平面、横断面、纵断面设计、人行道等交通道路设施;
(2)利用三维动画渲染和制作软件3d Max及Rhino对模型进行建立并优化处理。包括:交叉口模型的建立,路段连接处的细化衔接,道路及地形材质贴图,模型的优化处理及三维模型的渲染;
(3)导出建立好的道路及周边环境模型;
步骤二,参数设置。
将模型导入实验平台的控制模块,在软件中进行实验场景的建立和参数设置。包括:道路逻辑层建立、仿真车辆添加等,并根据实验要求,对实验场景的天气、车流量、人流量、交通流到达时间分布、突发事件参数等进行设置。
步骤三,设备连接与测试。
在实验开始前,向被试者讲解实验过程中的注意事项,并确认被试者无心脏病,神经衰弱、白内障等禁止佩戴VR眼镜的疾病。随后,协助被试者穿戴实验设备,并进入万向行走垫中央就位。随后,实验者进行实验设备的连接及测试,运行控制软件完成端口测试、连接测试,将不同设备的控制程序建立连接。并于VR眼镜中播放预先准备的类似场景图像一段时间,确认受试者无晕眩、恶心等不良反应,且能正确获得环境信息及作出合理举措。
步骤四,正式实验与数据采集。
正式实验过程中,万向行走垫实时计算并记录被试者行走的速度、加速度和运动路径等数据;3D摄像装置拍摄被试者的实验过程;动作识别模块实时解析3D摄像装置拍摄的图像和万向行走垫的运动路径数据,对被试者的肢体动作进行识别,结合运动路径,对被试者在虚拟环境中的形象实时发送控制指令,操纵虚拟形象完成对应动作及沿对应路径运动。受试者佩戴的生理数据传感器可采集受试者的心率、血压、脑电波等生理数据。实验人员应全程关注受试者的状态,一旦受试者出现不良反应则立即中止实验。正式实验结束后,实验人员协助被试者脱下所佩戴的实验设备并离开万向行走垫。被试者结束实验后不宜立即离场,应在相邻场所休息至少30分钟,无不良反应则可自行离开。
本发明中数据收集与导出模块具有收集并整合实验过程中的各项交通行为数据的功能,这些数据包括仿真时间,行人及试验车的坐标、速度、加速度、行人与试验车的间距、被试者的心率、血压、脑电波等。各实验设备在实验过程中将采集到的实验数据实时传输至数据收集与导出模块,数据收集与导出模块能自动统一各项数据的格式、时间、采集频率,将所有数据整合为csv格式方便导出。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种基于虚拟现实技术的沉浸式行人交通行为实验平台,其特征在于,该实验平台包括:
场景构建模块,用于构建实验场景;
头戴VR眼镜,与所述场景构建模块相连接,用于实验场景的呈现,为受试者提供沉浸式的实验效果;
万向行走垫,用于供受试者在实验中行走,并能实时计算并记录受试者相关数据;
3D摄像装置,用于拍摄受试者的实验过程;
生理数据传感器,用于采集受试者的生理数据,实验时根据实际需要,在不影响受试者正常活动地前提下安装在受试者身上;
动作识别模块,用于解析所述3D摄像装置拍摄的图像和所述万向行走垫的运动路径数据,对受试者的肢体动作进行识别,结合运动路径,对受试者在虚拟环境中的形象实时发送控制指令,操纵虚拟形象完成对应动作及沿对应路径运动;
数据采集与导出模块,用于收集并整合实验过程中的各项交通行为数据,且能自动统一各项数据的时间、采集频率,整理成统一的格式以方便导出;
控制模块,用于供实验人员调节实验场景的各项参数及设置实验场景内的突发事件,同时也用于控制各模块、设备间的信息传输,实现统筹控制。
2.根据权利要求1所述的一种基于虚拟现实技术的沉浸式行人交通行为实验平台,其特征在于,所述的场景构建模块包括仿真软件模块和真实场景重构模块,其中:
所述仿真软件模块,用于直接设计并编制实验场景;
所述真实场景重构模块,用于辅助所述仿真软件模块重构真实场景。
3.根据权利要求2所述的一种基于虚拟现实技术的沉浸式行人交通行为实验平台,其特征在于,所述真实场景重构模块包括无人机及机载双目摄像机和场景处理软件,其中:
所述无人机及机载双目摄像机,用于拍摄各个视角下真实场景的三维图像;
所述场景处理软件,用于能够基于机载双目摄像机拍摄的各个视角下真实场景的三维图像,在虚拟环境内对真实场景进行识别、重构和渲染。
4.根据权利要求1所述的一种基于虚拟现实技术的沉浸式行人交通行为实验平台,其特征在于,所述3D摄像装置按照前、后、左、右四个方向设置于受试者的周围空间内。
5.一种采用如权利要求1~4中任意一项所述的基于虚拟现实技术的沉浸式行人交通行为实验平台的实验方法,其特征在于,该实验方法包括以下步骤:
步骤1:构建实验场景:根据实验要求,选择基于真实场景重构方式或直接使用仿真软件编制方式来进行实验场景的构建;
步骤2:参数设置:根据实验要求,针对实验场景进行事件插入和相关参数设置;
步骤3:设备连接与测试:运行控制软件完成端口测试、连接测试,将不同设备的控制程序建立连接;
步骤4:正式实验与数据采集:受试者佩戴所述头戴VR眼镜,并于所述万向行走垫上进行实验,所述3D摄像装置拍摄被试者的实验过程,所述动作识别模块实时解析所述3D摄像装置拍摄的图像和所述万向行走垫的运动路径数据,对被试者的肢体动作进行识别,结合运动路径,对被试者在虚拟环境中的形象实时发送控制指令,操纵虚拟形象完成对应动作及沿对应路径运动,在实验过程中,所述数据采集与导出模块自动记录受试者在实验过程中的交通行为和各项生理数据。
6.根据权利要求5所述的一种采用所述的基于虚拟现实技术的沉浸式行人交通行为实验平台的实验方法,其特征在于,所述的步骤1中的选择基于真实场景重构方式来进行实验场景的构建的过程包括以下步骤:
步骤01:根据研究目的和实验方案,选择对应真实场景;
步骤02:使用所述场景构建模块中的无人机及机载双目摄像机拍摄各个视角下该真实场景的三维图像;
步骤03:利用所述场景构建模块中的场景处理软件,基于所述机载双目摄像机拍摄的各个视角下该真实场景的三维图像,在虚拟环境内对该真实场景进行识别、重构和渲染;
步骤04:导出建立好的道路及周边环境模型,完成实验场景的构建。
7.根据权利要求5所述的一种采用所述的基于虚拟现实技术的沉浸式行人交通行为实验平台的实验方法,其特征在于,所述的步骤1中的选择直接使用仿真软件编制方式来进行实验场景的构建的过程包括以下步骤:
步骤001:根据道路设计资料,利用道路设计软件,建立道路模型;
步骤002:利用三维动画渲染和制作软件对模型进行建立并优化处理;
步骤003:导出建立好的道路及周边环境模型,完成实验场景的构建。
8.根据权利要求7所述的一种采用所述的基于虚拟现实技术的沉浸式行人交通行为实验平台的实验方法,其特征在于,所述步骤001中的道路类型包括平面、横断面、纵断面以及人行道。
9.根据权利要求7所述的一种采用所述的基于虚拟现实技术的沉浸式行人交通行为实验平台的实验方法,其特征在于,所述步骤002中的三维动画渲染和制作软件为3d Max以及Rhino。
10.根据权利要求7所述的一种采用所述的基于虚拟现实技术的沉浸式行人交通行为实验平台的实验方法,其特征在于,所述步骤002中对模型进行建立并优化处理的过程具体包括:该道路模型的建立,路段连接处的细化衔接,道路及地形材质贴图,模型的优化处理及三维模型的渲染。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010245530 | 2020-03-31 | ||
CN2020102455308 | 2020-03-31 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111818322A true CN111818322A (zh) | 2020-10-23 |
Family
ID=72845268
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010563293.XA Pending CN111818322A (zh) | 2020-03-31 | 2020-06-19 | 基于虚拟现实技术的沉浸式行人交通行为实验平台及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111818322A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112349171A (zh) * | 2020-11-11 | 2021-02-09 | 济南北方交通工程咨询监理有限公司 | 一种基于虚拟现实技术的行车安全仿真系统及方法 |
CN116980445A (zh) * | 2023-07-27 | 2023-10-31 | 上海外国语大学 | 面向全流程的行为实验数据采集平台 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101901291A (zh) * | 2010-07-20 | 2010-12-01 | 同济大学 | 一种交通行为虚拟现实实验平台及其方法 |
CN106445176A (zh) * | 2016-12-06 | 2017-02-22 | 腾讯科技(深圳)有限公司 | 基于虚拟现实技术的人机交互系统及交互方法 |
CN109658768A (zh) * | 2018-12-27 | 2019-04-19 | 交通运输部科学研究院 | 一种虚拟现实的多人同场景混合交通流仿真实验平台 |
CN110222639A (zh) * | 2019-06-05 | 2019-09-10 | 清华大学 | 人体应激反应测试方法与系统 |
CN110727971A (zh) * | 2019-10-22 | 2020-01-24 | 北京工业大学 | 一种多用户主体交通设施评估方法 |
CN110795813A (zh) * | 2019-08-14 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 一种交通仿真方法及装置 |
-
2020
- 2020-06-19 CN CN202010563293.XA patent/CN111818322A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101901291A (zh) * | 2010-07-20 | 2010-12-01 | 同济大学 | 一种交通行为虚拟现实实验平台及其方法 |
CN106445176A (zh) * | 2016-12-06 | 2017-02-22 | 腾讯科技(深圳)有限公司 | 基于虚拟现实技术的人机交互系统及交互方法 |
CN109658768A (zh) * | 2018-12-27 | 2019-04-19 | 交通运输部科学研究院 | 一种虚拟现实的多人同场景混合交通流仿真实验平台 |
CN110222639A (zh) * | 2019-06-05 | 2019-09-10 | 清华大学 | 人体应激反应测试方法与系统 |
CN110795813A (zh) * | 2019-08-14 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 一种交通仿真方法及装置 |
CN110727971A (zh) * | 2019-10-22 | 2020-01-24 | 北京工业大学 | 一种多用户主体交通设施评估方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112349171A (zh) * | 2020-11-11 | 2021-02-09 | 济南北方交通工程咨询监理有限公司 | 一种基于虚拟现实技术的行车安全仿真系统及方法 |
CN116980445A (zh) * | 2023-07-27 | 2023-10-31 | 上海外国语大学 | 面向全流程的行为实验数据采集平台 |
CN116980445B (zh) * | 2023-07-27 | 2024-05-31 | 上海外国语大学 | 面向全流程的行为实验数据采集平台 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10568502B2 (en) | Visual disability detection system using virtual reality | |
CN106960613B (zh) | 非侵入式驾驶人潜在危险辨识能力评估与训练系统及方法 | |
CN108877374A (zh) | 基于虚拟现实与驾驶模拟器的车辆队列仿真系统和方法 | |
US20150187224A1 (en) | Driving assessment and training method and apparatus | |
CN111818322A (zh) | 基于虚拟现实技术的沉浸式行人交通行为实验平台及方法 | |
Marquardt et al. | Comparing non-visual and visual guidance methods for narrow field of view augmented reality displays | |
CN107670272A (zh) | 基于vr技术的智能体感、触感互动场景模拟方法 | |
Hasan et al. | Distributed microscopic traffic simulation with human-in-the-loop enabled by virtual reality technologies | |
CN109783914A (zh) | 一种基于虚拟现实仿真的预处理动态建模方法及装置 | |
Weiss et al. | DeepRacing: A framework for autonomous racing | |
CN109658503A (zh) | 一种融合脑电信号的驾驶员行为意图检测方法 | |
CN107340862A (zh) | 一种基于虚拟现实的犯罪过程分析系统与方法 | |
Kondyli et al. | Computer assisted analysis of drivers' body activity using a range camera | |
CN110930811B (zh) | 一种适用于无人驾驶决策学习和训练的系统 | |
CN104258555B (zh) | 采用rgbd视觉传感的双拳击球健身交互系统 | |
CN207253639U (zh) | 一种基于虚拟现实的运动交互系统 | |
CN113420952A (zh) | 一种基于模拟驾驶的汽车人机交互测试与评估系统 | |
Hossain et al. | Autonomous-driving vehicle learning environments using unity real-time engine and end-to-end CNN approach | |
CN115964933A (zh) | 基于数字孪生的虚实训练装置构建方法 | |
CN113759880A (zh) | 一种智能汽车整车在环测试方法以及系统 | |
CN207337401U (zh) | 一种汽车座舱人机交互评估系统 | |
CN111450480B (zh) | 一种基于vr的踏步机运动平台 | |
Wu et al. | 3d sound rendering in a virtual environment to evaluate pedestrian street crossing decisions at a roundabout | |
Arppe | UniNet: A mixed reality driving simulator | |
Bandara et al. | The internet of things (IoT): an empirical study of interaction based system to enhance gamification techniques in elearning environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20201023 |
|
RJ01 | Rejection of invention patent application after publication |