CN116700471A - 一种增强虚拟现实系统用户体验的方法及系统 - Google Patents
一种增强虚拟现实系统用户体验的方法及系统 Download PDFInfo
- Publication number
- CN116700471A CN116700471A CN202210177953.XA CN202210177953A CN116700471A CN 116700471 A CN116700471 A CN 116700471A CN 202210177953 A CN202210177953 A CN 202210177953A CN 116700471 A CN116700471 A CN 116700471A
- Authority
- CN
- China
- Prior art keywords
- gesture
- dimensional
- posture
- virtual reality
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 230000002708 enhancing effect Effects 0.000 title claims abstract description 15
- 238000013528 artificial neural network Methods 0.000 claims abstract description 26
- 230000003190 augmentative effect Effects 0.000 claims abstract description 7
- 238000012545 processing Methods 0.000 claims abstract description 7
- 238000012549 training Methods 0.000 claims description 13
- 238000013135 deep learning Methods 0.000 claims description 10
- 238000003062 neural network model Methods 0.000 claims description 8
- 238000012795 verification Methods 0.000 claims description 8
- 210000002414 leg Anatomy 0.000 claims description 7
- 210000000245 forearm Anatomy 0.000 claims description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 5
- 125000004122 cyclic group Chemical group 0.000 claims description 4
- 230000007246 mechanism Effects 0.000 claims description 4
- 210000001217 buttock Anatomy 0.000 claims description 3
- 238000004422 calculation algorithm Methods 0.000 claims description 3
- 238000007667 floating Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 description 8
- 238000004590 computer program Methods 0.000 description 6
- 230000003993 interaction Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种增强虚拟现实系统用户体验的方法及系统。具体而言,增强虚拟现实系统用户体验的方法包括以下步骤:通过外置传感器采集用户的全身姿态相关数据;通过预先训练好的姿态生成深度神经网络对全身姿态相关数据进行处理,生成人体三维姿态参数;利用所述三维姿态参数驱动参数化人体模型,并在虚拟现实场景中生成用户的虚拟三维身体,跟随用户的姿态实时运动。还公开了一种增强虚拟现实系统用户体验的系统,该系统包括虚拟现实显示模块、外置传感器模块、姿态参数生成模块、虚拟现实场景生成模块。
Description
技术领域
本发明涉及虚拟现实(Virtual Reality,VR)技术领域,具体涉及一种增强虚拟现实系统用户体验的方法及系统。
背景技术
虚拟现实(VR)技术是一门新兴的综合信息技术,使用以计算机技术为核心的现代高科技生成逼真的视觉、听觉、触觉一体化的特定范围的虚拟环境,用户借助各种现实及控制等接口设备以自己的方式与虚拟环境中的对象进行交互作用、互相影响,从而产生与亲临等同真实环境的感受和体验。VR技术融合了数字图像处理、多媒体技术、计算机图形学、传感器技术等多方面的信息技术,它通过计算机图形学构成三维数字模型,在计算机上生成可交互的三维环境中为用户提供沉浸感觉。
目前,用户在使用VR系统时,通常是通过头戴显示器体验虚拟的三维场景,但在该虚拟场景中,难以看到虚拟场景中随自己姿态运动的虚拟手脚和身体,缺乏真实感,部分VR系统通过可穿戴传感器实现手部和/或腿部位置姿态的跟踪及VR显示,但可穿戴传感器只能跟踪及显示身体的局部区域,穿戴少量传感器难以对全身姿态进行准确跟踪及VR显示,穿戴大量传感器又会带来高成本问题,同时多个传感器的穿戴、脱卸、校准和充电等操作也带来了使用的不便。
随着深度学习技术近年来的快速发展,基于非穿戴式设备采集的数据利用深度神经网络估计人体姿态成为了可能,例如Denis等人提出可通过单幅图像估计人体姿态(T.Denis,R.Chris and L.Agapito,"Lifting from the Deep:Convolutional 3D PoseEstimation from a Single Image",IEEE Conference on Computer Vision andPattern Recognition(CVPR),2017:5689-5698),Marton等人提出可在基于图像估计出人体姿态的基础上通过深度信息施加约束来提高精度(V.Marton,A.Lorincz,"Multi-PersonAbsolute 3D Human Pose Estimation with Weak Depth Supervision",ArXiv,2020),以及Zhou等人提出的通过三维点云数据估计人体姿态等(Y.Zhou,H.Dong and A.ElSaddik,"Learning to Estimate 3D Human Pose from Point Cloud",IEEE SensorsJournal 2020,20(15):12334-12342)。
本领域已尝试基于单深度图来识别人体关节点。例如,公开号为CN108734194A的中国发明专利申请公开了一种面向虚拟现实的基于单深度图的人体关节点识别方法,首先通过卷积网络离线训练手势公开数据集NYU,得到一个鲁棒性好、准确率高以及识别速度快的模型;然后通过深度摄像头实时捕获深度图像,在对图像一系列预处理之后分别传入人体骨骼识别模块和手势识别模块,返回识别后的关节点三维信息,进而映射三维人体模型。然而,该公开文献中训练的手势公开数据集NYU仅在手势识别方面具有较好的准确度。现有技术仍然难以通过便捷的方式让用户以高度的真实感在VR场景中看到自己的手脚以及身体。
本领域所需的是一种增强虚拟现实系统用户体验的方法及系统,能够通过便捷的方式增强VR体验的真实感和交互感,让用户在VR场景中看到自己的手脚以及身体。
需要说明的是,本发明的说明书的此背景技术部分中所包括的信息,包括本文中所引用的任何参考文献及其任何描述或讨论,仅出于技术参考的目的而被包括在内,并且不被认为是将限制本发明范围的主题。
发明内容
为了解决上述问题和其他相关问题,根据本发明的一个或多个实施例,本发明的目的旨在提供一种增强虚拟现实系统用户体验的方法及系统,能够通过非穿戴的方式对用户全身的姿态动作进行捕捉,并将对应的虚拟三维身体显示到VR场景中跟随用户姿态动作实时运动,增强VR体验的真实感和交互感。
根据本发明的一个方面,提供了一种增强虚拟现实系统用户体验的方法,该方法包括以下步骤:通过外置传感器采集用户的全身姿态相关数据;通过预先训练好的姿态生成深度神经网络对所述全身姿态相关数据进行处理,生成人体三维姿态参数;利用人体三维姿态参数驱动参数化人体模型,并在VR场景中生成用户的虚拟三维身体,跟随用户姿态实时运动。
根据本发明的优选实施例,所述姿态生成深度神经网络通过以下步骤预先训练:通过穿戴式和/或贴片式传感器采集人体在各种运动状态下的姿态数据,构建所述人体三维姿态参数作为输入特征,并同时使用所述外置传感器采集所述全身姿态相关数据作为输出特征,将输入特征和对应的输出特征划分为训练集和验证集;根据所述输入特征和所述输出特征的数据维度,构建基于卷积神经网络和/或循环神经网络和/或编解码神经网络和/或自注意力机制的姿态生成深度神经网络模型;采用深度学习领域的方法,利用所述训练集对所述姿态生成深度神经网络模型进行训练,并利用所述验证集对超参数进行调优。
根据本发明的优选实施例,所述深度学习领域的方法包括反向传播算法。
根据本发明的优选实施例,所述外置传感器包括下列中的至少一个:摄像头、深度相机、三维激光雷达、三维毫米波雷达。
根据本发明的优选实施例,所述全身姿态相关数据包括下列中的至少一个:用户的视频影像数据、带深度信息的用户视频影像数据、激光雷达点云数据、毫米波雷达点云数据;
根据本发明的优选实施例,所述姿态生成深度神经网络的特征包括从每一帧全身姿态相关数据中提取与用户姿态相对应的人体三维姿态参数;
根据本发明的优选实施例,所述人体三维姿态参数包括如下节点:臀部、脊椎、颈部、头部、左肩、左臂、左前臂、左手、右肩、右臂、右前臂、右手、左上腿、左腿、左脚、左脚趾跟、右上腿、右腿、右脚、右脚趾跟,每个节点以一组三维浮点数据表示其相对旋转角。
根据本发明的优选实施例,所述参数化人体模型需根据上述节点构成树状结构,每一节点以其相对于父节点的所述相对旋转角来表达其位置关系。
根据本发明的优选实施例,所述用户的虚拟三维身体为一个三维obj模型,至少包含顶点和三角面信息,每一个所述顶点根据与其最近的一个或多个所述节点的距离关系,设置有对应这些节点的权重值,从而在所述节点运动时牵动所述顶点运动,进而牵动整个虚拟三维身体运动。
根据本发明的另一个方面,提供了一种增强虚拟现实系统用户体验的系统,包括VR显示模块、外置传感器模块、姿态参数生成模块、VR场景生成模块;所述VR显示模块用于接收所述VR场景生成模块生成的VR场景并向用户显示;所述外置传感器模块用于采集用户的全身姿态相关数据并发送至所述姿态参数生成模块;所述姿态参数生成模块用于接收所述外置传感器模块发送的所述全身姿态相关数据,并利用预先训练好的姿态生成深度神经网络对所述全身姿态相关数据进行处理,生成人体三维姿态参数,并发送至所述VR场景生成模块;所述VR场景生成模块用于生成所述VR场景,并用于接收所述姿态参数生成模块发送的所述人体三维姿态参数,利用所述人体三维姿态参数驱动参数化人体模型,在所述VR场景中加入用户的虚拟三维身体,并将所述VR场景发送至所述VR显示模块。
根据本发明的优选实施例,所述VR显示模块包括下列中的至少一个:VR头盔、VR眼镜、VR眼罩;
根据本发明的优选实施例,所述外置传感器模块包括下列中的至少一个:摄像头、深度相机、三维激光雷达、三维毫米波雷达。
本发明提供的增强虚拟现实系统用户体验的方法及系统能够通过便捷的方式增强VR体验的真实感和交互感,使用户能够在VR场景中看到与真实姿态动作一致的虚拟身体和手脚,体验更加真实,并且便于不同用户之间通过肢体语言进行交流沟通。
本发明的更多的实施例还能够实现未一一列出的其他有益技术效果,这些其他有益技术效果在下文中可能有部分描述,并且对于本领域的技术人员而言在阅读了本发明后是可以预期和理解的。
附图说明
通过参考下文的描述连同附图,本发明的实施例的上述特征和优点及其他特征和优点以及实现它们的方式将更显而易见,并且可以更好地理解本发明的实施例,在附图中:
图1为根据本发明的实施例的增强虚拟现实系统用户体验的方法的流程示意图;
图2为根据本发明的实施例的增强虚拟现实系统用户体验的系统的构成示意图。
具体实施方式
在以下结合附图对具体实施方式的描述中,将阐述本发明的一个或多个实施例的细节。从这些描述、附图以及权利要求中,可以清楚本发明的其他特征、目的和优点。
可以理解,本文中所使用的词组和用语是出于描述的目的,而不应当被认为是限制性的。本文中的“包括”、“包含”或“具有”及其变型的使用,旨在开放式地包括其后列出的项及其等同项以及附加的项。
下面将结合附图参考本发明的若干实施例对本发明进行更详细的描述。
图1给出了根据本发明的一种增强虚拟现实系统用户体验的方法,包括以下步骤:S1,通过外置传感器采集用户的全身姿态相关数据;S2,通过预先训练好的姿态生成深度神经网络对所述全身姿态相关数据进行处理,生成人体三维姿态参数;S3,利用人体三维姿态参数驱动参数化人体模型,并在VR场景中生成用户的虚拟三维身体,跟随用户姿态实时运动。
外置传感器包括但不限于下列项:摄像头、深度相机、三维激光雷达、三维毫米波雷达。相应地,全身姿态相关数据包括下列中的至少一个:用户的视频影像数据、带深度信息的用户视频影像数据、激光雷达点云数据、毫米波雷达点云数据。
具体地,在本发明的一个实施例中,采用摄像头作为外置传感器采集用户的视频影像数据,通过深度学习的方法从所述视频影像数据中提取出人体的形体特征点,例如可采用美国Google公司出品的mediapipe深度学习模型从人体运动视频影像中提取出所述人体三维姿态参数包含的所述节点的坐标位置,再通过几何关系计算得到所需的所述各节点的所述相对旋转角。
更具体地,在本发明的第二个实施例中,采用深度相机作为所述外置传感器,也可完成与摄像头相似的用户视频影像数据采集,并可进一步结合深度相机采集的深度(即距离)信息得到更精确的所述节点的坐标位置。
更具体地,在本发明的第三个实施例中,采用三维激光雷达和三维毫米波雷达作为所述外置传感器,采集用户的三维点云数据,再通过深度学习的方法从所述三维点云数据中提取出人体的形体特征点。
更具体地,本发明的实施例中所述外置传感器还可以是多个相同或是不同种类的设备结合。例如,在本发明的第四个实施例中,采用摄像头和三维毫米波雷达结合,同时采集用户的视频影像数据和三维点云数据,然后通过三维点云数据所包含的距离信息对视频影像数据中提取出人体的形体特征点加以约束,得到更精确的所述人体三维姿态参数估计,或是将视频影像数据和三维点云数据合并作为输入特征,利用该输入特征下训练好的姿态生成深度神经网络处理后输出所述人体三维姿态参数。
具体地,本发明的实施例中的所述姿态生成深度神经网络可以通过如下步骤进行训练:S101,通过穿戴式和/或贴片式传感器采集人体在各种运动状态下的姿态数据,构建所述人体三维姿态参数,作为输入特征,并同时使用所述外置传感器采集所述全身姿态相关数据,作为输出特征,将输入特征和对应的输出特征划分为训练集和验证集;S102,根据所述输入特征和所述输出特征的数据维度,构建基于卷积神经网络(Convolutional-Neural-Networks,CNN)和/或循环神经网络
(Recurrent-Neural-Network,RNN)和/或编解码神经网络(Encoder-Decoder)和/或自注意力机制(Self-Attention)的姿态生成深度神经网络模型;S103,采用反向传播(Back-Propagation)等深度学习领域的相关方法,利用所述训练集对所述姿态生成深度神经网络模型进行训练,并利用所述验证集对超参数(Hyper-Parameter)进行调优。
根据本发明的优选实施例,所述姿态生成深度神经网络的特征包括从每一帧全身姿态相关数据中提取与用户姿态相对应的人体三维姿态参数。
根据本发明的优选实施例,所述人体三维姿态参数包括如下节点:臀部、脊椎、颈部、头部、左肩、左臂、左前臂、左手、右肩、右臂、右前臂、右手、左上腿、左腿、左脚、左脚趾跟、右上腿、右腿、右脚、右脚趾跟,每个节点以一组三维浮点数据表示其相对旋转角。
根据本发明的优选实施例,所述参数化人体模型需根据上述节点构成树状结构,每一节点以其相对于父节点的所述相对旋转角来表达其位置关系。
根据本发明的优选实施例,所述用户的虚拟三维身体为一个三维obj模型,至少包含顶点和三角面信息,每一个所述顶点根据与其最近的一个或多个所述节点的距离关系,设置有对应这些节点的权重值,从而在所述节点运动时牵动所述顶点运动,进而牵动整个虚拟三维身体运动。
图2给出了根据本发明的一种增强虚拟现实系统用户体验的系统的组成示意图,包括VR显示模块1、外置传感器模块2、姿态参数生成模块3、VR场景生成模块4;所述VR显示模块1用于接收所述VR场景生成模块4生成的VR场景并向用户显示;所述外置传感器模块2用于采集用户的全身姿态相关数据并发送至所述姿态参数生成模块3;所述姿态参数生成模块3用于接收所述外置传感器模块2发送的所述全身姿态相关数据,并利用预先训练好的姿态生成深度神经网络对所述全身姿态相关数据进行处理,生成人体三维姿态参数,并发送至所述VR场景生成模块4;所述VR场景生成模块4用于生成所述VR场景,并用于接收所述姿态参数生成模块4发送的所述人体三维姿态参数,利用所述人体三维姿态参数驱动参数化人体模型,在所述VR场景中加入用户的虚拟三维身体,并将所述VR场景发送至所述VR显示模块1。
根据本发明的优选实施例,所述VR显示模块1包括下列中的至少一个:VR头盔、VR眼镜、VR眼罩。
根据本发明的优选实施例,所述外置传感器模块2包括下列中的至少一个:摄像头、深度相机、三维激光雷达、三维毫米波雷达。
进一步地,本发明提供的一种增强虚拟现实系统用户体验的系统的各个组成模块并不必须是物理上的独立设备,也可以是多个模块共同集成于同一个设备,例如在实施例中可将所述VR显示模块和所述VR场景生成模块集成到VR头盔设备中,或者,可将所述VR显示模块、所述VR场景生成模块和所述姿态参数生成模块一起集成到VR头盔设备中,或者,可将所述外置传感器模块和所述姿态参数生成模块集成到一个姿态采集设备中,等多种组合方式。
本发明提供的增强虚拟现实系统用户体验的方法及系统具有如下优点:能够精确跟踪人体运动姿态,并在VR场景中叠加显示,使用户能够在VR场景中看到与真实姿态动作一致的虚拟身体和手脚,体验更加真实;由于采用了外置传感器,无需繁琐的穿戴、脱卸、校准及充电等流程,使得系统更加方便易用;由于对用户姿态进行了跟踪和显示,便于用户采用手势等肢体语言进行VR场景的交互控制,并且便于不同用户之间通过肢体语言进行交流沟通。
需要说明的是,本发明中提出的增强虚拟现实系统用户体验的方法及系统对于基于虚拟现实系统原理的混合现实(Mixed Reality,MR)及增强现实(Augmented Reality,AR)系统也同样适用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
本发明的增强虚拟现实系统用户体验的系统传统上包括处理器和以存储器形式的计算机程序产品或者计算机可读介质。存储器可以是诸如闪存、EEPROM(电可擦除可编程只读存储器)、EPROM、硬盘或者ROM之类的电子存储器。存储器具有用于执行上述方法中的任何方法步骤的程序代码的存储空间。例如,用于程序代码的存储空间可以包括分别用于实现上面的方法中的各种步骤的各个程序代码。这些程序代码可以从一个或者多个计算机程序产品中读出或者写入到这一个或者多个计算机程序产品中。这些计算机程序产品包括诸如硬盘,紧致盘(CD)、存储卡或者软盘之类的程序代码载体。这样的计算机程序产品通常为便携式或者固定存储单元。该存储单元可以类似布置的存储段、存储空间等。程序代码可以例如以适当形式进行压缩。通常,存储单元包括用于执行根据本发明的方法步骤的计算机可读代码,即可以由例如处理器读取的代码,这些代码被运行时,导致该虚拟现实系统的交互控制装置执行上面所描述的方法中的各个步骤。
应当理解,所图示和描述的实施例在应用中不限于在上述描述中阐明或在附图中图示的配置的细节。所图示的示例可以是其他的实施例,并且能够以各种方式来实施或执行。各示例通过对所公开的实施例进行解释而非限制的方式来提供。实际上,对本领域技术人员显而易见的是,在不背离本发明公开的范围或实质的情况下,可以对本发明的各实施例作出各种修改和变型。例如,作为一个实施例的一部分而图示或描述的特征,可以与另一实施例起使用,以产生进一步的实施例。因此,本发明公开涵盖属于所附权利要求及其等同要素范围内的这样的修改和变型。
Claims (10)
1.一种增强虚拟现实系统用户体验的方法,包括以下步骤:
通过外置传感器采集用户的全身姿态相关数据;
通过预先训练好的姿态生成深度神经网络对所述全身姿态相关数据进行处理,生成人体三维姿态参数;
利用所述人体三维姿态参数驱动参数化人体模型,并在虚拟现实场景中生成所述用户的虚拟三维身体,跟随所述用户的姿态实时运动。
2.根据权利要求1所述的方法,其特征在于,所述姿态生成深度神经网络通过以下步骤预先训练:
通过穿戴式和/或贴片式传感器采集人体在各种运动状态下的姿态数据,构建所述人体三维姿态参数作为输入特征,并同时使用所述外置传感器采集所述全身姿态相关数据作为输出特征,将输入特征和对应的输出特征划分为训练集和验证集;
根据所述输入特征和所述输出特征的数据维度,构建基于卷积神经网络和/或循环神经网络和/或编解码神经网络和/或自注意力机制的姿态生成深度神经网络模型;
采用深度学习领域的方法,利用所述训练集对所述姿态生成深度神经网络模型进行训练,并利用所述验证集对超参数进行调优。
3.根据权利要求2所述的方法,其特征在于,所述深度学习领域的方法包括反向传播算法。
4.根据权利要求1所述的方法,其特征在于,所述全身姿态相关数据包括下列中的至少一个:用户的视频影像数据、带深度信息的用户视频影像数据、激光雷达点云数据、毫米波雷达点云数据。
5.根据权利要求1所述的方法,其特征在于,所述姿态生成深度神经网络的特征包括从每一帧全身姿态相关数据中提取与用户姿态相对应的人体三维姿态参数。
6.根据权利要求1-5中任一项所述的方法,其特征在于,所述人体三维姿态参数包括如下节点:臀部、脊椎、颈部、头部、左肩、左臂、左前臂、左手、右肩、右臂、右前臂、右手、左上腿、左腿、左脚、左脚趾跟、右上腿、右腿、右脚、右脚趾跟,每个节点以一组三维浮点数据表示其相对旋转角。
7.一种增强虚拟现实系统用户体验的系统,包括虚拟现实显示模块、外置传感器模块、姿态参数生成模块、虚拟现实场景生成模块,
其中,所述虚拟现实显示模块用于接收所述虚拟现实场景生成模块生成的虚拟现实场景并向用户显示;所述外置传感器模块用于采集所述用户的全身姿态相关数据并发送至所述姿态参数生成模块;所述姿态参数生成模块用于接收所述外置传感器模块发送的所述全身姿态相关数据,并利用预先训练好的姿态生成深度神经网络对所述全身姿态相关数据进行处理,生成人体三维姿态参数,并发送至所述虚拟现实场景生成模块;所述虚拟现实场景生成模块用于生成所述虚拟现实场景,并用于接收所述姿态参数生成模块发送的所述人体三维姿态参数,利用所述人体三维姿态参数驱动参数化人体模型,在所述虚拟现实场景中加入所述用户的虚拟三维身体,并将所述虚拟现实场景发送至所述虚拟现实显示模块。
8.根据权利要求7所述的系统,其特征在于,所述姿态生成深度神经网络通过以下步骤预先训练:
通过穿戴式和/或贴片式传感器采集人体在各种运动状态下的姿态数据,构建所述人体三维姿态参数作为输入特征,并同时使用所述外置传感器采集所述全身姿态相关数据作为输出特征,将输入特征和对应的输出特征划分为训练集和验证集;
根据所述输入特征和所述输出特征的数据维度,构建基于卷积神经网络和/或循环神经网络和/或编解码神经网络和/或自注意力机制的姿态生成深度神经网络模型;
采用深度学习领域的方法,利用所述训练集对所述姿态生成深度神经网络模型进行训练,并利用所述验证集对超参数进行调优。
9.根据权利要求8所述的系统,其特征在于,所述深度学习领域的方法包括反向传播算法。
10.根据权利要求7所述的系统,其特征在于,所述姿态生成深度神经网络的特征包括从每一帧全身姿态相关数据中提取与用户姿态相对应的人体三维姿态参数。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210177953.XA CN116700471A (zh) | 2022-02-25 | 2022-02-25 | 一种增强虚拟现实系统用户体验的方法及系统 |
PCT/CN2023/074391 WO2023160356A1 (zh) | 2022-02-25 | 2023-02-03 | 一种增强虚拟现实系统用户体验的方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210177953.XA CN116700471A (zh) | 2022-02-25 | 2022-02-25 | 一种增强虚拟现实系统用户体验的方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116700471A true CN116700471A (zh) | 2023-09-05 |
Family
ID=87764777
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210177953.XA Pending CN116700471A (zh) | 2022-02-25 | 2022-02-25 | 一种增强虚拟现实系统用户体验的方法及系统 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN116700471A (zh) |
WO (1) | WO2023160356A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117115400A (zh) * | 2023-09-15 | 2023-11-24 | 深圳市红箭头科技有限公司 | 实时显示全身人体动作的方法、装置、计算机设备及存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117742499B (zh) * | 2023-12-29 | 2024-05-31 | 武汉科技大学 | 一种基于飞轮的vr场景体感模拟系统 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170185141A1 (en) * | 2015-12-29 | 2017-06-29 | Microsoft Technology Licensing, Llc | Hand tracking for interaction feedback |
CN108196679B (zh) * | 2018-01-23 | 2021-10-08 | 河北中科恒运软件科技股份有限公司 | 基于视频流的手势捕捉和纹理融合方法及系统 |
CN108983979B (zh) * | 2018-07-25 | 2021-11-30 | 北京因时机器人科技有限公司 | 一种手势跟踪识别方法、装置和智能设备 |
CN112102682B (zh) * | 2020-11-09 | 2021-05-18 | 中电科芜湖通用航空产业技术研究院有限公司 | 基于5g通信的飞行器驾驶培训系统和方法 |
CN113421328B (zh) * | 2021-05-27 | 2022-03-11 | 中国人民解放军军事科学院国防科技创新研究院 | 一种三维人体虚拟化重建方法及装置 |
-
2022
- 2022-02-25 CN CN202210177953.XA patent/CN116700471A/zh active Pending
-
2023
- 2023-02-03 WO PCT/CN2023/074391 patent/WO2023160356A1/zh unknown
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117115400A (zh) * | 2023-09-15 | 2023-11-24 | 深圳市红箭头科技有限公司 | 实时显示全身人体动作的方法、装置、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2023160356A1 (zh) | 2023-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111126272B (zh) | 姿态获取方法、关键点坐标定位模型的训练方法和装置 | |
Huang et al. | Deep inertial poser: Learning to reconstruct human pose from sparse inertial measurements in real time | |
CN109636831B (zh) | 一种估计三维人体姿态及手部信息的方法 | |
CN111402290B (zh) | 一种基于骨骼关键点的动作还原方法以及装置 | |
JP7178396B2 (ja) | 入力映像に含まれた客体の3次元ポーズの推定のためのデータを生成する方法およびコンピュータシステム | |
EP2880633B1 (en) | Animating objects using the human body | |
Tao et al. | Integration of vision and inertial sensors for 3D arm motion tracking in home-based rehabilitation | |
Shingade et al. | Animation of 3d human model using markerless motion capture applied to sports | |
CN113706699B (zh) | 数据处理方法、装置、电子设备及计算机可读存储介质 | |
EP3942529A1 (en) | Predicting three-dimensional articulated and target object pose | |
WO2023160356A1 (zh) | 一种增强虚拟现实系统用户体验的方法及系统 | |
US10970849B2 (en) | Pose estimation and body tracking using an artificial neural network | |
CN113033369B (zh) | 动作捕捉方法、装置、电子设备及计算机可读存储介质 | |
CN115244495A (zh) | 针对虚拟环境运动的实时式样 | |
CN114120432A (zh) | 基于视线估计的在线学习注意力跟踪方法及其应用 | |
CN114782661B (zh) | 下半身姿态预测模型的训练方法及装置 | |
Haggag et al. | Body parts segmentation with attached props using rgb-d imaging | |
Huang et al. | A review of 3D human body pose estimation and mesh recovery | |
Ma et al. | Human motion gesture recognition based on computer vision | |
Santhalingam et al. | Synthetic smartwatch imu data generation from in-the-wild asl videos | |
CN116485953A (zh) | 数据处理方法、装置、设备和可读存储介质 | |
Ruget et al. | Real-time, low-cost multi-person 3D pose estimation | |
Türkmen | Scene understanding through semantic image segmentation in augmented reality | |
Hori et al. | Silhouette-Based 3D Human Pose Estimation Using a Single Wrist-Mounted 360° Camera | |
Zhou et al. | Tracking of Deformable Human Avatars through Fusion of Low-Dimensional 2D and 3D Kinematic Models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication |