CN112256125B - 一种基于激光大空间定位与光惯互补动作捕捉系统及方法 - Google Patents

一种基于激光大空间定位与光惯互补动作捕捉系统及方法 Download PDF

Info

Publication number
CN112256125B
CN112256125B CN202011116232.5A CN202011116232A CN112256125B CN 112256125 B CN112256125 B CN 112256125B CN 202011116232 A CN202011116232 A CN 202011116232A CN 112256125 B CN112256125 B CN 112256125B
Authority
CN
China
Prior art keywords
positioning
capture
laser
data
inertial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011116232.5A
Other languages
English (en)
Other versions
CN112256125A (zh
Inventor
黄婧
雷斌
周传龙
徐伟
杨光
陈伟伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CETC 28 Research Institute
Original Assignee
CETC 28 Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CETC 28 Research Institute filed Critical CETC 28 Research Institute
Priority to CN202011116232.5A priority Critical patent/CN112256125B/zh
Publication of CN112256125A publication Critical patent/CN112256125A/zh
Application granted granted Critical
Publication of CN112256125B publication Critical patent/CN112256125B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明提供了一种基于激光大空间定位与光惯互补动作捕捉系统及方法,所述系统包括:定位基站、定位件和处理单元;通过蓝牙、Wi‑Fi和服务器构建局域网;通过定位基站固定于定位空间四角,对定位空间进行扫描,配合定位件实现定位件对捕捉对象的光学定位数据的采集;定位件布置于捕捉对象的身体上,采集捕捉对象的光学定位数据和惯性动捕数据,并通过蓝牙传输捕捉对象的光学定位数据,通过Wi‑Fi传输捕捉对象的惯性动捕数据;处理单元通过蓝牙、Wi‑Fi实时接收定位件采集并传输的捕捉对象的光学定位数据和惯性动捕数据,融合解算捕捉对象位姿信息。该系统基于激光大空间定位、光学与惯性互补动作捕捉、IK全身姿态解算等技术,实现大空间多人定位与动作捕捉。

Description

一种基于激光大空间定位与光惯互补动作捕捉系统及方法
技术领域
本发明涉及空间定位与动作捕捉领域,尤其涉及一种基于激光大空间定位与光惯互补动作捕捉系统及方法。
背景技术
随着虚拟现实、人机交互、网络通信等技术高速发展,为满足军民领域积极推进虚实结合训练模式,加速探索安全、高效、贴近真实的训练解决方案,努力打造环境逼真、沉浸感强、操作直观的沉浸式虚拟仿真训练系统,关键在于实现大空间内多人精准定位与动作捕捉技术。
现有主流的空间定位及动作捕捉技术包含两大类:光学定位及动作捕捉(含红外定位、激光定位等)和惯性动作捕捉,已被广泛应用于影视动画、教育培训、体育运动等领域,军事领域也正积极探索。对比两类技术,光学定位及动作捕捉技术精度较高,但存在成本高、受环境影响大、易受遮挡等问题;惯性动作捕捉技术,不易受外界环境干扰,但精度较光学定位低,测量误差易积累。红外定位技术、激光定位技术、惯性动作捕捉技术的原理及优缺点具体如下:
红外定位技术,原理是在不同位置安装红外摄像机,摄像机发出红外光线,并对定位空间进行覆盖拍摄;空间内的被定位物体,则使用红外反光材料标记出重要节点,反射红外摄像机发出的红外光线,并被红外摄像机捕捉;之后通过图像处理算法,计算出各标记的重要节点在三维空间中的位置及相对位置变化。红外定位技术的优点是精度高、延时低;缺点是设备搭建复杂、场地与人工成本高、标记点易被遮挡导致定位丢失。
激光定位技术,原理是通过一对激光定位基站发射垂直和水平的激光束,对空间进行扫射;空间内的被定位物体上安装多个激光位置追踪器,通过计算激光束投射在物体上的角度差,得到物体三维坐标;结合多个激光位置追踪器的测量结果,可计算出物体的空间位置与运动轨迹。激光定位技术的优点是成本低、精度高且无需复杂数据运算即可达到较强的实时度;缺点是同样存在遮挡导致定位丢失的问题。
惯性动作捕捉技术,原理是采用三轴陀螺仪、三轴加速度计和三轴磁力计组成的惯性测量单元(IMU)测量传感器的运动参数。惯性动作捕捉技术的优点是对动作捕获环境要求较低、连续捕捉稳定性好,操作便捷;缺点是精度较光学定位技术低,易积累误差。
发明内容
本发明目的是提供一种基于激光大空间定位与光惯互补动作捕捉系统及方法。通过光学与惯性技术优势互补,解决光学定位易受遮挡导致动作丢失,以及惯性动作捕捉技术误差积累的问题,实现低成本、抗遮挡、抗干扰、高精度的大空间动作捕捉解决方案。
为实现上述目的,本发明提出以下技术方案:
第一方面,本发明提供一种基于激光大空间定位与光惯互补动作捕捉系统,包括:定位基站、定位件和处理单元,并通过蓝牙、Wi-Fi和服务器构建局域网;
所述定位基站固定布设于定位空间四角,用于对所述定位空间进行扫描,配合所述定位件实现定位件对捕捉对象的光学定位数据的采集;
所述定位件布置于捕捉对象的身体上,用于采集所述捕捉对象的光学定位数据和惯性动捕数据,并通过所述蓝牙向处理单元传输捕捉对象的光学定位数据,以及通过所述Wi-Fi向处理单元传输捕捉对象的惯性动捕数据,所述光学定位数据即关键点位置信息,所述惯性动捕数据即关键点角度信息;
所述处理单元,通过蓝牙、Wi-Fi实时接收定位件采集并传输的所述捕捉对象的光学定位数据和惯性动捕数据,融合解算所述捕捉对象的位姿信息。
进一步地,在一种实现方式中,所述定位基站的数量大于或等于四台,布设于所述定位空间的四角;
所述定位基站内置激光发射器,所述定位基站通过激光发射器发射水平与垂直方向的激光,对所述定位空间进行扫描,实现通过所述定位件对定位空间中的捕捉对象的光学定位数据进行采集;所述捕捉对象的光学定位数据,即所述定位件中激光位置追踪器的位置信息。
进一步地,在一种实现方式中,所述定位件针对每个捕捉对象的配置包括5个激光位置追踪器、29个惯性传感器和1个VR头盔;
所述激光位置追踪器,分别置于所述捕捉对象的手背、脚背和后背,用于分别定位所述捕捉对象的手部节点、脚部节点和胸部节点所对应的关键点位置信息,所述激光位置追踪器通过蓝牙向处理单元传输捕捉对象的光学定位数据;
所述惯性传感器包含微型CPU和信号发射装置,嵌于所述捕捉对象的动捕服与数据手套中,用于采集所述捕捉对象各个肢体部位的关键点角度信息,所述惯性传感器通过Wi-Fi向处理单元传输捕捉对象的惯性动捕数据;
所述VR头盔置于捕捉对象的头部,用于定位捕捉对象头部所对应的关键点位置信息,所述VR头盔通过连接线向处理单元传输捕捉对象的光学定位数据。
进一步地,在一种实现方式中,所述处理单元包括背负式计算机,所述背负式计算机设于捕捉对象背部,用于实时接收所述捕捉对象的光学定位数据和惯性动捕数据,融合解算所述捕捉对象的位姿信息。
第二方面,本发明提供一种基于激光大空间定位与光惯互补动作捕捉方法,包括如下步骤:
步骤1,部署定位基站,所述定位基站分别固定于定位空间四个顶点,通过内置的激光发射器,从水平和垂直方向发射激光,对所述定位空间进行扫描;
步骤2,将定位件穿戴于捕捉对象的身体上,包括佩戴VR头盔、激光位置追踪器、动捕服和数据手套,所述动捕服和数据手套包括内置的惯性传感器;
步骤3,对所述捕捉对象进行全身姿态校准,包括启动处理单元内置的客户端软件调用校准命令,在所述捕捉对象维持校准姿态三秒后完成校准;
步骤4,通过所述VR头盔和激光位置追踪器采集捕捉对象的头部、胸部、手部、脚部上的重要人体节点的光学定位数据,并通过蓝牙将所述光学定位数据对应的坐标信息传输至捕捉对象的背负式计算机;通过内置于所述动捕服和数据手套的惯性传感器,采集所述捕捉对象的手部、腰部和腿部上的重要人体节点的惯性动捕数据,并通过Wi-Fi将所述惯性动捕数据传输至捕捉对象的背负式计算机;
步骤5,所述背负式计算机基于激光位置追踪器、VR头盔和惯性传感器采集的重要人体节点的数据,运用反向运动学算法进行解算,获得所述捕捉对象的其他人体节点的位姿信息。
进一步地,在一种实现方式中,所述步骤1中,所述定位基站的部署方法包括:
在矩形场地上方的四个顶点位置,布置四个或四个以上的定位基站,所述定位基站的安装高度为2.5米,所述矩形场地的最大边长小于或等于10米,基于所述四个或四个以上的激光定位基站实现最大面积为100平方米的空间定位;
根据所述矩形场地,利用所述矩形场地内的墙面、三角架和吊顶实现对定位基站的固定。
进一步地,在一种实现方式中,所述步骤2包括:
步骤2-1,将基于所述激光位置追踪器的动作捕捉设备佩戴于捕捉对象的身体上;所述捕捉对象的头部佩戴VR头盔,用于定位头部节点位置;所述捕捉对象的双手背佩戴激光位置追踪器,用于定位手部节点位置;所述捕捉对象的后背佩戴激光位置追踪器,用于定位胸部节点位置;所述捕捉对象的双脚脚面佩戴激光位置追踪器,用于定位脚部节点位置;
步骤2-2,将基于所述惯性传感器的动作捕捉设备佩戴于捕捉对象的身体上;所述捕捉对象佩戴内置惯性传感器的数据手套,捕捉手部的姿态细节;所述捕捉对象穿戴内置惯性传感器的动捕服,捕捉腰部与腿部的姿态。
进一步地,在一种实现方式中,所述步骤3包括:
步骤3-1,启动所述处理单元内置的客户端软件,调用校准命令;
步骤3-2,所述捕捉对象保持校准姿势,所述校准姿势即双臂下垂绷直,双手握拳掌心面贴于裤缝,双脚平行脚尖朝前;
步骤3-3,所述捕捉对象保持步骤3-2中的姿势三秒,完成姿态校准。
进一步地,在一种实现方式中,所述步骤4包括:
步骤4-1,所述捕捉对象佩戴的激光位置追踪器在接收到激光信号后,通过蓝牙发送所述光学定位数据对应的坐标信息至捕捉对象的背负式计算机;
步骤4-2,所述捕捉对象佩戴的惯性传感器利用自身CPU解算角度信息,通过Wi-Fi将所述角度信息传输至背负式计算机,所述角度信息即惯性动捕数据;
步骤4-3,当所述激光位置追踪器受到遮挡时,由惯性传感器辅助姿态解算。
具体的,相较于目前较常见的基于红外定位技术的大空间定位方法,本发明通过步骤1至步骤4提供的一种基于激光大空间定位与光惯互补动作捕捉方法,一方面,能够发挥激光大空间定位技术成本低、安装便捷、定位精度高、运算速度快等优势;另一方面,可发挥惯性动作捕捉技术稳定性强、抗遮挡等优点,实现激光与惯性动作捕捉技术的优势互补,提供更加实用、稳定、高效、精准的动作捕捉解决方案。因此,解决了现有技术中存在的定位空间搭建复杂、场地与人工成本高、标记点易被遮挡等问题。
进一步地,在一种实现方式中,所述步骤5包括:
步骤5-1,所述捕捉对象上半身涉及的双肩节点和胯节点,基于所述VR头盔定位的头部节点和背部激光位置追踪器定位的胸部节点的位置,通过反向运动学解算得到;
步骤5-2,所述捕捉对象的小臂节点,基于激光位置追踪器定位的手部节点位置,通过反向运动学解算得到;大臂节点则基于所述小臂节点和双肩节点位置,通过反向运动学解算得到;
步骤5-3,所述捕捉对象的腿部姿态,基于激光位置追踪器定位的脚部节点位置与步骤5-1解算出的胯节点位置,通过反向运动学解算得到;并结合腿部惯性传感器捕捉的数据,解算出正确膝关节朝向。
具体的,通过步骤5提供的基于反向运动学(Inverse kinematics,IK)算法,根据所有定位件采集的全身关键节点数据,通过IK算法进行全身姿态解算,并通过光惯混合的动捕方法实现更加准确的腿部姿态,有效解决了在光学定位过程中出现的捕捉对象脚部漂移的问题。
本发明与现有技术相比,包含以下显著优点:
本发明采用光学与惯性互补的定位方法,解决多人协同体感交互过程中光学定位遮挡问题,通过对激光与惯性两种姿态信息进行输入补偿,可减少因遮挡造成动作捕捉失效的可能性,增加有效空间定位区域。此外,激光定位技术相较于红外定位技术,减少了定位空间需要布设的相机数量,降低了人工与搭建成本。因此,本发明提供了一种帧率高、成本低、精度好,抗遮挡性强的空间定位技术,适用于场地较大、人数较多、动捕精度较高、成本较敏感的空间定位场景。
附图说明
为了更清楚地说明本发明的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例部分提供的一种基于激光大空间定位与光惯互补动作捕捉系统场景示意图;
图2是本发明实施例部分提供的一种基于激光大空间定位与光惯互补动作捕捉方法中基于激光大空间定位的光惯互补动作捕捉工作流程示意图;
图3是本发明实施例部分提供的一种基于激光大空间定位与光惯互补动作捕捉方法中光惯互补动作捕捉传感器穿戴示意图;
图4是本发明实施例部分提供的一种基于激光大空间定位与光惯互补动作捕捉方法中光惯互补动作捕捉姿态解算示意图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
本发明实施例公开一种基于激光大空间定位与光惯互补动作捕捉方法,本方法应用于部队、武警、公安等军民领域用户,针对日常训练、应急演练等应用场景,提供虚拟沉浸式的模拟训练解决方案,能够支持参训者进入高度仿真的虚拟训练环境,通过动作捕捉系统实现虚拟人对真人动作的同步映射,从而完成真人与真人,真人与虚拟人的协同与对抗,营造贴近真实的训练体验,锻炼参训者面对真实现场的临场反应能力与心理承受能力。
本实施例中,所述光惯互补是融合了光学动作捕捉与惯性动作捕捉技术的一种动作捕捉方法,能够发挥光学动作捕捉与惯性动作捕捉技术的各自优势,达到更加精准、高效的动捕捉效果。
如图1所示,本实施例提供一种基于激光大空间定位与光惯互补动作捕捉系统,包括:定位基站、定位件和处理单元,并通过蓝牙、Wi-Fi和服务器构建局域网;具体的,对10米*10米*2.5米的空间进行定位,并对空间中的4名捕捉对象进行光惯互补动作捕捉。本实施例中,采用的激光位置追踪器,其蓝牙工作频段在2.4GHz。目前2.4GHz ISM(IndustryScience Medicine)是全球公开通用使用的无线频段,蓝牙技术工作在这一频段。
所述定位基站固定布设于定位空间四角,用于对所述定位空间进行扫描,配合所述定位件实现定位件对捕捉对象的光学定位数据的采集;具体的,本实施例中,由于定位基站发射激光的覆盖的范围有限,定位基站成对并以对角线位置部署效果最佳。
所述定位件布置于捕捉对象的身体上,用于采集所述捕捉对象的光学定位数据和惯性动捕数据,并通过所述蓝牙向处理单元传输捕捉对象的光学定位数据,以及通过所述Wi-Fi向处理单元传输捕捉对象的惯性动捕数据,所述光学定位数据即关键点位置信息,所述惯性动捕数据即关键点角度信息;
所述处理单元,通过蓝牙、Wi-Fi实时接收定位件采集并传输的所述捕捉对象的光学定位数据和惯性动捕数据,融合解算所述捕捉对象的位姿信息。
本实施例所述的一种基于激光大空间定位与光惯互补动作捕捉系统中,所述定位基站的数量大于或等于四台,布设于所述定位空间的四角;
所述定位基站内置激光发射器,所述定位基站通过激光发射器发射水平与垂直方向的激光,对所述定位空间进行扫描,实现通过所述定位件对定位空间中的捕捉对象的光学定位数据进行采集;所述捕捉对象的光学定位数据,即所述定位件中激光位置追踪器的位置信息。具体的,本实施例中,所述激光发射器的选用包括但不限于SteamVR定位器。
本实施例所述的一种基于激光大空间定位与光惯互补动作捕捉系统中,所述定位件针对每个捕捉对象的配置包括5个激光位置追踪器、29个惯性传感器和1个VR头盔;此外,还可以配备仿真枪,仿真枪有2个作用:1)作为训练的实物仿真设备,为受训者提供更加接近真实的训练体验,例如,可模拟射击等动作;2)作为交互设备,负责与应用软件进行交互,支持用户进行选择、确定等操作;仿真枪本身不是动捕设备,但在本方案中显示了此空间定位方法,同样支持对仿真设备、交互设备的定位。
所述激光位置追踪器,分别置于所述捕捉对象的手背、脚背和后背,用于分别定位所述捕捉对象的手部节点、脚部节点和胸部节点所对应的关键点位置信息,所述激光位置追踪器通过蓝牙向处理单元传输捕捉对象的光学定位数据;具体的,本实施例中,所述激光位置追踪器的选用包括但不限于HTC VIVE Tracker,所述惯性传感器的选用包括但不限于九轴惯性传感器,所述VR头盔具体的选用包括但不限于HTC VIVE Pro。
所述惯性传感器包含微型CPU和信号发射装置,嵌于所述捕捉对象的动捕服与数据手套中,用于采集所述捕捉对象各个肢体部位的关键点角度信息,所述惯性传感器通过Wi-Fi向处理单元传输捕捉对象的惯性动捕数据;
所述VR头盔置于捕捉对象的头部,用于定位捕捉对象头部所对应的关键点位置信息,所述VR头盔通过连接线向处理单元传输捕捉对象的光学定位数据。
本实施例所述的一种基于激光大空间定位与光惯互补动作捕捉系统中,所述处理单元包括多台背负式计算机,所述背负式计算机设于捕捉对象背部,用于实时接收所述捕捉对象的光学定位数据和惯性动捕数据,融合解算所述捕捉对象的位姿信息。具体的,本实施例中,所述背负式计算机具体的选用包括但不限于索泰VR GO。
本实施例提供一种基于激光大空间定位与光惯互补动作捕捉方法,包括如下步骤:
步骤1,部署定位基站,所述定位基站分别固定于定位空间四个顶点,通过内置的激光发射器,从水平和垂直方向发射激光,对所述定位空间进行扫描;
步骤2,将定位件穿戴于捕捉对象的身体上,包括佩戴VR头盔、激光位置追踪器、动捕服和数据手套,所述动捕服和数据手套包括内置的惯性传感器;
步骤3,对所述捕捉对象进行全身姿态校准,包括启动处理单元内置的客户端软件调用校准命令,在所述捕捉对象维持校准姿态三秒后完成校准;
步骤4,通过所述VR头盔和激光位置追踪器采集捕捉对象的头部、胸部、手部、脚部上的共6个重要人体节点的光学定位数据,并通过蓝牙将所述光学定位数据对应的坐标信息传输至捕捉对象的背负式计算机;通过内置于所述动捕服和数据手套的惯性传感器,采集所述捕捉对象的手部、腰部和腿部上的重要人体节点的惯性动捕数据,所述惯性动捕数据的重要人体节点共29个,包含两手各12个、两腿各2个、腰部1个,并通过Wi-Fi将所述惯性动捕数据传输至捕捉对象的背负式计算机;
步骤5,所述背负式计算机基于激光位置追踪器、VR头盔和惯性传感器采集的重要人体节点的数据,运用反向运动学算法进行解算,获得所述捕捉对象的其他人体节点的位姿信息。通过本实施例所述的一种基于激光大空间定位与光惯互补动作捕捉方法,能够实现虚拟沉浸式训练体验。
本实施例所述的一种基于激光大空间定位与光惯互补动作捕捉方法中,所述步骤1中,所述定位基站的部署方法包括:
在矩形场地上方的四个顶点位置,布置四个或四个以上的定位基站,所述定位基站的安装高度为2.5米,所述矩形场地的最大边长小于或等于10米,基于所述四个或四个以上的激光定位基站实现最大面积为100平方米的空间定位;
根据所述矩形场地,利用所述矩形场地内的墙面、三角架和吊顶实现对定位基站的固定。本实施例中,通过包括但不限于墙面、三角架和吊顶实现对定位基站的固定,能够使得定位基站灵活拆装,移动方便。
本实施例所述的一种基于激光大空间定位与光惯互补动作捕捉方法中,所述步骤2包括:
步骤2-1,将基于所述激光位置追踪器的动作捕捉设备佩戴于捕捉对象的身体上;所述捕捉对象的头部佩戴VR头盔,用于定位头部节点位置;所述捕捉对象的双手背佩戴激光位置追踪器,用于定位手部节点位置;所述捕捉对象的后背佩戴激光位置追踪器,用于定位胸部节点位置;所述捕捉对象的双脚脚面佩戴激光位置追踪器,用于定位脚部节点位置;
步骤2-2,将基于所述惯性传感器的动作捕捉设备佩戴于捕捉对象的身体上;所述捕捉对象佩戴内置惯性传感器的数据手套,捕捉手部的姿态细节;所述捕捉对象穿戴内置惯性传感器的动捕服,捕捉腰部与腿部的姿态。
本实施例所述的一种基于激光大空间定位与光惯互补动作捕捉方法中,所述步骤3包括:
步骤3-1,启动所述处理单元内置的客户端软件,调用校准命令;
步骤3-2,所述捕捉对象保持校准姿势,所述校准姿势即双臂下垂绷直,双手握拳掌心面贴于裤缝,双脚平行脚尖朝前;
步骤3-3,所述捕捉对象保持步骤3-2中的姿势三秒,完成姿态校准。
本实施例所述的一种基于激光大空间定位与光惯互补动作捕捉方法中,所述步骤4包括:
步骤4-1,所述捕捉对象佩戴的激光位置追踪器在接收到激光信号后,通过蓝牙发送所述光学定位数据对应的坐标信息至捕捉对象的背负式计算机;
步骤4-2,所述捕捉对象佩戴的惯性传感器利用自身CPU解算角度信息,通过Wi-Fi将所述角度信息传输至背负式计算机,所述角度信息即惯性动捕数据;
步骤4-3,当所述激光位置追踪器受到遮挡时,由惯性传感器辅助姿态解算。
具体的,本实施例中,融合解算主要体现在2个方面:1)当激光位置追踪器受到遮挡时,可由惯性传感器辅助姿态结算;2)光学动作捕捉与惯性动作捕捉互为补充,例如捕捉对象腿部动作时,通过激光位置追踪器检测对象脚部位置,在落下与抬起时,分别通过激光位置追踪器、惯性传感器采集光学定位数据和惯性定位数据。
具体的,相较于目前较常见的基于红外定位技术的大空间定位方法,本实施例通过步骤1至步骤4提供的一种基于激光大空间定位与光惯互补动作捕捉方法,一方面,能够发挥激光大空间定位技术成本低、安装便捷、定位精度高、运算速度快等优势;另一方面,可发挥惯性动作捕捉技术稳定性强、抗遮挡等优点,实现激光与惯性动作捕捉技术的优势互补,提供更加实用、稳定、高效、精准的动作捕捉解决方案。因此,解决了现有技术中存在的定位空间搭建复杂、场地与人工成本高、标记点易被遮挡等问题。
本实施例所述的一种基于激光大空间定位与光惯互补动作捕捉方法中,所述步骤5包括:
步骤5-1,所述捕捉对象上半身涉及的双肩节点和胯节点,基于所述VR头盔定位的头部节点和背部激光位置追踪器定位的胸部节点的位置,通过反向运动学解算得到;
步骤5-2,所述捕捉对象的小臂节点,基于激光位置追踪器定位的手部节点位置,通过反向运动学解算得到;大臂节点则基于所述小臂节点和双肩节点位置,通过反向运动学解算得到;
步骤5-3,所述捕捉对象的腿部姿态,基于激光位置追踪器定位的脚部节点位置与步骤5-1解算出的胯节点位置,通过反向运动学解算得到;并结合腿部惯性传感器捕捉的数据,解算出正确膝关节朝向。
本实施例中,通过步骤5提供的基于反向运动学(Inverse kinematics,IK)算法,根据所有定位件采集的全身关键节点数据,通过IK算法进行全身姿态解算,并通过光惯融合的动捕方法实现更加准确的腿部姿态,有效解决了在光学定位过程中出现的捕捉对象脚部漂移的问题。
如图2所示,本发明所述的一种基于激光大空间定位的光惯互补动作捕捉工作流程。启动客户端软件,一方面激光发射器发射同步信号,检测激光位置追踪器是否接受到激光信号;设备运转正常,则接收到激光信号的VR头盔、激光位置追踪器等,会将坐标信息传输至客户端软件;另一方面,完成惯性传感器校准,采集所在关键节点的三维加速度、角速度和磁场数据,结合惯性传感器自身微型CPU解算出的角度信息,通过Wi-Fi传输至客户端软件;最后,客户端软件通过IK算法,对采集到的各个关键节点数据进行解算,获得所述捕捉对象的全身姿态,并在应用程序中显示。
如图3所示,本发明所述的一种光惯互补动作捕捉传感器穿戴方法。其中①位置佩戴VR头盔,结合激光发射器定位头部位置;②位置佩戴激光位置追踪器,分别布设于手背、脚背和后背;③位置佩戴惯性传感器,分别布设于腰前、大腿、小腿、手背及手指关节。
如图4所示,本实施例所述的一种基于激光大空间定位与光惯互补动作捕捉系统及方法,还公开一种光惯互补动作捕捉姿态解算方法,以腿部姿态解算为例,当通过脚部激光位置追踪器检测到脚部未抬起时,基于脚部节点位置和胯节点位置,运用IK即方向动力学计算出腿部的姿态;当脚部激光位置追踪器检测到脚部抬起时,则基于惯性传感器捕捉腿部姿态。
本发明与现有技术相比,包含以下显著优点:
本发明采用光学与惯性互补的定位方法,解决多人协同体感交互过程中光学定位遮挡问题,通过对激光与惯性两种姿态信息进行输入补偿,可减少因遮挡造成动作捕捉失效的可能性,增加有效空间定位区域。此外,激光定位技术相较于红外定位技术,减少了定位空间需要布设的相机数量,降低了人工与搭建成本。因此,本发明提供了一种帧率高、成本低、精度好,抗遮挡性强的空间定位技术,适用于场地较大、人数较多、动捕精度较高、成本较敏感的空间定位场景。
具体实现中,本发明还提供一种计算机存储介质,其中,该计算机存储介质可存储有程序,该程序执行时可包括本发明提供的一种基于激光大空间定位与光惯互补动作捕捉方法的各实施例中的部分或全部步骤。所述的存储介质可为磁碟、光盘、只读存储记忆体(read-only memory,ROM)或随机存储记忆体(random access memory,RAM)等。
本领域的技术人员可以清楚地了解到本发明实施例中的技术可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本发明实施例中的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例或者实施例的某些部分所述的方法。
本说明书中各个实施例之间相同相似的部分互相参见即可。以上所述的本发明实施方式并不构成对本发明保护范围的限定。

Claims (9)

1.一种基于激光大空间定位与光惯互补动作捕捉系统,其特征在于,包括:定位基站、定位件和处理单元,并通过蓝牙、Wi-Fi和服务器构建局域网;
所述定位基站固定布设于定位空间四角,用于对所述定位空间进行扫描,配合所述定位件实现定位件对捕捉对象的光学定位数据的采集;
所述定位件布置于捕捉对象的身体上,用于采集所述捕捉对象的光学定位数据和惯性动捕数据,并通过所述蓝牙向处理单元传输捕捉对象的光学定位数据,以及通过所述Wi-Fi向处理单元传输捕捉对象的惯性动捕数据,所述光学定位数据即关键点位置信息,所述惯性动捕数据即关键点角度信息;
所述处理单元,通过蓝牙、Wi-Fi实时接收定位件采集并传输的所述捕捉对象的光学定位数据和惯性动捕数据,融合解算所述捕捉对象的位姿信息;
所述定位基站的数量大于或等于四台,布设于所述定位空间的四角;
所述定位基站内置激光发射器,所述定位基站通过激光发射器发射水平与垂直方向的激光,对所述定位空间进行扫描,实现通过所述定位件对定位空间中的捕捉对象的光学定位数据进行采集;所述捕捉对象的光学定位数据,即所述定位件中激光位置追踪器的位置信息。
2.根据权利要求1所述的一种基于激光大空间定位与光惯互补动作捕捉系统,其特征在于,所述定位件针对每个捕捉对象的配置包括5个激光位置追踪器、29个惯性传感器和1个VR头盔;
所述激光位置追踪器,分别置于所述捕捉对象的手背、脚背和后背,用于分别定位所述捕捉对象的手部节点、脚部节点和胸部节点所对应的关键点位置信息,所述激光位置追踪器通过蓝牙向处理单元传输捕捉对象的光学定位数据;
所述惯性传感器包含微型CPU和信号发射装置,嵌于所述捕捉对象的动捕服与数据手套中,用于采集所述捕捉对象各个肢体部位的关键点角度信息,所述惯性传感器通过Wi-Fi向处理单元传输捕捉对象的惯性动捕数据;
所述VR头盔置于捕捉对象的头部,用于定位捕捉对象头部所对应的关键点位置信息,所述VR头盔通过连接线向处理单元传输捕捉对象的光学定位数据。
3.根据权利要求1所述的一种基于激光大空间定位与光惯互补动作捕捉系统,其特征在于,所述处理单元包括背负式计算机,所述背负式计算机设于捕捉对象背部,用于实时接收所述捕捉对象的光学定位数据和惯性动捕数据,融合解算所述捕捉对象的位姿信息。
4.一种基于激光大空间定位与光惯互补动作捕捉方法,其特征在于,包括如下步骤:
步骤1,部署定位基站,所述定位基站分别固定于定位空间四个顶点,通过内置的激光发射器,从水平和垂直方向发射激光,对所述定位空间进行扫描;
步骤2,将定位件穿戴于捕捉对象的身体上,包括佩戴VR头盔、激光位置追踪器、动捕服和数据手套,所述动捕服和数据手套包括内置的惯性传感器;
步骤3,对所述捕捉对象进行全身姿态校准,包括启动处理单元内置的客户端软件调用校准命令,在所述捕捉对象维持校准姿态三秒后完成校准;
步骤4,通过所述VR头盔和激光位置追踪器采集捕捉对象的头部、胸部、手部、脚部上的重要人体节点的光学定位数据,并通过蓝牙将所述光学定位数据对应的坐标信息传输至捕捉对象的背负式计算机;通过内置于所述动捕服和数据手套的惯性传感器,采集所述捕捉对象的手部、腰部和腿部上的重要人体节点的惯性动捕数据,并通过Wi-Fi将所述惯性动捕数据传输至捕捉对象的背负式计算机;
步骤5,所述背负式计算机基于激光位置追踪器、VR头盔和惯性传感器采集的重要人体节点的数据,运用反向运动学算法进行解算,获得所述捕捉对象的其他人体节点的位姿信息。
5.根据权利要求4所述的一种基于激光大空间定位与光惯互补动作捕捉方法,其特征在于,所述步骤1中,所述定位基站的部署方法包括:
在矩形场地上方的四个顶点位置,布置四个或四个以上的定位基站,所述定位基站的安装高度为2.5米,所述矩形场地的最大边长小于或等于10米,基于所述四个或四个以上的激光定位基站实现最大面积为100平方米的空间定位;
根据所述矩形场地,利用所述矩形场地内的墙面、三角架和吊顶实现对定位基站的固定。
6.根据权利要求4所述的一种基于激光大空间定位与光惯互补动作捕捉方法,其特征在于,所述步骤2包括:
步骤2-1,将基于所述激光位置追踪器的动作捕捉设备佩戴于捕捉对象的身体上;所述捕捉对象的头部佩戴VR头盔,用于定位头部节点位置;所述捕捉对象的双手背佩戴激光位置追踪器,用于定位手部节点位置;所述捕捉对象的后背佩戴激光位置追踪器,用于定位胸部节点位置;所述捕捉对象的双脚脚面佩戴激光位置追踪器,用于定位脚部节点位置;
步骤2-2,将基于所述惯性传感器的动作捕捉设备佩戴于捕捉对象的身体上;所述捕捉对象佩戴内置惯性传感器的数据手套,捕捉手部的姿态细节;所述捕捉对象穿戴内置惯性传感器的动捕服,捕捉腰部与腿部的姿态。
7.根据权利要求4所述的一种基于激光大空间定位与光惯互补动作捕捉方法,其特征在于,所述步骤3包括:
步骤3-1,启动所述处理单元内置的客户端软件,调用校准命令;
步骤3-2,所述捕捉对象保持校准姿势,所述校准姿势即双臂下垂绷直,双手握拳掌心面贴于裤缝,双脚平行脚尖朝前;
步骤3-3,所述捕捉对象保持步骤3-2中的姿势三秒,完成姿态校准。
8.根据权利要求4所述的一种基于激光大空间定位与光惯互补动作捕捉方法,其特征在于,所述步骤4包括:
步骤4-1,所述捕捉对象佩戴的激光位置追踪器在接收到激光信号后,通过蓝牙发送所述光学定位数据对应的坐标信息至捕捉对象的背负式计算机;
步骤4-2,所述捕捉对象佩戴的惯性传感器利用自身CPU解算角度信息,通过Wi-Fi将所述角度信息传输至背负式计算机,所述角度信息即惯性动捕数据;
步骤4-3,当所述激光位置追踪器受到遮挡时,由惯性传感器辅助姿态解算。
9.根据权利要求4所述的一种基于激光大空间定位与光惯互补动作捕捉方法,其特征在于,所述步骤5包括:
步骤5-1,所述捕捉对象上半身涉及的双肩节点和胯节点,基于所述VR头盔定位的头部节点和背部激光位置追踪器定位的胸部节点的位置,通过反向运动学解算得到;
步骤5-2,所述捕捉对象的小臂节点,基于激光位置追踪器定位的手部节点位置,通过反向运动学解算得到;大臂节点则基于所述小臂节点和双肩节点位置,通过反向运动学解算得到;
步骤5-3,所述捕捉对象的腿部姿态,基于激光位置追踪器定位的脚部节点位置与步骤5-1解算出的胯节点位置,通过反向运动学解算得到;并结合腿部惯性传感器捕捉的数据,解算出正确膝关节朝向。
CN202011116232.5A 2020-10-19 2020-10-19 一种基于激光大空间定位与光惯互补动作捕捉系统及方法 Active CN112256125B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011116232.5A CN112256125B (zh) 2020-10-19 2020-10-19 一种基于激光大空间定位与光惯互补动作捕捉系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011116232.5A CN112256125B (zh) 2020-10-19 2020-10-19 一种基于激光大空间定位与光惯互补动作捕捉系统及方法

Publications (2)

Publication Number Publication Date
CN112256125A CN112256125A (zh) 2021-01-22
CN112256125B true CN112256125B (zh) 2022-09-13

Family

ID=74243793

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011116232.5A Active CN112256125B (zh) 2020-10-19 2020-10-19 一种基于激光大空间定位与光惯互补动作捕捉系统及方法

Country Status (1)

Country Link
CN (1) CN112256125B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113110746A (zh) * 2021-05-08 2021-07-13 北京幻威科技有限公司 一种光场扫描式光惯结合动作捕捉系统
CN114777699A (zh) * 2022-03-11 2022-07-22 江苏林谷智能科技有限公司 一种消防系统用大空间定位校准装置及算法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103279186A (zh) * 2013-05-07 2013-09-04 兰州交通大学 融合光学定位与惯性传感的多目标运动捕捉系统
WO2016183812A1 (zh) * 2015-05-20 2016-11-24 北京诺亦腾科技有限公司 一种混合运动捕捉系统及方法
CN108268129A (zh) * 2016-12-30 2018-07-10 北京诺亦腾科技有限公司 对动作捕捉手套上的多个传感器进行校准的方法和装置及动作捕捉手套
WO2019037074A1 (zh) * 2017-08-25 2019-02-28 深圳市瑞立视多媒体科技有限公司 虚拟现实交互系统、方法及计算机存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103279186A (zh) * 2013-05-07 2013-09-04 兰州交通大学 融合光学定位与惯性传感的多目标运动捕捉系统
WO2016183812A1 (zh) * 2015-05-20 2016-11-24 北京诺亦腾科技有限公司 一种混合运动捕捉系统及方法
CN108268129A (zh) * 2016-12-30 2018-07-10 北京诺亦腾科技有限公司 对动作捕捉手套上的多个传感器进行校准的方法和装置及动作捕捉手套
WO2019037074A1 (zh) * 2017-08-25 2019-02-28 深圳市瑞立视多媒体科技有限公司 虚拟现实交互系统、方法及计算机存储介质

Also Published As

Publication number Publication date
CN112256125A (zh) 2021-01-22

Similar Documents

Publication Publication Date Title
CN106648116B (zh) 一种基于动作捕捉的虚拟现实综合系统
CN101579238B (zh) 人体运动捕获三维再现系统及其方法
US10679360B2 (en) Mixed motion capture system and method
Bachmann et al. Inertial and magnetic tracking of limb segment orientation for inserting humans into synthetic environments
CN102323854B (zh) 人体运动捕获装置
US9690376B2 (en) Wireless wrist computing and control device and method for 3D imaging, mapping, networking and interfacing
KR101214227B1 (ko) 동작 추적 방법.
US20090046056A1 (en) Human motion tracking device
EP2141632A2 (en) Motion capture apparatus and method
CN112256125B (zh) 一种基于激光大空间定位与光惯互补动作捕捉系统及方法
CN201431466Y (zh) 人体运动捕获三维再现系统
CN107122048A (zh) 一种动作评估系统
US20200178851A1 (en) Systems and methods for tracking body movement
EP2171688A2 (en) Object motion capturing system and method
CN109284006A (zh) 一种人体运动捕获装置和方法
CN110023884A (zh) 可穿戴运动跟踪系统
CN110609621B (zh) 姿态标定方法及基于微传感器的人体运动捕获系统
Salehi et al. Body-IMU autocalibration for inertial hip and knee joint tracking
Torres-Solis et al. Wearable indoor pedestrian dead reckoning system
Ahmed et al. A visual-inertial approach to human gait estimation
CN206819290U (zh) 一种虚拟现实多人互动的系统
Leoncini et al. Multiple NUI device approach to full body tracking for collaborative virtual environments
US20060134583A1 (en) Simulation and training sphere for receiving persons
Islam et al. Full-body tracking using a sensor array system and laser-based sweeps
CN108981690A (zh) 一种光惯融合定位方法、设备及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant