CN113689541A - 一种交互场景下两人三维人体形状优化重建方法 - Google Patents

一种交互场景下两人三维人体形状优化重建方法 Download PDF

Info

Publication number
CN113689541A
CN113689541A CN202110836554.5A CN202110836554A CN113689541A CN 113689541 A CN113689541 A CN 113689541A CN 202110836554 A CN202110836554 A CN 202110836554A CN 113689541 A CN113689541 A CN 113689541A
Authority
CN
China
Prior art keywords
human body
person
shape
representing
theta
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110836554.5A
Other languages
English (en)
Other versions
CN113689541B (zh
Inventor
郑亚莉
李伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202110836554.5A priority Critical patent/CN113689541B/zh
Publication of CN113689541A publication Critical patent/CN113689541A/zh
Application granted granted Critical
Publication of CN113689541B publication Critical patent/CN113689541B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/21Collision detection, intersection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Architecture (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种交互场景下的两人三维人体形状优化重建方法,该方法属于计算机视觉领域,特别是多人三维人体形状重建方法。与现有技术相比,本发明的技术只需要单视频流即可重建;同时对环境要求低,可同时适用于室内和室外场景;本发明提出的碰撞检测方法相对于之前提出的碰撞检测方法精度更高,能更好的防止空间中两人发生相互渗透;本发明提出的基于优化的人体三维形状重建方法相对于基于深度学习的方法,不需要大量的训练数据;本发明提出的分级优化算法可以更好地恢复出人体的全局旋转,避免了初始3D姿态不准确导致人体形状重建失败的发生。

Description

一种交互场景下两人三维人体形状优化重建方法
技术领域
本发明属于计算机视觉领域,特别是多人三维人体形状重建方法。
背景技术
人体形状重建在体育赛事直播、虚拟试衣和视频监测等领域有着广泛的需求。现有的人体 形状重建方法主要针对单人重建,常用的人体形状重建方法中需要用到三维激光扫描仪、多相 机系统或者RGB-D深度相机。其中使用三维激光扫描仪重建出的人体形状精度最高,通常适用 于室内场景。其重建过程主要利用的是TOF的原理,其缺点是成本昂贵,实时性较差。使用多 相机系统的方法例如Mocap、Vicon系统,虽然重建精度高,但主要针对人体关键点重建,需 要在人身上贴标记点,并且不适合室外场景。使用RGB-D深度相机,并采用微软提出的 Fusion4D方法,主要依赖算法实现人体形状重建,受到传感器的局限,有效距离较短。已有 少数的多人重建方法,例如“多人紧密交互场景下的多视角人体动态三维重建方法” (CN201810759264.3)主要是针对多人多视角的重建方法;“一种基于深度UV先验的单视 角多人人体重建方法”(CN202110128917.X),主要利用深度学习的方法来实现单视角重建, 需要大量数据训练人体生成网络。
发明内容
本发明的目的在于提出一种基于单视频流交互场景下的两人三维人体形状的重建方法。与 已有的多相机重建方法相比,提出的方法只需要单视频序列,是一种不需要训练数据集的重建 方法。不仅如此,该方法针对交互场景中防止两人人体重建穿插,提出采用防止碰撞的优化方 法来实现两人交互重建。
本发明技术方案为一种交互场景下的两人三维人体形状优化重建方法,该方法包括:
步骤1:检测视频流每帧中人的2D关键点;
使用自底向上的多人2D关键点检测方法,对单个视频序列中的所有视频帧进行2D关键点 检测;检测的2D关键点共17个,包括鼻部、左眼、右眼、左耳、右耳、左肩、右肩、左肘部、 右肘部、左手腕、右手腕、左髋部、右髋部、左膝、右膝、左脚踝和右脚踝;
步骤2:跟踪视频中的同一人;
从视频的第i帧开始,i=1,分别跟踪第j人,j=1,2,即从后一帧Fi+1中找到和前一帧Fi平 均误差最小的对应2D关键点,直至最后一帧第N帧;
步骤3:人体模型选择;
对连续视频帧中第j人的2D骨架的最小矩形框进行裁剪,得到图像块Pj;使用开源的性 别检测方法对Pj人物性别进行预测,得到男性f、女性m和中性n的性别标签序列L={f,m,n}, 统计第j人性别标签次数,假定次数分别为sm,sf和sn,则采用其中性别标签出现次数最多的 表示第j人的性别Lj=max{sm,sf,sn},并选择人体参数化表达SMPL-X中相应的性别模型作为第 j人的初始化人体模型;采用参数化人体模型SMPL-X,其有10个形状参数β和22个姿态参数 θ={θgr},其中,θg表示人体姿态的全局旋转,θr表示人体局部姿态的相对旋转;通过β和 θ构建人体三维形状;
步骤4:优化人体姿态、形状和相机参数;
两人人体姿态形状重建的损失函数定义如下:
Figure BDA0003177361400000021
其中,λs、λ3D、λcs、λcp和λreg表示权重系数,N表示图像的总数,θi,j、βi,j和Ti,j分别表示第i张图像中的第j个人的姿态参数、形状参数和相机外参的平移向量;σ表示相应关键点是否合法,合法值为1,不合法值为0;
Figure BDA0003177361400000023
表示利用SMPL-X模型函数{θ,β}生成人体表 面顶点;βm表示平均的人体形状参数先验,由人体模型数据集中所有形状参数的平均值确定;J表示从人体表面顶点生成人体3D关键点的操作;Π表示将3D关键点通过透视投影操作生成 2D关键点;
最小化LP
Figure BDA0003177361400000022
直到LP误差不再下降;
步骤5:防止相互渗透优化;
为了防止空间中的两人发生相互穿插,需要对两人进行防碰撞检测;假设两个物体
Figure BDA00031773614000000313
和 的顶点集合分别为Ωa和Ωb,面片中心点的集合分别为Γa和Γb,面片的单位法向量的集合为分 别为Ψa和Ψb;该方法首先需要计算物体各自在对方内部的顶点,让Ωa中的第k个顶点
Figure BDA0003177361400000031
找 到在Γb中的最近的顶点
Figure BDA0003177361400000032
Figure BDA0003177361400000033
Figure BDA0003177361400000034
的向量与
Figure BDA0003177361400000035
处的法向量
Figure BDA0003177361400000036
的夹角小于90°,则
Figure BDA0003177361400000037
在物体 β表面的外部;反之,
Figure BDA0003177361400000038
在物体
Figure BDA00031773614000000315
表面的内部;将Ωa中所有在物体
Figure BDA00031773614000000316
内部的点对应到Γb中最 近点的向量的集合表示为Ψab;反之,将Ωb中所有在物体
Figure BDA00031773614000000314
内部的点对应到Γa中最近点的向 量集合表示为Ψba;则定义两人碰撞检测损失函数如下所示:
Figure BDA0003177361400000039
其中,dk和d′q表示在Ψab和Ψba中第k个和第q个向量;定义视频序列中碰撞检测的损失函数 为:
Figure BDA00031773614000000310
防渗透的损失函数定义如下:
Figure BDA00031773614000000311
其中,λcol表示权重系数;优化的表达式为:
Figure BDA00031773614000000312
最小化该目标函数,直至损失函数LC不再下降;
步骤6:根据步骤5优化得到的形状参数和姿态参数对应重建两人人体形状。
与现有技术相比,本发明的技术只需要单视频流即可重建;同时对环境要求低,可同时适 用于室内和室外场景;本发明提出的碰撞检测方法相对于之前提出的碰撞检测方法精度更高, 能更好的防止空间中两人发生相互渗透;本发明提出的基于优化的人体三维形状重建方法相对 于基于深度学习的方法,不需要大量的训练数据;本发明提出的分级优化算法可以更好地恢复 出人体的全局旋转,避免了初始3D姿态不准确导致人体形状重建失败的发生。
附图说明
图1碰撞检测方法示意图。
图2交互场景下两人三维人体形状优化重建方法流程图。
图3跳舞场景下的三维人体形状重建结果序列。
图4自拍场景下的三维人体形状重建结果序列。
图5拥抱场景下的三维人体形状重建结果序列。
具体实施方式
实验的测试数据为3DPW数据集中含有两人交互的单目视频。根据本专利的方法,重建出 每个视频帧中交互两人的三维形状。初始化的参数包括:T0、T1、f、cx和cy。相机内参的初 始化分别为f=2000、cx=w/2和cy=h/2。其中,w和h分别表示图像的高和宽。T0和T1表示 两个人相机外参的平移参数,被初始化为(0,0,4)T
其中,步骤5中权重系数λs、λ3D、λcs、λcp和λreg分别设为0.01、1000、10000、1000和0.005;步骤6中权重系数λs、λ3D、λcs、λcp、λreg和λcol分别设为0.01、1000、10000、1000、 0.005和1。
评估的指标为平均3D关键点误差和平均表面顶点误差,单位为mm。测试的视频总共分为 3个场景,测试结果如表1所示。图3至图5分别为跳舞、自拍、拥抱三个场景的重建结果展 示。视频中每10帧取一帧,每个视频展示了24帧的重建结果。
表1.重建定量分析,重建误差(单位:mm)
测试视频名称 跳舞 自拍 拥抱
视频帧序号范围 30-273 148-600 240-588
平均关键点误差 80.43 101.4 83.26
平均表面顶点误差 108.7 132.2 92.04

Claims (1)

1.一种交互场景下的两人三维人体形状优化重建方法,该方法包括:
步骤1:检测视频流每帧中人的2D关键点;
使用自底向上的多人2D关键点检测方法,对单个视频序列中的所有视频帧进行2D关键点检测;检测的2D关键点共17个,包括鼻部、左眼、右眼、左耳、右耳、左肩、右肩、左肘部、右肘部、左手腕、右手腕、左髋部、右髋部、左膝、右膝、左脚踝和右脚踝;
步骤2:跟踪视频中的同一人;
从视频的第i帧开始,i=1,分别跟踪第j人,j=1,2,即从后一帧Fi+1中找到和前一帧Fi平均误差最小的对应2D关键点,直至最后一帧第N帧;
步骤3:人体模型选择;
对连续视频帧中第j人的2D骨架的最小矩形框进行裁剪,得到图像块Pj;使用开源的性别检测方法对Pj人物性别进行预测,得到男性f、女性m和中性n的性别标签序列L={f,m,n},统计第j人性别标签次数,假定次数分别为sm,sf和sn,则采用其中性别标签出现次数最多的表示第j人的性别Lj=max{sm,sf,sn},并选择人体参数化表达SMPL-X中相应的性别模型作为第j人的初始化人体模型;采用参数化人体模型SMPL-X,其有10个形状参数β和22个姿态参数θ={θgr},其中,θg表示人体姿态的全局旋转,θr表示人体局部姿态的相对旋转;通过β和θ构建人体三维形状;
步骤4:优化人体姿态、形状和相机参数;
两人人体姿态形状重建的损失函数定义如下:
Figure FDA0003177361390000011
其中,λs、λ3D、λcs、λcp和λreg表示权重系数,N表示图像的总数,θi,j、βi,j和Ti,j分别表示第i张图像中的第j个人的姿态参数、形状参数和相机外参的平移向量;σ表示相应关键点是否合法,合法值为1,不合法值为0;
Figure FDA0003177361390000021
表示利用SMPL-X模型函数{θ,β}生成人体表面顶点;βm表示平均的人体形状参数先验,由人体模型数据集中所有形状参数的平均值确定;J表示从人体表面顶点生成人体3D关键点的操作;Π表示将3D关键点通过透视投影操作生成2D关键点;
最小化LP
Figure FDA0003177361390000022
直到LP误差不再下降;
步骤5:防止相互渗透优化;
为了防止空间中的两人发生相互穿插,需要对两人进行防碰撞检测;假设两个物体
Figure FDA0003177361390000023
Figure FDA0003177361390000024
的顶点集合分别为Ωa和Ωb,面片中心点的集合分别为Γa和Γb,面片的单位法向量的集合为分别为Ψa和Ψb;该方法首先需要计算物体各自在对方内部的顶点,让Ωa中的第k个顶点
Figure FDA0003177361390000025
找到在Γb中的最近的顶点
Figure FDA0003177361390000026
Figure FDA0003177361390000027
Figure FDA0003177361390000028
的向量与
Figure FDA0003177361390000029
处的法向量
Figure FDA00031773613900000210
的夹角小于90°,则
Figure FDA00031773613900000211
在物体
Figure FDA00031773613900000212
表面的外部;反之,
Figure FDA00031773613900000213
在物体
Figure FDA00031773613900000214
表面的内部;将Ωa中所有在物体
Figure FDA00031773613900000215
内部的点对应到Γb中最近点的向量的集合表示为Ψab;反之,将Ωb中所有在物体
Figure FDA00031773613900000216
内部的点对应到Γa中最近点的向量集合表示为Ψba;则定义两人碰撞检测损失函数如下所示:
Figure FDA00031773613900000217
其中,dk和d′q表示在Ψab和Ψba中第k个和第q个向量;定义视频序列中碰撞检测的损失函数为:
Figure FDA00031773613900000218
防渗透的损失函数定义如下:
Figure FDA0003177361390000031
其中,λcol表示权重系数;优化的表达式为:
Figure FDA0003177361390000032
最小化该目标函数,直至损失函数LC不再下降;
步骤6:根据步骤5优化得到的形状参数和姿态参数对应重建两人人体形状。
CN202110836554.5A 2021-07-23 2021-07-23 一种交互场景下两人三维人体形状优化重建方法 Active CN113689541B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110836554.5A CN113689541B (zh) 2021-07-23 2021-07-23 一种交互场景下两人三维人体形状优化重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110836554.5A CN113689541B (zh) 2021-07-23 2021-07-23 一种交互场景下两人三维人体形状优化重建方法

Publications (2)

Publication Number Publication Date
CN113689541A true CN113689541A (zh) 2021-11-23
CN113689541B CN113689541B (zh) 2023-03-07

Family

ID=78577946

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110836554.5A Active CN113689541B (zh) 2021-07-23 2021-07-23 一种交互场景下两人三维人体形状优化重建方法

Country Status (1)

Country Link
CN (1) CN113689541B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108629801A (zh) * 2018-05-14 2018-10-09 华南理工大学 一种视频序列的三维人体模型姿态与形状重构方法
CN108776988A (zh) * 2018-06-02 2018-11-09 侯丽华 一种全景人体三维扫描及虚拟重建方法
CN109242950A (zh) * 2018-07-11 2019-01-18 天津大学 多人紧密交互场景下的多视角人体动态三维重建方法
CN111723687A (zh) * 2020-06-02 2020-09-29 北京的卢深视科技有限公司 基于神经网路的人体动作识别方法和装置
CN112454365A (zh) * 2020-12-03 2021-03-09 湖南长城科技信息有限公司 基于人体行为识别技术的人机交互安全监控系统
CN112530019A (zh) * 2020-12-11 2021-03-19 中国科学院深圳先进技术研究院 三维人体重建方法、装置、计算机设备和存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108629801A (zh) * 2018-05-14 2018-10-09 华南理工大学 一种视频序列的三维人体模型姿态与形状重构方法
CN108776988A (zh) * 2018-06-02 2018-11-09 侯丽华 一种全景人体三维扫描及虚拟重建方法
CN109242950A (zh) * 2018-07-11 2019-01-18 天津大学 多人紧密交互场景下的多视角人体动态三维重建方法
CN111723687A (zh) * 2020-06-02 2020-09-29 北京的卢深视科技有限公司 基于神经网路的人体动作识别方法和装置
CN112454365A (zh) * 2020-12-03 2021-03-09 湖南长城科技信息有限公司 基于人体行为识别技术的人机交互安全监控系统
CN112530019A (zh) * 2020-12-11 2021-03-19 中国科学院深圳先进技术研究院 三维人体重建方法、装置、计算机设备和存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
梅峰等: "基于RGB-D深度相机的室内场景重建", 《中国图象图形学报》 *

Also Published As

Publication number Publication date
CN113689541B (zh) 2023-03-07

Similar Documents

Publication Publication Date Title
CN110020611B (zh) 一种基于三维假设空间聚类的多人动作捕捉方法
KR100653288B1 (ko) 비디오 화상으로부터의 얼굴 인식
CN109299643B (zh) 一种基于大姿态对准的人脸识别方法及系统
CN109377513B (zh) 一种针对两视图的全局三维人体姿态可信估计方法
CN109934848B (zh) 一种基于深度学习的运动物体精准定位的方法
KR101791590B1 (ko) 물체 자세 인식장치 및 이를 이용한 물체 자세 인식방법
CN104167016B (zh) 一种基于rgb彩色与深度图像的三维运动重建方法
CN106251399A (zh) 一种基于lsd‑slam的实景三维重建方法
CN107204010A (zh) 一种单目图像深度估计方法与系统
EP3769265A1 (en) Localisation, mapping and network training
CN110598590A (zh) 基于多视角相机的紧密交互人体姿态估计方法及装置
KR101891201B1 (ko) 전방향 카메라의 깊이 지도 획득 방법 및 장치
WO2018129104A1 (en) Processing holographic videos
CN111062326A (zh) 一种基于几何驱动的自监督人体3d姿态估计网络训练方法
CN114119739A (zh) 一种基于双目视觉的手部关键点空间坐标获取方法
CN115376034A (zh) 一种基于人体三维姿态时空关联动作识别的运动视频采集剪辑方法及装置
CN114627491A (zh) 一种基于极线汇聚的单人三维姿态估计方法
CN112750198A (zh) 一种基于非刚性点云的稠密对应预测方法
CN111598995A (zh) 一种基于原型分析的自监督多目三维人体姿态估计方法
Quan et al. Image-based modeling by joint segmentation
CN117496409B (zh) 一种基于多视角三维人体重建的细粒度舞蹈动作评分方法
CN113256789A (zh) 一种三维实时人体姿态重建方法
Cheng et al. An integrated approach to 3D face model reconstruction from video
CN110490973B (zh) 一种模型驱动的多视图鞋模型三维重建方法
CN110796699B (zh) 多目相机系统的最优视角选择方法和三维人体骨骼检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant