CN113689541A - 一种交互场景下两人三维人体形状优化重建方法 - Google Patents
一种交互场景下两人三维人体形状优化重建方法 Download PDFInfo
- Publication number
- CN113689541A CN113689541A CN202110836554.5A CN202110836554A CN113689541A CN 113689541 A CN113689541 A CN 113689541A CN 202110836554 A CN202110836554 A CN 202110836554A CN 113689541 A CN113689541 A CN 113689541A
- Authority
- CN
- China
- Prior art keywords
- human body
- person
- shape
- representing
- theta
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/21—Collision detection, intersection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Architecture (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种交互场景下的两人三维人体形状优化重建方法,该方法属于计算机视觉领域,特别是多人三维人体形状重建方法。与现有技术相比,本发明的技术只需要单视频流即可重建;同时对环境要求低,可同时适用于室内和室外场景;本发明提出的碰撞检测方法相对于之前提出的碰撞检测方法精度更高,能更好的防止空间中两人发生相互渗透;本发明提出的基于优化的人体三维形状重建方法相对于基于深度学习的方法,不需要大量的训练数据;本发明提出的分级优化算法可以更好地恢复出人体的全局旋转,避免了初始3D姿态不准确导致人体形状重建失败的发生。
Description
技术领域
本发明属于计算机视觉领域,特别是多人三维人体形状重建方法。
背景技术
人体形状重建在体育赛事直播、虚拟试衣和视频监测等领域有着广泛的需求。现有的人体 形状重建方法主要针对单人重建,常用的人体形状重建方法中需要用到三维激光扫描仪、多相 机系统或者RGB-D深度相机。其中使用三维激光扫描仪重建出的人体形状精度最高,通常适用 于室内场景。其重建过程主要利用的是TOF的原理,其缺点是成本昂贵,实时性较差。使用多 相机系统的方法例如Mocap、Vicon系统,虽然重建精度高,但主要针对人体关键点重建,需 要在人身上贴标记点,并且不适合室外场景。使用RGB-D深度相机,并采用微软提出的 Fusion4D方法,主要依赖算法实现人体形状重建,受到传感器的局限,有效距离较短。已有 少数的多人重建方法,例如“多人紧密交互场景下的多视角人体动态三维重建方法” (CN201810759264.3)主要是针对多人多视角的重建方法;“一种基于深度UV先验的单视 角多人人体重建方法”(CN202110128917.X),主要利用深度学习的方法来实现单视角重建, 需要大量数据训练人体生成网络。
发明内容
本发明的目的在于提出一种基于单视频流交互场景下的两人三维人体形状的重建方法。与 已有的多相机重建方法相比,提出的方法只需要单视频序列,是一种不需要训练数据集的重建 方法。不仅如此,该方法针对交互场景中防止两人人体重建穿插,提出采用防止碰撞的优化方 法来实现两人交互重建。
本发明技术方案为一种交互场景下的两人三维人体形状优化重建方法,该方法包括:
步骤1:检测视频流每帧中人的2D关键点;
使用自底向上的多人2D关键点检测方法,对单个视频序列中的所有视频帧进行2D关键点 检测;检测的2D关键点共17个,包括鼻部、左眼、右眼、左耳、右耳、左肩、右肩、左肘部、 右肘部、左手腕、右手腕、左髋部、右髋部、左膝、右膝、左脚踝和右脚踝;
步骤2:跟踪视频中的同一人;
从视频的第i帧开始,i=1,分别跟踪第j人,j=1,2,即从后一帧Fi+1中找到和前一帧Fi平 均误差最小的对应2D关键点,直至最后一帧第N帧;
步骤3:人体模型选择;
对连续视频帧中第j人的2D骨架的最小矩形框进行裁剪,得到图像块Pj;使用开源的性 别检测方法对Pj人物性别进行预测,得到男性f、女性m和中性n的性别标签序列L={f,m,n}, 统计第j人性别标签次数,假定次数分别为sm,sf和sn,则采用其中性别标签出现次数最多的 表示第j人的性别Lj=max{sm,sf,sn},并选择人体参数化表达SMPL-X中相应的性别模型作为第 j人的初始化人体模型;采用参数化人体模型SMPL-X,其有10个形状参数β和22个姿态参数 θ={θg,θr},其中,θg表示人体姿态的全局旋转,θr表示人体局部姿态的相对旋转;通过β和 θ构建人体三维形状;
步骤4:优化人体姿态、形状和相机参数;
两人人体姿态形状重建的损失函数定义如下:
其中,λs、λ3D、λcs、λcp和λreg表示权重系数,N表示图像的总数,θi,j、βi,j和Ti,j分别表示第i张图像中的第j个人的姿态参数、形状参数和相机外参的平移向量;σ表示相应关键点是否合法,合法值为1,不合法值为0;表示利用SMPL-X模型函数{θ,β}生成人体表 面顶点;βm表示平均的人体形状参数先验,由人体模型数据集中所有形状参数的平均值确定;J表示从人体表面顶点生成人体3D关键点的操作;Π表示将3D关键点通过透视投影操作生成 2D关键点;
最小化LP,
直到LP误差不再下降;
步骤5:防止相互渗透优化;
为了防止空间中的两人发生相互穿插,需要对两人进行防碰撞检测;假设两个物体和 的顶点集合分别为Ωa和Ωb,面片中心点的集合分别为Γa和Γb,面片的单位法向量的集合为分 别为Ψa和Ψb;该方法首先需要计算物体各自在对方内部的顶点,让Ωa中的第k个顶点找 到在Γb中的最近的顶点若到的向量与处的法向量的夹角小于90°,则在物体 β表面的外部;反之,在物体表面的内部;将Ωa中所有在物体内部的点对应到Γb中最 近点的向量的集合表示为Ψab;反之,将Ωb中所有在物体内部的点对应到Γa中最近点的向 量集合表示为Ψba;则定义两人碰撞检测损失函数如下所示:
其中,dk和d′q表示在Ψab和Ψba中第k个和第q个向量;定义视频序列中碰撞检测的损失函数 为:
防渗透的损失函数定义如下:
其中,λcol表示权重系数;优化的表达式为:
最小化该目标函数,直至损失函数LC不再下降;
步骤6:根据步骤5优化得到的形状参数和姿态参数对应重建两人人体形状。
与现有技术相比,本发明的技术只需要单视频流即可重建;同时对环境要求低,可同时适 用于室内和室外场景;本发明提出的碰撞检测方法相对于之前提出的碰撞检测方法精度更高, 能更好的防止空间中两人发生相互渗透;本发明提出的基于优化的人体三维形状重建方法相对 于基于深度学习的方法,不需要大量的训练数据;本发明提出的分级优化算法可以更好地恢复 出人体的全局旋转,避免了初始3D姿态不准确导致人体形状重建失败的发生。
附图说明
图1碰撞检测方法示意图。
图2交互场景下两人三维人体形状优化重建方法流程图。
图3跳舞场景下的三维人体形状重建结果序列。
图4自拍场景下的三维人体形状重建结果序列。
图5拥抱场景下的三维人体形状重建结果序列。
具体实施方式
实验的测试数据为3DPW数据集中含有两人交互的单目视频。根据本专利的方法,重建出 每个视频帧中交互两人的三维形状。初始化的参数包括:T0、T1、f、cx和cy。相机内参的初 始化分别为f=2000、cx=w/2和cy=h/2。其中,w和h分别表示图像的高和宽。T0和T1表示 两个人相机外参的平移参数,被初始化为(0,0,4)T。
其中,步骤5中权重系数λs、λ3D、λcs、λcp和λreg分别设为0.01、1000、10000、1000和0.005;步骤6中权重系数λs、λ3D、λcs、λcp、λreg和λcol分别设为0.01、1000、10000、1000、 0.005和1。
评估的指标为平均3D关键点误差和平均表面顶点误差,单位为mm。测试的视频总共分为 3个场景,测试结果如表1所示。图3至图5分别为跳舞、自拍、拥抱三个场景的重建结果展 示。视频中每10帧取一帧,每个视频展示了24帧的重建结果。
表1.重建定量分析,重建误差(单位:mm)
测试视频名称 | 跳舞 | 自拍 | 拥抱 |
视频帧序号范围 | 30-273 | 148-600 | 240-588 |
平均关键点误差 | 80.43 | 101.4 | 83.26 |
平均表面顶点误差 | 108.7 | 132.2 | 92.04 |
Claims (1)
1.一种交互场景下的两人三维人体形状优化重建方法,该方法包括:
步骤1:检测视频流每帧中人的2D关键点;
使用自底向上的多人2D关键点检测方法,对单个视频序列中的所有视频帧进行2D关键点检测;检测的2D关键点共17个,包括鼻部、左眼、右眼、左耳、右耳、左肩、右肩、左肘部、右肘部、左手腕、右手腕、左髋部、右髋部、左膝、右膝、左脚踝和右脚踝;
步骤2:跟踪视频中的同一人;
从视频的第i帧开始,i=1,分别跟踪第j人,j=1,2,即从后一帧Fi+1中找到和前一帧Fi平均误差最小的对应2D关键点,直至最后一帧第N帧;
步骤3:人体模型选择;
对连续视频帧中第j人的2D骨架的最小矩形框进行裁剪,得到图像块Pj;使用开源的性别检测方法对Pj人物性别进行预测,得到男性f、女性m和中性n的性别标签序列L={f,m,n},统计第j人性别标签次数,假定次数分别为sm,sf和sn,则采用其中性别标签出现次数最多的表示第j人的性别Lj=max{sm,sf,sn},并选择人体参数化表达SMPL-X中相应的性别模型作为第j人的初始化人体模型;采用参数化人体模型SMPL-X,其有10个形状参数β和22个姿态参数θ={θg,θr},其中,θg表示人体姿态的全局旋转,θr表示人体局部姿态的相对旋转;通过β和θ构建人体三维形状;
步骤4:优化人体姿态、形状和相机参数;
两人人体姿态形状重建的损失函数定义如下:
其中,λs、λ3D、λcs、λcp和λreg表示权重系数,N表示图像的总数,θi,j、βi,j和Ti,j分别表示第i张图像中的第j个人的姿态参数、形状参数和相机外参的平移向量;σ表示相应关键点是否合法,合法值为1,不合法值为0;表示利用SMPL-X模型函数{θ,β}生成人体表面顶点;βm表示平均的人体形状参数先验,由人体模型数据集中所有形状参数的平均值确定;J表示从人体表面顶点生成人体3D关键点的操作;Π表示将3D关键点通过透视投影操作生成2D关键点;
最小化LP,
直到LP误差不再下降;
步骤5:防止相互渗透优化;
为了防止空间中的两人发生相互穿插,需要对两人进行防碰撞检测;假设两个物体和的顶点集合分别为Ωa和Ωb,面片中心点的集合分别为Γa和Γb,面片的单位法向量的集合为分别为Ψa和Ψb;该方法首先需要计算物体各自在对方内部的顶点,让Ωa中的第k个顶点找到在Γb中的最近的顶点若到的向量与处的法向量的夹角小于90°,则在物体表面的外部;反之,在物体表面的内部;将Ωa中所有在物体内部的点对应到Γb中最近点的向量的集合表示为Ψab;反之,将Ωb中所有在物体内部的点对应到Γa中最近点的向量集合表示为Ψba;则定义两人碰撞检测损失函数如下所示:
其中,dk和d′q表示在Ψab和Ψba中第k个和第q个向量;定义视频序列中碰撞检测的损失函数为:
防渗透的损失函数定义如下:
其中,λcol表示权重系数;优化的表达式为:
最小化该目标函数,直至损失函数LC不再下降;
步骤6:根据步骤5优化得到的形状参数和姿态参数对应重建两人人体形状。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110836554.5A CN113689541B (zh) | 2021-07-23 | 2021-07-23 | 一种交互场景下两人三维人体形状优化重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110836554.5A CN113689541B (zh) | 2021-07-23 | 2021-07-23 | 一种交互场景下两人三维人体形状优化重建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113689541A true CN113689541A (zh) | 2021-11-23 |
CN113689541B CN113689541B (zh) | 2023-03-07 |
Family
ID=78577946
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110836554.5A Active CN113689541B (zh) | 2021-07-23 | 2021-07-23 | 一种交互场景下两人三维人体形状优化重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113689541B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108629801A (zh) * | 2018-05-14 | 2018-10-09 | 华南理工大学 | 一种视频序列的三维人体模型姿态与形状重构方法 |
CN108776988A (zh) * | 2018-06-02 | 2018-11-09 | 侯丽华 | 一种全景人体三维扫描及虚拟重建方法 |
CN109242950A (zh) * | 2018-07-11 | 2019-01-18 | 天津大学 | 多人紧密交互场景下的多视角人体动态三维重建方法 |
CN111723687A (zh) * | 2020-06-02 | 2020-09-29 | 北京的卢深视科技有限公司 | 基于神经网路的人体动作识别方法和装置 |
CN112454365A (zh) * | 2020-12-03 | 2021-03-09 | 湖南长城科技信息有限公司 | 基于人体行为识别技术的人机交互安全监控系统 |
CN112530019A (zh) * | 2020-12-11 | 2021-03-19 | 中国科学院深圳先进技术研究院 | 三维人体重建方法、装置、计算机设备和存储介质 |
-
2021
- 2021-07-23 CN CN202110836554.5A patent/CN113689541B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108629801A (zh) * | 2018-05-14 | 2018-10-09 | 华南理工大学 | 一种视频序列的三维人体模型姿态与形状重构方法 |
CN108776988A (zh) * | 2018-06-02 | 2018-11-09 | 侯丽华 | 一种全景人体三维扫描及虚拟重建方法 |
CN109242950A (zh) * | 2018-07-11 | 2019-01-18 | 天津大学 | 多人紧密交互场景下的多视角人体动态三维重建方法 |
CN111723687A (zh) * | 2020-06-02 | 2020-09-29 | 北京的卢深视科技有限公司 | 基于神经网路的人体动作识别方法和装置 |
CN112454365A (zh) * | 2020-12-03 | 2021-03-09 | 湖南长城科技信息有限公司 | 基于人体行为识别技术的人机交互安全监控系统 |
CN112530019A (zh) * | 2020-12-11 | 2021-03-19 | 中国科学院深圳先进技术研究院 | 三维人体重建方法、装置、计算机设备和存储介质 |
Non-Patent Citations (1)
Title |
---|
梅峰等: "基于RGB-D深度相机的室内场景重建", 《中国图象图形学报》 * |
Also Published As
Publication number | Publication date |
---|---|
CN113689541B (zh) | 2023-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110020611B (zh) | 一种基于三维假设空间聚类的多人动作捕捉方法 | |
KR100653288B1 (ko) | 비디오 화상으로부터의 얼굴 인식 | |
CN109299643B (zh) | 一种基于大姿态对准的人脸识别方法及系统 | |
CN109377513B (zh) | 一种针对两视图的全局三维人体姿态可信估计方法 | |
CN109934848B (zh) | 一种基于深度学习的运动物体精准定位的方法 | |
KR101791590B1 (ko) | 물체 자세 인식장치 및 이를 이용한 물체 자세 인식방법 | |
CN104167016B (zh) | 一种基于rgb彩色与深度图像的三维运动重建方法 | |
CN106251399A (zh) | 一种基于lsd‑slam的实景三维重建方法 | |
CN107204010A (zh) | 一种单目图像深度估计方法与系统 | |
EP3769265A1 (en) | Localisation, mapping and network training | |
CN110598590A (zh) | 基于多视角相机的紧密交互人体姿态估计方法及装置 | |
KR101891201B1 (ko) | 전방향 카메라의 깊이 지도 획득 방법 및 장치 | |
WO2018129104A1 (en) | Processing holographic videos | |
CN111062326A (zh) | 一种基于几何驱动的自监督人体3d姿态估计网络训练方法 | |
CN114119739A (zh) | 一种基于双目视觉的手部关键点空间坐标获取方法 | |
CN115376034A (zh) | 一种基于人体三维姿态时空关联动作识别的运动视频采集剪辑方法及装置 | |
CN114627491A (zh) | 一种基于极线汇聚的单人三维姿态估计方法 | |
CN112750198A (zh) | 一种基于非刚性点云的稠密对应预测方法 | |
CN111598995A (zh) | 一种基于原型分析的自监督多目三维人体姿态估计方法 | |
Quan et al. | Image-based modeling by joint segmentation | |
CN117496409B (zh) | 一种基于多视角三维人体重建的细粒度舞蹈动作评分方法 | |
CN113256789A (zh) | 一种三维实时人体姿态重建方法 | |
Cheng et al. | An integrated approach to 3D face model reconstruction from video | |
CN110490973B (zh) | 一种模型驱动的多视图鞋模型三维重建方法 | |
CN110796699B (zh) | 多目相机系统的最优视角选择方法和三维人体骨骼检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |