CN105809681A - 基于单相机的人体rgb-d数据恢复与三维重建方法 - Google Patents
基于单相机的人体rgb-d数据恢复与三维重建方法 Download PDFInfo
- Publication number
- CN105809681A CN105809681A CN201610126233.5A CN201610126233A CN105809681A CN 105809681 A CN105809681 A CN 105809681A CN 201610126233 A CN201610126233 A CN 201610126233A CN 105809681 A CN105809681 A CN 105809681A
- Authority
- CN
- China
- Prior art keywords
- data
- rgb
- camera
- key frame
- human body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Image Processing (AREA)
Abstract
本发明提出一种基于单相机的人体RGB‑D数据恢复与三维重建方法,包括以下步骤:获取三维重建对象的关键帧对应的RGB‑D数据;通过平滑约束对RGB‑D数据进行优化处理;获取优化处理后的关键帧对应的RGB‑D数据之间的匹配关系;根据目标约束函数对所有优化处理后的关键帧对应的RGB‑D数据和相机的外参进行整体优化。本发明的方法在获取RGB‑D深度数据的基础上,引入了匹配约束和形变约束,对获取的点云数据和相机标定结果进行进一步优化,能够克服拍摄过程中由于物体姿态变化和微小运动对三维重建的影响,从而得到精准的三维模型。
Description
技术领域
本发明涉及计算机图形学和计算机视觉技术领域,特别涉及一种基于单相机的人体RGB-D数据恢复与三维重建方法。
背景技术
物体三维重建是计算机图形学、计算机动画、计算机视觉、科学计算和虚拟现实、数字媒体创作等领域的共性科学问题和核心技术。
目前相关的三维重建技术可分为多相机和单相机两种,经过图像提取、相机标定、特征提取、立体匹配可恢复对象稀疏的点云模型;也可用Kinect等深度传感器直接获取物体的深度数据。在三维重建过程中,由于建模对象的微小形变和运动,导致恢复的三维模型精度降低,而目前的三维重建技术恢复的稀疏点云数据无法满足对细节要求较高的场合。
发明内容
本发明旨在至少在一定程度上解决上述相关技术中的技术问题之一。
为此,本发明的目的在于提出一种基于单相机的人体RGB-D数据恢复与三维重建方法,该方法在获取RGB-D深度数据的基础上,引入了匹配约束和形变约束,对获取的点云数据和相机标定结果进行进一步优化,能够克服拍摄过程中由于物体姿态变化和微小运动对三维重建的影响,从而得到精准的三维模型。
为了实现上述目的,本发明的实施例提出了一种基于单相机的人体RGB-D数据恢复与三维重建方法,包括以下步骤:S1:获取三维重建对象的关键帧对应的RGB-D数据;S2:通过平滑约束对所述RGB-D数据进行优化处理;S3:获取优化处理后的关键帧对应的RGB-D数据之间的匹配关系;以及S4:根据目标约束函数对所有优化处理后的关键帧对应的RGB-D数据和相机的外参进行整体优化。
根据本发明实施例基于单相机的人体RGB-D数据恢复与三维重建方法,在获取RGB-D深度数据的基础上,引入了匹配约束和形变约束,对获取的点云数据和相机标定结果进行进一步优化,能够克服拍摄过程中由于物体姿态变化和微小运动对三维重建的影响,从而得到精准的三维模型。
另外,根据本发明上述实施例的基于单相机的人体RGB-D数据恢复与三维重建方法还可以具有如下附加的技术特征:
在一些示例中,所述S1进一步包括:
S11:通过所述相机对所述重建对象进行拍摄,以获取所述重建对象的视屏数据;
S12:利用Structure From Motion获取稀疏的点云数据,对所述视屏数据的每一帧进行标定,标定参数包括所述相机的内参矩阵Ki和外参矩阵Pi=[Ri|Ti],其中,Ki包括所述相机的焦距fx和fy,基准点px和py,Pi包括当前所述相机相对于世界坐标系旋转矩阵Ri和平移变换Ti;
S13:选定初始关键帧,并间隔预设帧数均匀选取预设数量的关键帧,并根据图像分割技术获得建模目标对象点集,具体包括:
S131:定义深度代价函数:
其中,Ikey(u,v)是当前像素坐标位置对应的RGB值,invPkey(u,v,d)将像素坐标I(u,v)和其对应的深度值d转换到世界坐标系,得到对应的空间坐标(x,y,z),Pi(x,y,z)将世界坐标(x,y,z)投影到各个参与关键帧深度数据重建的图像中,得到对应的像素坐标Ii(x,y),m为参与重建关键帧深度数据的图像总数;
S132:选定步长,并逐步改变候选深度值,将待选深度投影到各个图像序列,并通过最小化深度代价函数求取关键帧每个像素点对应的RGB-D数据。
在一些示例中,所述S2进一步包括:
根据迭代公式d'=(wpdp+wsds)/(wp+ws)对初始深度数据进行平滑优化,其中,
c0为当前深度对应代价函数的值,c-1和c+1分别为当前深度对应的前向、后向深度对应代价函数的值。
在一些示例中,所述S3进一步包括:
S31:根据所述步骤S12中对所述视屏数据的标定结果计算关键帧序列对(Pi,Pj)对应的转移矩阵Pi,j;
S32:以所述转移矩阵Pi,j作为初始转移矩阵对所述关键帧序列对(Pi,Pj)进行ICP匹配,并在ICP迭代终止时,如果所述关键帧序列对点云数据的匹配数占原点云数据的百分比大于预设百分比时,则保留该匹配对。
在一些示例中,在所述S31中,如果所述关键帧序列对之间的旋转、平移在预设范围内,则保留所述关键帧序列对。
在一些示例中,所述关键帧对应的点云数据之间的匹配关系以text格式保存。
在一些示例中,在所述S4中,所述目标约束函数为:
E(T)=Ea(T,C)+λEr(C),
其中,T为待优化相机转移矩阵,C为映射函数(P3->P3),用以实现相机坐标系点云数据的变换,Ea(T)表示匹配约束,Er(T)表示平滑约束。
在一些示例中,所述S4进一步包括:
S41:计算所述匹配约束,具体为:
其中,p'、q'为点p、q从相机坐标系转换到世界坐标系对应的空间位置,p'=TiC(p),q'=TjC(q),
采用晶格V将C参数化,以使任何点P都满足:
其中,γl为对应点在晶格中的三线性插值系数,且在整个算法优化过程中γl保持不变;
S42:计算所述Er(C),具体为:
其中,N(v)为晶格V中晶体v附近的点,vRc(v)∈SE(3)为所述映射函数C在晶体v处的局部线性化的结果。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是本发明一个实施例的基于单相机的人体RGB-D数据恢复与三维重建方法的流程图;
图2是本发明一个具体实施例的基于单相机的人体RGB-D数据恢复与三维重建方法的总体流程示意图;
图3是本发明一个实施例的利用Structure From Motion得到的稀疏的点云数据及相机标定结果示意图;
图4是本发明一个实施例的目标图像分割结果示意图;
图5是本发明一个实施例的关键帧对应的RGB-D数据示意图;以及
图6是本发明一个实施例的经过优化后生成的三维模型的多视图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
以下结合附图描述根据本发明实施例的基于单相机的人体RGB-D数据恢复与三维重建方法。
图1是根据本发明一个实施例的基于单相机的人体RGB-D数据恢复与三维重建方法的流程图。图2是根据本发明一个具体实施例的基于单相机的人体RGB-D数据恢复与三维重建方法的总体流程示意图。结合图1和图2所示,该方法包括以下步骤:
步骤S1:获取三维重建对象的关键帧对应的RGB-D数据。即获取三维重建对象的视屏数据,利用Structure From Motion获取稀疏点云并对相机内外参进行标定。选取若干关键帧,利用图像分割技术获取mask(目标对象点集),初步重建关键帧中目标对象对应的RGB-D数据。
具体地说,步骤S1具体包括以下步骤:
S11:通过相机对重建对象进行拍摄(如手持相机围绕重建对象拍摄一周),以获取重建对象的视屏数据。
S12:利用Structure From Motion获取稀疏的点云数据,对视屏数据的每一帧进行标定,标定参数包括相机的内参矩阵Ki和外参矩阵Pi=[Ri|Ti],其中,Ki包括相机的焦距fx和fy,基准点px和py,Pi包括当前相机相对于世界坐标系旋转矩阵Ri和平移变换Ti。例如,图3(a)所示为利用structure From Motion获取的稀疏点云数据,图3(b)所示为参与重建的相机的标定结果。
S13:选定初始关键帧,并间隔预设帧数均匀选取预设数量的关键帧,并根据图像分割技术获得建模目标对象点集。结合图4所示,根据图像分割技术获得建模目标对象点集,具体包括:
S131:定义深度代价函数:
其中,Ikey(u,v)是当前像素坐标位置对应的RGB值,invPkey(u,v,d)将像素坐标I(u,v)和其对应的深度值d转换到世界坐标系,得到对应的空间坐标(x,y,z),Pi(x,y,z)将世界坐标(x,y,z)投影到各个参与关键帧深度数据重建的图像中,得到对应的像素坐标Ii(x,y),m为参与重建关键帧深度数据的图像总数。
其中,在图4中,图4(a)展示了第15帧分割结果,图4(b)展示了第30帧分割结果,图4(c)展示了第60帧分割结果。
S132:选定步长,并逐步改变候选深度值,将待选深度投影到各个图像序列,并通过最小化深度代价函数求取关键帧每个像素点对应的RGB-D数据。如图5所示,图5(a)展示了第15帧对应点云数据,图5(b)展示了第30帧对应点云数据,图5(c)展示了第60帧对应点云数据。
步骤S2:通过平滑约束对RGB-D数据进行优化处理。
具体地,步骤S2进一步包括:根据迭代公式d'=(wpdp+wsds)/(wp+ws)对初始深度数据进行平滑优化,其中,
c0为当前深度对应代价函数的值,c-1和c+1分别为当前深度对应的前向、后向深度对应代价函数的值。
步骤S3:获取优化处理后的关键帧对应的RGB-D数据之间的匹配关系。即结合相机标定的结果,利用ICP,寻找每对关键帧对应点云数据之间的匹配关系,保留点云匹配数大于设定阈值的匹配对。
具体地说,步骤S3进一步包括:
S31:根据所述步骤S12中对视屏数据的标定结果计算关键帧序列对(Pi,Pj)对应的转移矩阵Pi,j。进一步地,如果关键帧序列对之间的旋转、平移在预设范围内,则保留该关键帧序列对。
S32:以转移矩阵Pi,j作为初始转移矩阵对关键帧序列对(Pi,Pj)进行ICP匹配,并在ICP迭代终止时,如果关键帧序列对点云数据的匹配数占原点云数据的百分比大于预设百分比时,则保留该匹配对,ki,j表征序列对(Pi,Pj)对应点云数据形成匹配关系的点云。其中,关键帧对应的点云数据之间的匹配关系保存为txt格式。例如:若关键帧0和1匹配点云数目满足设定阈值(预设百分比),则生成corres_0_1.txt文件作为下一步的输入。txt文件中的序列对表征关键帧0和关键帧1形成匹配对的点云对应的索引值。
步骤S4:根据目标约束函数对所有优化处理后的关键帧对应的RGB-D数据和相机的外参进行整体优化,以消除物体姿态变化和微小运动对三维重建结果的影响。作为具体的示例,图6(a)至图6(d)展示了经过优化后生成三维模型的多视图。
在本发明的一个实施例中,目标函数例如为:
E(T)=Ea(T,C)+λEr(C),
其中,T为待优化相机转移矩阵,C为映射函数(P3->P3),用以实现相机坐标系点云数据的变换,Ea(T)表示匹配约束,Er(T)表示平滑约束。
基于此,步骤S4进一步包括:
S41:计算匹配约束Ea(T),具体为:
其中,p'、q'为点p、q从相机坐标系转换到世界坐标系对应的空间位置,p'=TiC(p),q'=TjC(q),
进一步地,采用晶格V将C参数化,以使任何点P都满足:
其中,γl为对应点在晶格中的三线性插值系数,且在整个算法优化过程中γl保持不变。
S42:计算Er(C),具体为:
其中,N(v)为晶格V中晶体v附近的点,vRc(v)∈SE(3)为所述映射函数C在晶体v处的局部线性化的结果。
综上,根据本发明实施例基于单相机的人体RGB-D数据恢复与三维重建方法,在获取RGB-D深度数据的基础上,引入了匹配约束和形变约束,对获取的点云数据和相机标定结果进行进一步优化,能够克服拍摄过程中由于物体姿态变化和微小运动对三维重建的影响,从而得到精准的三维模型。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“长度”、“宽度”、“厚度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”、“顺时针”、“逆时针”、“轴向”、“径向”、“周向”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
在本发明中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特征水平高度小于第二特征。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (8)
1.一种基于单相机的人体RGB-D数据恢复与三维重建方法,其特征在于,包括以下步骤:
S1:获取三维重建对象的关键帧对应的RGB-D数据;
S2:通过平滑约束对所述RGB-D数据进行优化处理;
S3:获取优化处理后的关键帧对应的RGB-D数据之间的匹配关系;以及
S4:根据目标约束函数对所有优化处理后的关键帧对应的RGB-D数据和相机的外参进行整体优化。
2.根据权利要求1所述的基于单相机的人体RGB-D数据恢复与三维重建方法,其特征在于,所述S1进一步包括:
S11:通过所述相机对所述重建对象进行拍摄,以获取所述重建对象的视屏数据;
S12:利用Structure From Motion获取稀疏的点云数据,对所述视屏数据的每一帧进行标定,标定参数包括所述相机的内参矩阵Ki和外参矩阵Pi=[Ri|Ti],其中,Ki包括所述相机的焦距fx和fy,基准点px和py,Pi包括当前所述相机相对于世界坐标系旋转矩阵Ri和平移变换Ti;
S13:选定初始关键帧,并间隔预设帧数均匀选取预设数量的关键帧,并根据图像分割技术获得建模目标对象点集,具体包括:
S131:定义深度代价函数:
其中,Ikey(u,v)是当前像素坐标位置对应的RGB值,invPkey(u,v,d)将像素坐标I(u,v)和其对应的深度值d转换到世界坐标系,得到对应的空间坐标(x,y,z),Pi(x,y,z)将世界坐标(x,y,z)投影到各个参与关键帧深度数据重建的图像中,得到对应的像素坐标Ii(x,y),m为参与重建关键帧深度数据的图像总数;
S132:选定步长,并逐步改变候选深度值,将待选深度投影到各个图像序列,并通过最小化深度代价函数求取关键帧每个像素点对应的RGB-D数据。
3.根据权利要求1所述的基于单相机的人体RGB-D数据恢复与三维重建方法,其特征在于,所述S2进一步包括:
根据迭代公式d'=(wpdp+wsds)/(wp+ws)对初始深度数据进行平滑优化,其中,
c0为当前深度对应代价函数的值,c-1和c+1分别为当前深度对应的前向、后向深度对应代价函数的值。
4.根据权利要求2所述的基于单相机的人体RGB-D数据恢复与三维重建方法,其特征在于,所述S3进一步包括:
S31:根据所述步骤S12中对所述视屏数据的标定结果计算关键帧序列对(Pi,Pj)对应的转移矩阵Pi,j;
S32:以所述转移矩阵Pi,j作为初始转移矩阵对所述关键帧序列对(Pi,Pj)进行ICP匹配,并在ICP迭代终止时,如果所述关键帧序列对点云数据的匹配数占原点云数据的百分比大于预设百分比时,则保留该匹配对。
5.根据权利要求4所述的基于单相机的人体RGB-D数据恢复与三维重建方法,其特征在于,在所述S31中,如果所述关键帧序列对之间的旋转、平移在预设范围内,则保留所述关键帧序列对。
6.根据权利要求4所述的基于单相机的人体RGB-D数据恢复与三维重建方法,其特征在于,所述关键帧对应的点云数据之间的匹配关系以text格式保存。
7.根据权利要求1所述的基于单相机的人体RGB-D数据恢复与三维重建方法,其特征在于,在所述S4中,所述目标约束函数为:
E(T)=Ea(T,C)+λEr(C),
其中,T为待优化相机转移矩阵,C为映射函数(P3->P3),用以实现相机坐标系点云数据的变换,Ea(T)表示匹配约束,Er(T)表示平滑约束。
8.根据权利要求7所述的基于单相机的人体RGB-D数据恢复与三维重建方法,其特征在于,所述S4进一步包括:
S41:计算所述匹配约束,具体为:
其中,p'、q'为点p、q从相机坐标系转换到世界坐标系对应的空间位置,p'=TiC(p),q'=TjC(q),
采用晶格V将C参数化,以使任何点P都满足:
其中,γl为对应点在晶格中的三线性插值系数,且在整个算法优化过程中γl保持不变;
S42:计算所述Er(C),具体为:
其中,N(v)为晶格V中晶体v附近的点,vRc(v)∈SE(3)为所述映射函数C在晶体v处的局部线性化的结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610126233.5A CN105809681A (zh) | 2016-03-04 | 2016-03-04 | 基于单相机的人体rgb-d数据恢复与三维重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610126233.5A CN105809681A (zh) | 2016-03-04 | 2016-03-04 | 基于单相机的人体rgb-d数据恢复与三维重建方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105809681A true CN105809681A (zh) | 2016-07-27 |
Family
ID=56467773
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610126233.5A Pending CN105809681A (zh) | 2016-03-04 | 2016-03-04 | 基于单相机的人体rgb-d数据恢复与三维重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105809681A (zh) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106251399A (zh) * | 2016-08-30 | 2016-12-21 | 广州市绯影信息科技有限公司 | 一种基于lsd‑slam的实景三维重建方法 |
CN106780726A (zh) * | 2016-12-23 | 2017-05-31 | 陕西科技大学 | 融合rgb‑d相机和彩色光度立体法的动态非刚体三维数字化方法 |
CN106780619A (zh) * | 2016-11-25 | 2017-05-31 | 青岛大学 | 一种基于Kinect深度相机的人体尺寸测量方法 |
CN106875482A (zh) * | 2017-01-13 | 2017-06-20 | 浙江大学 | 一种同时定位与稠密三维重建方法 |
CN106875437A (zh) * | 2016-12-27 | 2017-06-20 | 北京航空航天大学 | 一种面向rgbd三维重建的关键帧提取方法 |
CN107292949A (zh) * | 2017-05-25 | 2017-10-24 | 深圳先进技术研究院 | 场景的三维重建方法、装置及终端设备 |
WO2018129794A1 (zh) * | 2017-01-12 | 2018-07-19 | 上海云拟科技有限公司 | 一种实时大规模场景三维扫描建模方法及系统 |
WO2018129715A1 (zh) * | 2017-01-13 | 2018-07-19 | 浙江大学 | 一种同时定位与稠密三维重建方法 |
CN108335327A (zh) * | 2017-01-19 | 2018-07-27 | 富士通株式会社 | 摄像机姿态估计方法和摄像机姿态估计装置 |
CN108564616A (zh) * | 2018-03-15 | 2018-09-21 | 中国科学院自动化研究所 | 快速鲁棒的rgb-d室内三维场景重建方法 |
CN108680100A (zh) * | 2018-03-07 | 2018-10-19 | 福建农林大学 | 三维激光点云数据与无人机点云数据匹配方法 |
CN109003326A (zh) * | 2018-06-05 | 2018-12-14 | 湖北亿咖通科技有限公司 | 一种基于虚拟世界的虚拟激光雷达数据生成方法 |
CN109272555A (zh) * | 2018-08-13 | 2019-01-25 | 长安大学 | 一种rgb-d相机的外部参数获得及标定方法 |
CN109978929A (zh) * | 2017-12-28 | 2019-07-05 | 舜宇光学(浙江)研究院有限公司 | 深度信息摄像模组的rgb-d图像合成优化系统及其方法 |
CN109993103A (zh) * | 2019-03-29 | 2019-07-09 | 华南理工大学 | 一种基于点云数据的人体行为识别方法 |
CN110197156A (zh) * | 2019-05-30 | 2019-09-03 | 清华大学 | 基于深度学习的单图像的人手动作与形状重建方法及装置 |
CN110335343A (zh) * | 2019-06-13 | 2019-10-15 | 清华大学 | 基于rgbd单视角图像人体三维重建方法及装置 |
CN110415336A (zh) * | 2019-07-12 | 2019-11-05 | 清华大学 | 高精度人体体态重建方法及系统 |
WO2020019175A1 (zh) * | 2018-07-24 | 2020-01-30 | 深圳市大疆创新科技有限公司 | 图像处理方法和设备、摄像装置以及无人机 |
-
2016
- 2016-03-04 CN CN201610126233.5A patent/CN105809681A/zh active Pending
Cited By (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106251399A (zh) * | 2016-08-30 | 2016-12-21 | 广州市绯影信息科技有限公司 | 一种基于lsd‑slam的实景三维重建方法 |
CN106780619A (zh) * | 2016-11-25 | 2017-05-31 | 青岛大学 | 一种基于Kinect深度相机的人体尺寸测量方法 |
CN106780726A (zh) * | 2016-12-23 | 2017-05-31 | 陕西科技大学 | 融合rgb‑d相机和彩色光度立体法的动态非刚体三维数字化方法 |
CN106875437A (zh) * | 2016-12-27 | 2017-06-20 | 北京航空航天大学 | 一种面向rgbd三维重建的关键帧提取方法 |
WO2018129794A1 (zh) * | 2017-01-12 | 2018-07-19 | 上海云拟科技有限公司 | 一种实时大规模场景三维扫描建模方法及系统 |
CN106875482B (zh) * | 2017-01-13 | 2020-04-28 | 浙江大学 | 一种同时定位与稠密三维重建方法 |
CN106875482A (zh) * | 2017-01-13 | 2017-06-20 | 浙江大学 | 一种同时定位与稠密三维重建方法 |
US11210805B2 (en) | 2017-01-13 | 2021-12-28 | Zhejiang University | Simultaneous localization and dense three-dimensional reconstruction method |
WO2018129715A1 (zh) * | 2017-01-13 | 2018-07-19 | 浙江大学 | 一种同时定位与稠密三维重建方法 |
CN108335327A (zh) * | 2017-01-19 | 2018-07-27 | 富士通株式会社 | 摄像机姿态估计方法和摄像机姿态估计装置 |
CN108335327B (zh) * | 2017-01-19 | 2021-09-24 | 富士通株式会社 | 摄像机姿态估计方法和摄像机姿态估计装置 |
CN107292949B (zh) * | 2017-05-25 | 2020-06-16 | 深圳先进技术研究院 | 场景的三维重建方法、装置及终端设备 |
CN107292949A (zh) * | 2017-05-25 | 2017-10-24 | 深圳先进技术研究院 | 场景的三维重建方法、装置及终端设备 |
CN109978929A (zh) * | 2017-12-28 | 2019-07-05 | 舜宇光学(浙江)研究院有限公司 | 深度信息摄像模组的rgb-d图像合成优化系统及其方法 |
CN108680100A (zh) * | 2018-03-07 | 2018-10-19 | 福建农林大学 | 三维激光点云数据与无人机点云数据匹配方法 |
CN108680100B (zh) * | 2018-03-07 | 2020-04-17 | 福建农林大学 | 三维激光点云数据与无人机点云数据匹配方法 |
CN108564616A (zh) * | 2018-03-15 | 2018-09-21 | 中国科学院自动化研究所 | 快速鲁棒的rgb-d室内三维场景重建方法 |
CN108564616B (zh) * | 2018-03-15 | 2020-09-01 | 中国科学院自动化研究所 | 快速鲁棒的rgb-d室内三维场景重建方法 |
CN109003326B (zh) * | 2018-06-05 | 2021-07-23 | 湖北亿咖通科技有限公司 | 一种基于虚拟世界的虚拟激光雷达数据生成方法 |
CN109003326A (zh) * | 2018-06-05 | 2018-12-14 | 湖北亿咖通科技有限公司 | 一种基于虚拟世界的虚拟激光雷达数据生成方法 |
WO2020019175A1 (zh) * | 2018-07-24 | 2020-01-30 | 深圳市大疆创新科技有限公司 | 图像处理方法和设备、摄像装置以及无人机 |
CN109272555B (zh) * | 2018-08-13 | 2021-07-06 | 长安大学 | 一种rgb-d相机的外部参数获得及标定方法 |
CN109272555A (zh) * | 2018-08-13 | 2019-01-25 | 长安大学 | 一种rgb-d相机的外部参数获得及标定方法 |
CN109993103A (zh) * | 2019-03-29 | 2019-07-09 | 华南理工大学 | 一种基于点云数据的人体行为识别方法 |
CN110197156B (zh) * | 2019-05-30 | 2021-08-17 | 清华大学 | 基于深度学习的单图像的人手动作与形状重建方法及装置 |
CN110197156A (zh) * | 2019-05-30 | 2019-09-03 | 清华大学 | 基于深度学习的单图像的人手动作与形状重建方法及装置 |
CN110335343B (zh) * | 2019-06-13 | 2021-04-06 | 清华大学 | 基于rgbd单视角图像人体三维重建方法及装置 |
CN110335343A (zh) * | 2019-06-13 | 2019-10-15 | 清华大学 | 基于rgbd单视角图像人体三维重建方法及装置 |
CN110415336A (zh) * | 2019-07-12 | 2019-11-05 | 清华大学 | 高精度人体体态重建方法及系统 |
CN110415336B (zh) * | 2019-07-12 | 2021-12-14 | 清华大学 | 高精度人体体态重建方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105809681A (zh) | 基于单相机的人体rgb-d数据恢复与三维重建方法 | |
CN110705448B (zh) | 一种人体检测方法及装置 | |
CN108335322A (zh) | 深度估计方法和装置、电子设备、程序和介质 | |
CN106780543B (zh) | 一种基于卷积神经网络的双框架估计深度和运动方法 | |
CN110084304B (zh) | 一种基于合成数据集的目标检测方法 | |
CN104781849B (zh) | 单眼视觉同时定位与建图(slam)的快速初始化 | |
US20170132827A1 (en) | Data Driven Design and Animation of Animatronics | |
CN109003325A (zh) | 一种三维重建的方法、介质、装置和计算设备 | |
EP3182371A1 (en) | Threshold determination in for example a type ransac algorithm | |
CN104616286B (zh) | 快速的半自动多视图深度修复方法 | |
CN109215117A (zh) | 基于ORB与U-net的花卉三维重建方法 | |
CN106091984A (zh) | 一种基于线激光的三维点云数据获取方法 | |
KR20190101382A (ko) | 장면의 공동 세그먼테이션 및 3d 복원을 위한 방법 및 디바이스 | |
WO2008056825A1 (fr) | Procédé de création d'une surface tridimensionnelle | |
CN105164728A (zh) | 来自重构的减弱及中介实境效果 | |
CN109325995B (zh) | 基于人手参数模型的低分辨率多视角手部重建方法 | |
CN104732585A (zh) | 一种人体体型重构的方法及装置 | |
CN105184857A (zh) | 基于点结构光测距的单目视觉重建中尺度因子确定方法 | |
CN107862733B (zh) | 基于视线更新算法的大规模场景实时三维重建方法和系统 | |
Rishav et al. | DeepLiDARFlow: A deep learning architecture for scene flow estimation using monocular camera and sparse LiDAR | |
CN104715504A (zh) | 一种鲁棒的大场景稠密三维重建方法 | |
CN114255285B (zh) | 视频与城市信息模型三维场景融合方法、系统及存储介质 | |
CN111105451B (zh) | 一种克服遮挡效应的驾驶场景双目深度估计方法 | |
CN103839280B (zh) | 一种基于视觉信息的人体姿态跟踪方法 | |
US6421049B1 (en) | Parameter selection for approximate solutions to photogrammetric problems in interactive applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20160727 |
|
RJ01 | Rejection of invention patent application after publication |