CN105976431A - 一种基于旋转光场的三维表面重构方法 - Google Patents
一种基于旋转光场的三维表面重构方法 Download PDFInfo
- Publication number
- CN105976431A CN105976431A CN201610345960.0A CN201610345960A CN105976431A CN 105976431 A CN105976431 A CN 105976431A CN 201610345960 A CN201610345960 A CN 201610345960A CN 105976431 A CN105976431 A CN 105976431A
- Authority
- CN
- China
- Prior art keywords
- light field
- characteristic point
- dimensional
- point
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/30—Polynomial surface description
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Physics (AREA)
- Mathematical Analysis (AREA)
- Algebra (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于旋转光场的三维表面重构方法,包括:(1)对旋转光场进行参数化表征,建立重构物体与旋转光场的几何关系;(2)从旋转采样光场中提取每个视点图像的特征点,追踪匹配成功的特征点的坐标轨迹,对坐标轨迹进行参数拟合得到正弦函数曲线;(3)由特征点与旋转光场的几何关系,得到特征点与旋转角度在旋转光场中的正弦函数,根据拟合得到的所述正弦函数曲线计算特征点的三维坐标,重构三维图像,并实现三维测量。通过采用本发明提供的基于旋转光场三维表面重构方法,实现了全视角的三维表面重构,可以为虚拟现实和增强现实提供全视角精确的三维结构信息。
Description
技术领域
本发明涉及计算机视觉与数字图像处理领域,尤其涉及一种基于旋转光场的三维表面重构方法。
背景技术
光场的概念由A.Gershun在1936年提出,刻画光线在空间中传播时的各个位置各个方向的辐照度信息。1991年,Adelson对空间中的光线进行了形式化描述,提出了全光函数理论,给出七维参数化描述,详细地描述了空间中任意一点在任意时刻的光照信息,并与1992年设计出全光相机原型。1995年,McMillan将全光函数的维度由七维降到了五维,空间中任意位置的光线可由五维坐标L(x,y,x,θ,φ)来描述。在此基础上,Levoy等人在1996年对全光函数进一步简化,提出光场的双平面参数化表示用以描述静态和可见光谱的全光函数,并给出光场渲染公式。Gortler等人于同年也提出了Lumigraph来描述四维光场的分布。
自光场概念提出以来,其理论和数据采集方式得到不断的丰富和发展,促进了光场应用的发展。现有的光场采集方式是建立在光场双平面参数化表示的基础上,可以实现窄视角的三维表面重构。
旋转光场是将待重构物体置于旋转中心,旋转拍摄物体完成光场数据采集。由于旋转光场是对场景光场的全视角采样,因而能够实现全视角的三维表面重构,可以为虚拟现实和增强现实提供精确的三维结构信息。亟待提供一种基于旋转光场的三维表面重构技术。
发明内容
本发明的目的在于提供一种基于旋转光场的三维表面重构方法来满足现有技术中对全视角的三维表面重构的需求。
为实现上述目的,本发明提供一种基于旋转光场的三维表面重构方法,包括:
对旋转光场进行参数化表征其中为旋转角度,x和y为探测器平面的横坐标和纵坐标,唯一确定了旋转光场中的一条光线的光强度建立物点的三维坐标系统(Sx,Sy,Sz),将待重构物体置于坐标系统中心进行旋转拍摄,采集旋转采样光场;
从旋转采样光场中提取每个视点图像的特征点,并对特征点进行匹配,追踪匹配成功的特征点的坐标轨迹,对所述坐标轨迹进行参数拟合得到正弦函数曲线;
根据所述旋转光场的参数化表征,建立特征点与旋转光场的几何关系,得到特征点与旋转角度在旋转光场中的正弦函数,获取该正弦函数的参数与特征点的三维坐标的对应关系;
根据拟合得到的所述正弦函数曲线的参数和所述对应关系得到特征点点的三维坐标,重构三维图像。
优选的,所述追踪匹配成功的特征点的坐标轨迹包括:建立特征点追踪模型,追踪所述匹配成功的特征点的横坐标x与旋转角度的轨迹。
优选的,对所述坐标轨迹进行参数拟合得到正弦函数曲线包括:
对所述坐标轨迹进行参数拟合得到横坐标x关于旋转角度的正弦函数曲线。
优选的,利用下式进行参数拟合,获取正弦函数的振幅A和相位θ的值,
其中表示相机的第i个旋转角度。
优选的,所述建立特征点与旋转光场的几何关系,得到特征点与旋转角度在旋转光场中的正弦函数包括:
建立像点和特征点之间的几何关系,得到像点的横坐标的正弦函数形式其中A和θ与特征点的坐标Sz具有对应关系。
优选的,所述得到像点的横坐标的正弦函数形式的过程包括:
设任意特征点M的像点为M′,则M′可以表示为如下形式:
M′=PM
其中,M=(Sx,Sy,Sz,1)T和M′=(x,y,1)T为齐次坐标的形式,P为透视投影变换矩阵,
P=K[R t]
其中,t是描述相机位置的三维平移向量,R是描述相机方向的旋转矩阵,在旋转光场中R和K的形式为:
计算得到像点M′的横坐标表达式:
根据正余弦函数的和差化积公式得到正弦函数:
优选的,该方法还包括:测量特征点之间的距离。
优选的,所述测量特征点之间的距离包括:
基于三维重构结果,在预设尺度坐标空间中对任意特征点间距离进行测量,将预设坐标架作为尺度参照,根据缩放关系实现特征点间真实距离的几何测量。
优选的,所述测量特征点之间的距离包括:
读取选定的两特征点a,b的坐标值(xa,ya,za)和(xb,yb,zb),根据距离公式计算两特征点a,b之间的相对距离:
获取预设坐标架下的两参照点间的坐标距离D0,计算出重构结果中两参照点间的距离d0,根据相似比例关系计算得到两特征点a,b之间的距离Dab=D0dab/d0。
优选的,从旋转拍摄的多张图片中提取每个视点图像的特征点,并对特征点进行匹配包括:使用SIFT、ORB或SURF进行特征点的提取与匹配。
通过采用本发明提供的基于旋转光场三维表面重构方法,实现了全视角的三维表面重构,可以为虚拟现实和增强现实提供全视角精确的三维结构信息。
附图说明
图1是本发明实施例提供的基于旋转光场的三维表面重构方法的流程示意图。
图2示出对旋转光场进行参数化表征的示意图。
图3示出像点M′的横坐标x随旋转角度发生变化的正弦函数形式。
图4示出特征点追踪模型的示意图。
图5示出对特征点的坐标轨迹的拟合示意图。
具体实施方式
在附图中,使用相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面结合附图对本发明的实施例进行详细说明。
在本发明的描述中,术语“中心”、“纵向”、“横向”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明保护范围的限制。
需要说明,本发明下述实施例提供的方法是以水平方向全视角采样的场景为例进行的介绍,容易理解,本发明实施例提供的方法同样可以应用于其他方向全视角采样的场景。
本发明实施例提供一种基于旋转光场的三维表面重构方法,如图1所示,包括:
步骤101,对旋转光场进行参数化表征其中为旋转角度,x和y为探测器平面的横坐标和纵坐标,唯一确定了旋转光场中的一条光线的光强度建立物点的三维坐标系统(Sx,Sy,Sz),将待重构物体置于坐标系统中心进行旋转拍摄,采集旋转采样光场。
步骤102,从旋转采样光场中提取每个视点图像的特征点,并对特征点进行匹配,追踪匹配成功的特征点的坐标轨迹,对所述坐标轨迹进行参数拟合得到正弦函数曲线。
步骤103,根据所述旋转光场的参数化表征,建立特征点与旋转光场的几何关系,得到特征点与旋转角度在旋转光场中的正弦函数,获取该正弦函数的参数与特征点的三维坐标的对应关系。
步骤104,根据拟合得到的所述正弦函数曲线的参数和所述对应关系得到特征点的三维坐标,重构三维图像。
需要说明,上述步骤之间的前后关系并不是必须的,例如步骤102和103之间的前后顺序可以互换,上述步骤只是出于解释本发明方案的目的而给出的示例顺序。
下面就本发明实施例提供的基于旋转光场的三维表面重构方法进行详细阐述。
图2示出对旋转光场进行参数化表征的示意图。其中,O为旋转中心,建立三维坐标系统(Sx,Sy,Sz),M为物体空间特征点,P为相机位置,对应旋转角度r为旋转半径,f为相机到探测器平面的距离,xoy表示探测器平面,M′为M在探测器平面上的像点。可唯一确定旋转光场中的一条光线的光强度,可以唯一确定像点坐标,旋转采样光场被参数化表示为
基于旋转光场的参数化表征,在角度下的成像过程为:
其中,表示角度下采集的图像,为点扩散函数,针孔相机的为单位脉冲函数。
对旋转光场进行参数化表征后,可以建立特征点与旋转光场的几何关系,得到特征点与旋转角度在旋转光场中的正弦函数,获取该正弦函数的参数(例如振幅和相位)与特征点的三维坐标的对应关系。
本发明实施例中,设相机对空间中的特征点M的透视投影变换可以表示为一个矩阵P,则图像中的像点M′可以表示为如下形式:
M′=PM
其中,M=(Sx,Sy,Sz,1)T和M′=(x,y,1)T表示为齐次坐标的形式,P为透视投影变换矩阵。P可以分解为如下形式:
P=K[R t]
其中,t是描述相机位置的三维平移向量,R是描述相机方向的旋转矩阵,在旋转光场中R和K的形式为:
由此可以得到点M′的横坐标为
通过和差化积公式得到正弦函数为
根据上式可知,追踪物体表面特征点得到特征点在旋转光场中的正弦函数轨迹。图3示出像点M′的横坐标x随旋转角度发生变化的正弦函数形式。容易知晓,如果得到A和θ的值,则可以导出Sz的值。在图2所示的参数化表征系统中,r为旋转半径,f为相机到探测器平面的距离,都可以预先知晓。当旋转角度已知时,对应像点M′的特征点的坐标Sz也可以知晓,当特征点的坐标Sz也是已知时,可以通过几何关系计算得到特征点的坐标Sx和坐标Sy的值。
在进行三维重建时,需要从旋转采样光场(例如有可能是旋转拍摄的多张图片)中提取每个视点图像的特征点,并对特征点进行匹配。本发明实施例中,可以使用SIFT(尺度不变特征转换,Scale-invariant featuretransform)、ORB(ORiented Brief)、SURF作为特征点描述子。在具体实施中,考虑到SIFT对图像的视角变化、噪声保持较强的稳健性,并可以处理图像间的平移、旋转、仿射变换情况下的匹配问题,本发明采用SIFT执行旋转采样光场数据的图像匹配,得到匹配成功的图像的特征点。
追踪匹配成功的特征点的坐标轨迹,对所述坐标轨迹进行参数拟合得到正弦函数曲线,包括:建立特征点追踪模型,追踪所述匹配成功的特征点的横坐标x与旋转角度的轨迹。本发明实施例中,对所述坐标轨迹进行参数拟合得到横坐标x关于旋转角度的正弦函数曲线。
图4示出特征点追踪模型的示意图,追踪匹配成功的特征点的坐标轨迹。在旋转拍摄的过程中,同一特征点的像点的横坐标x随旋转角度发生变化。图5示出对特征点的坐标轨迹的拟合示意图。如图5所示,特征点的横坐标x随旋转角度发生变化,通过拟合得到正弦曲线。
优选的,利用下式进行参数拟合,获取正弦函数的振幅A和相位θ的值,
其中表示相机的第i个旋转角度。
获得A和相位θ的值后,结合公式和可以得到特征点的坐标Sz,进而通过几何关系计算得到特征点的坐标Sx和坐标Sy的值。
根据三维重构结果,由特征点位置坐标生成三维点云图、三维渲染图等。此外,基于三维重构结果,还可以在预设尺度坐标空间中对任意特征点间的距离进行测量。将预设坐标架作为尺度参照,根据缩放关系实现特征点间真实距离的几何测量。该测量过程包括:
S1,读取选定的两特征点a,b的坐标值(xa,ya,za)和(xb,yb,zb),根据距离公式计算两特征点a,b之间的相对距离:
S2,获取预设坐标架下的两参照点间的坐标距离D0,计算出重构结果中两参照点间的距离d0,根据相似比例关系计算得到两特征点a,b之间的距离Dab=D0dab/d0。
通过采用本发明提供的基于旋转光场三维表面重构方法,实现了全视角的三维表面重构,可以为虚拟现实和增强现实提供全视角精确的三维结构信息。
最后需要指出的是:以上实施例仅用以说明本发明的技术方案,而非对其限制。本领域的普通技术人员应当理解:可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种基于旋转光场的三维表面重构方法,其特征在于,包括:
对旋转光场进行参数化表征其中为旋转角度,x和y为探测器平面的横坐标和纵坐标,唯一确定了旋转光场中的一条光线的光强度建立物点的三维坐标系统(Sx,Sy,Sz),将待重构物体置于坐标系统中心进行旋转拍摄,采集旋转采样光场;
从旋转采样光场中提取每个视点图像的特征点,并对特征点进行匹配,追踪匹配成功的特征点的坐标轨迹,对所述坐标轨迹进行参数拟合得到正弦函数曲线;
根据所述旋转光场的参数化表征,建立特征点与旋转光场的几何关系,得到特征点与旋转角度在旋转光场中的正弦函数,获取该正弦函数的参数与特征点的三维坐标的对应关系;
根据拟合得到的所述正弦函数曲线的参数和所述对应关系得到特征点的三维坐标,重构三维图像。
2.如权利要求1所述的基于旋转光场的三维表面重构方法,其特征在于,所述追踪匹配成功的特征点的坐标轨迹包括:建立特征点追踪模型,追踪所述匹配成功的特征点的横坐标x与旋转角度的轨迹。
3.如权利要求2所述的基于旋转光场的三维表面重构方法,其特征在于,对所述坐标轨迹进行参数拟合得到正弦函数曲线包括:
对所述坐标轨迹进行参数拟合得到横坐标x关于旋转角度的正弦函数曲线。
4.如权利要求3所述的基于旋转光场的三维表面重构方法,其特征在于,利用下式进行参数拟合,获取正弦函数的振幅A和相位θ的值,
其中表示相机的第i个旋转角度。
5.如权利要求1所述的基于旋转光场的三维表面重构方法,其特征在于,所述建立特征点与旋转光场的几何关系,得到特征点与旋转角度在旋转光场中的正弦函数包括:
建立特征点与旋转光场的几何关系,得到特征点与旋转角度在旋转光场 中的正弦函数形式其中A和θ与特征点的坐标Sz具有对应关系。
6.如权利要求5所述的基于旋转光场的三维表面重构方法,其特征在于,所述得到像点的横坐标的正弦函数形式的过程包括:
设任意特征点M的像点为M′,则M′可以表示为如下形式:
M′=PM
其中,M=(Sx,Sy,Sz,1)T和M′=(x,y,1)T为齐次坐标的形式,P为透视投影变换矩阵,
P=K[R t]
其中,t是描述相机位置的三维平移向量,R是描述相机方向的旋转矩阵,在旋转光场中R和K的形式为:
计算得到像点M′的横坐标表达式:
根据正余弦函数的和差化积公式得到正弦函数:
。
7.如权利要求1所述的基于旋转光场的三维表面重构方法,其特征在于,所述生成三维图像包括生成三维点云图、三维渲染图,该方法还包括:测量特征点之间的距离。
8.如权利要求7所述的基于旋转光场的三维表面重构方法,其特征在于,所述测量特征点之间的距离包括:
基于三维重构结果,在预设尺度坐标空间中对任意特征点间距离进行测量,将预设坐标架作为尺度参照,根据缩放关系实现特征点间真实距离的几何测量。
9.如权利要求8所述的基于旋转光场的三维表面重构方法,其特征在于,所述测量特征点之间的距离包括:
读取选定的两特征点a,b的坐标值(xa,ya,za)和(xb,yb,zb),根据距离公式计算两特征点a,b之间的相对距离:
获取预设坐标架下的两参照点间的坐标距离D0,计算出重构结果中两参照点间的距离d0,根据相似比例关系计算得到两特征点a,b之间的距离Dab=D0dab/d0。
10.如权利要求1所述的基于旋转光场的三维表面重构方法,其特征在于,从旋转拍摄的多张图片中提取每个视点图像的特征点,并对特征点进行匹配包括:使用SIFT、ORB或SURF进行特征点的提取与匹配。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610345960.0A CN105976431B (zh) | 2016-05-23 | 2016-05-23 | 一种基于旋转光场的三维表面重构方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610345960.0A CN105976431B (zh) | 2016-05-23 | 2016-05-23 | 一种基于旋转光场的三维表面重构方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105976431A true CN105976431A (zh) | 2016-09-28 |
CN105976431B CN105976431B (zh) | 2019-01-22 |
Family
ID=56955659
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610345960.0A Active CN105976431B (zh) | 2016-05-23 | 2016-05-23 | 一种基于旋转光场的三维表面重构方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105976431B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107038758A (zh) * | 2016-10-14 | 2017-08-11 | 北京联合大学 | 一种基于orb算子的增强现实三维注册方法 |
CN107066092A (zh) * | 2017-03-20 | 2017-08-18 | 上海大学 | Vr运行空间动态检测与参数化虚拟场景重构系统与方法 |
CN107289869A (zh) * | 2017-06-08 | 2017-10-24 | 杭州联络互动信息科技股份有限公司 | 一种利用矩阵镜头进行3d测量的方法、装置及系统 |
CN108986203A (zh) * | 2018-07-23 | 2018-12-11 | 太平洋未来科技(深圳)有限公司 | 阴影效果的确定方法、装置及电子设备 |
CN110462685A (zh) * | 2017-05-10 | 2019-11-15 | 上海科技大学 | 三维模型重建方法和系统 |
CN111932648A (zh) * | 2020-06-17 | 2020-11-13 | 北京信息科技大学 | 一种由螺旋采样光场数据重建三维物体的方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070195389A1 (en) * | 2006-02-22 | 2007-08-23 | Tesa Scribos | Method for the calculation of, storage medium for and device for the read-out of computer-generated holograms on a non-planar surface |
CN103793939A (zh) * | 2013-07-29 | 2014-05-14 | 北京正安融翰技术有限公司 | 大规模点云数据的局部增长式曲面重建方法 |
CN104361630A (zh) * | 2014-10-21 | 2015-02-18 | 北京工业大学 | 一种人脸表面光场的获取方法 |
CN105427302A (zh) * | 2015-11-17 | 2016-03-23 | 中国科学院自动化研究所 | 一种基于移动稀疏相机采集阵列的三维采集及重建系统 |
-
2016
- 2016-05-23 CN CN201610345960.0A patent/CN105976431B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070195389A1 (en) * | 2006-02-22 | 2007-08-23 | Tesa Scribos | Method for the calculation of, storage medium for and device for the read-out of computer-generated holograms on a non-planar surface |
CN103793939A (zh) * | 2013-07-29 | 2014-05-14 | 北京正安融翰技术有限公司 | 大规模点云数据的局部增长式曲面重建方法 |
CN104361630A (zh) * | 2014-10-21 | 2015-02-18 | 北京工业大学 | 一种人脸表面光场的获取方法 |
CN105427302A (zh) * | 2015-11-17 | 2016-03-23 | 中国科学院自动化研究所 | 一种基于移动稀疏相机采集阵列的三维采集及重建系统 |
Non-Patent Citations (2)
Title |
---|
CHANGIL KIM ET AL.: "Scene reconstruction from high spatio-angular resolution light fields", 《ACM TRANSACTIONS ON GRAPHICS,2013》 * |
LIU CHANG ET AL.: "3D Surface Reconstruction from Circumferential Light Field Based on the Feature Point Tracking", 《CONFERENCE:MATHEMATICS IN IMAGING,2016》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107038758A (zh) * | 2016-10-14 | 2017-08-11 | 北京联合大学 | 一种基于orb算子的增强现实三维注册方法 |
CN107038758B (zh) * | 2016-10-14 | 2020-07-17 | 北京联合大学 | 一种基于orb算子的增强现实三维注册方法 |
CN107066092A (zh) * | 2017-03-20 | 2017-08-18 | 上海大学 | Vr运行空间动态检测与参数化虚拟场景重构系统与方法 |
CN107066092B (zh) * | 2017-03-20 | 2020-04-03 | 上海大学 | Vr运行空间动态检测与参数化虚拟场景重构系统与方法 |
CN110462685A (zh) * | 2017-05-10 | 2019-11-15 | 上海科技大学 | 三维模型重建方法和系统 |
CN110462685B (zh) * | 2017-05-10 | 2022-12-16 | 上海科技大学 | 三维模型重建方法和系统 |
CN107289869A (zh) * | 2017-06-08 | 2017-10-24 | 杭州联络互动信息科技股份有限公司 | 一种利用矩阵镜头进行3d测量的方法、装置及系统 |
CN108986203A (zh) * | 2018-07-23 | 2018-12-11 | 太平洋未来科技(深圳)有限公司 | 阴影效果的确定方法、装置及电子设备 |
CN111932648A (zh) * | 2020-06-17 | 2020-11-13 | 北京信息科技大学 | 一种由螺旋采样光场数据重建三维物体的方法 |
CN111932648B (zh) * | 2020-06-17 | 2023-05-12 | 北京信息科技大学 | 一种由螺旋采样光场数据重建三维物体的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105976431B (zh) | 2019-01-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105976431A (zh) | 一种基于旋转光场的三维表面重构方法 | |
CN105869160B (zh) | 利用Kinect实现三维建模和全息显示的方法及系统 | |
CN103021017B (zh) | 基于gpu加速的三维场景重建方法 | |
CN106780619B (zh) | 一种基于Kinect深度相机的人体尺寸测量方法 | |
CN104376594B (zh) | 三维人脸建模方法和装置 | |
CN102663820B (zh) | 三维头部模型重建方法 | |
Jakob et al. | Capturing hair assemblies fiber by fiber | |
CN104299211B (zh) | 一种自由移动式三维扫描方法 | |
CN105931234A (zh) | 一种地面三维激光扫描点云与影像融合及配准的方法 | |
CN107507274A (zh) | 一种基于云计算的公安案件现场三维实景快速还原方法 | |
Sankaranarayanan et al. | Specular surface reconstruction from sparse reflection correspondences | |
Xu et al. | Model-based food volume estimation using 3D pose | |
CN106017325A (zh) | 一种改进的复杂表面和不规则物体体积的非接触光学测量方法 | |
US10755433B2 (en) | Method and system for scanning an object using an RGB-D sensor | |
Xu et al. | Dynamic hair capture using spacetime optimization | |
CN107631700B (zh) | 三维扫描仪与全站仪相结合的三维数据测量方法 | |
Pagani et al. | Dense 3D Point Cloud Generation from Multiple High-resolution Spherical Images. | |
Jung et al. | Range image registration based on 2D synthetic images | |
Hafeez et al. | Image based 3D reconstruction of texture-less objects for VR contents | |
Luan et al. | Research and development of 3D modeling | |
FR2553912A1 (fr) | Procede et appareillage pour determiner l'attitude d'un objet dans l'espace par rapport a un poste d'observation | |
Deng et al. | Cerberus: A multi-headed derenderer | |
Frisky et al. | Acquisition Evaluation on Outdoor Scanning for Archaeological Artifact Digitalization. | |
Han et al. | 3D reconstruction of dense model based on the sparse frames using RGBD camera | |
Bo et al. | Development of coordinate-machine of the scene of road traffic accident based on binocular stereo omni-directional vision sensors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |