CN106504320A - 一种基于gpu及面向深度图像的实时三维重构方法 - Google Patents

一种基于gpu及面向深度图像的实时三维重构方法 Download PDF

Info

Publication number
CN106504320A
CN106504320A CN201610945412.1A CN201610945412A CN106504320A CN 106504320 A CN106504320 A CN 106504320A CN 201610945412 A CN201610945412 A CN 201610945412A CN 106504320 A CN106504320 A CN 106504320A
Authority
CN
China
Prior art keywords
data
dimensional
depth image
gpu
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610945412.1A
Other languages
English (en)
Other versions
CN106504320B (zh
Inventor
张新宇
周响南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Wushi Innovation Technology Co.,Ltd.
Original Assignee
East China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by East China Normal University filed Critical East China Normal University
Priority to CN201610945412.1A priority Critical patent/CN106504320B/zh
Publication of CN106504320A publication Critical patent/CN106504320A/zh
Application granted granted Critical
Publication of CN106504320B publication Critical patent/CN106504320B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Image Generation (AREA)

Abstract

本发明公开了一种基于GPU及面向深度图像的实时三维重构方法,方法的计算在GPU上进行,包括数据预处理阶段、数据配准阶段、数据融合阶段和三维模型提取阶段;其中,数据预处理阶段包括数据截断、数据滤波和数据分层;数据配准阶段设置为用于求解深度图像数据在全局坐标下的位姿;数据融合阶段设置为用于将深度图像数据融合到改进的三维截断有向距离场模型中;三维模型提取阶段设置为从改进的三维截断有向距离场模型中提取出三维网格模型。有效地利用GPU多线程并行处理的特点,在GPU上实现实时三维重构,在保证高精度的前提下实现实时三维模型重构。

Description

一种基于GPU及面向深度图像的实时三维重构方法
技术领域
本发明涉及计算机图形学领域,尤其涉及一种基于GPU及面向深度图像的实时三维重构方法。
背景技术
实时三维重构技术用于实时获取现实空间中物体的三维模型,三维重构技术广泛用于在涉及计算机技术的多个方向,包括计算机动画、计算机辅助设计、机器人、虚拟现实、增强现实、3D打印等。经过多年的发展,三维重构技术取得了很大进步,但是三维重构仍然有一些问题没有解决,比如在重建速度、重建范围、重建精度方面。
一个有效的实时三维重构方法最主要的困难在于在保持重建精度的情况下达到实时处理的效果,同时重建范围还要足够大。在三维重构的过程中涉及到大量运算,比如在数据配准阶段以前无法做到实时处理。深度相机未出现之前,三维图像生成大多是使用多幅图通过计算对应特征点的方式合成,三维图像的生成需要大量运算,而且精度也不够精确。随着硬件技术的发展,深度相机随之出现,深度相机可以获取较高精度的深度图像数据,而且获取速率也非常快,非常适合用于三维重构技术。虽然深度相机的出现可以获取到较高精度的深度数据,实时三维技术还是存在很多问题,如实时三维重构技术涉及到大量运算,在CPU上是无法达到实时处理的要求,但随着GPU技术的发展,三维技术中涉及到的大量运算开始在GPU上进行操作,才使实时三维重构技术看到了一丝曙光,但还是存在问题,比如由于三维重构要处理大量数据,对显存的要求非常大,所以在处理非常大的场景是还是存在问题。
因此,本领域的技术人员致力于开发一种基于GPU及面向深度图像的实时三维重构方法,不仅能够达到实时处理的需要,还可以重建较大的场景。
发明内容
有鉴于现有技术的上述缺陷,本发明所要解决的技术问题是开发一种基于GPU及面向深度图像的实时三维重构方法,不仅能够达到实时处理的需要,还可以重建较大的场景,保证精度的前提下,实现实时三维重构。
为实现上述目的,本发明提供了一种基于GPU及面向深度图像的实时三维重构方法,方法的计算在GPU上进行,包括数据预处理阶段、数据配准阶段、数据融合阶段和三维模型提取阶段;其中,
数据预处理阶段包括数据截断、数据滤波和数据分层;
数据配准阶段设置为用于求解深度图像数据在全局坐标下的位姿;
数据融合阶段设置为用于将深度图像数据融合到改进的三维截断有向距离场模型中;
三维模型提取阶段设置为从改进的三维截断有向距离场模型中提取出三维网格模型。
进一步地,数据截断设置为将不在最大范围值和最小范围值的范围内的深度图像数据中的像素点设置为0;
数据滤波设置为过滤深度图像数据中的噪点;
数据分层设置为将深度图像数据分为三层,其中每层是上层数据量的四分之一。
进一步地,数据配准阶段使用高斯牛顿方法解误差方程,得到迭代公式,求取位姿。
进一步地,数据滤波设置为采用双边滤波过滤深度图像数据中的噪点。
进一步地,数据融合阶段采用改进的三维截断有向距离场存储三维模型数据。
进一步地,改进的三维截断有向距离场将有向距离场均匀分成N个部分,当深度图像数据的范围超过改进的三维截断有向距离场模型时,更新存储模型。
进一步地,更新储存模型是将最久没有使用过的部分中的三维数据提取出来,用于储存新的三维数据。
进一步地,数据融合阶段使用数据配准阶段求到的位姿转换到局部坐标下,使用小孔成像原理转换到成像平面所在的平面中,并且计算临时距离值,当临时距离值在设定的范围内时,更新体素的距离值。
进一步地,三维模型提取阶段将体素转换为三维点,获得三维点之后使用移动立方体方法网格化。
进一步地,GPU使用多线程并行计算。
技术效果
有效地利用GPU多线程并行处理的特点,在GPU上实现实时三维重构,在保证高精度的前提下实现实时三维模型重构。
有效利用GPU显存,可以用于构建大场景的三维模型。
以下将结合附图对本发明的构思、具体结构及产生的技术效果作进一步说明,以充分地了解本发明的目的、特征和效果。
附图说明
图1是本发明的一个较佳实施例的一种基于GPU及面向深度图像的实时三维重构方法的流程示意图;
图2是本发明的一个较佳实施例的一种基于GPU及面向深度图像的实时三维重构方法的深度图像数据格式示意图;
图3是本发明的一个较佳实施例的一种基于GPU及面向深度图像的实时三维重构方法的改进的三维截断有向距离场模型格式示意图;
图4是本发明的一个较佳实施例的一种基于GPU及面向深度图像的实时三维重构方法的改进的三维截断有向距离场模型中的计算距离值的方式示意图;
图5是本发明的一个较佳实施例的一种基于GPU及面向深度图像的实时三维重构方法的改进的三维截断有向距离场模型变换示意图。
具体实施方式
如图所示,本发明的一较佳实施例提供一种基于GPU及面向深度图像的实时三维重构方法,所有计算都在GPU上进行。区别于串行计算,GPU可以并发处理大量计算,即进行多线程并行处理。为了使GPU的计算性能发挥到最大,需要考虑:1、合理分配线程以保证处理速度达到最大,GPU中的线程数量虽然很多,但是也要采用合理的分配方式才可以达到合理利用的目的;2、合理分配显存以及寄存器达到高效处理,GPU中的显存有限,有效存储数据更加关键,至于GPU中的高速寄存器,数量更是小,使用时要更加注意;3、合理分配线程的处理任务,由于GPU中的每个线程的处理速度没有CPU中的快,且对分支非常敏感,只有同一线程组内的线程执行的分支越少,性能就越高。本发明的一较佳实施例提供的一种基于GPU及面向深度图像的实时三维重构方法在保证精度的前提下,实现实时三维重构。
本发明的一较佳实施例中,以深度图像X和改进的三维截断有向距离场模型S为例,对一种基于GPU及面向深度图像的实时三维重构方法进行详细说明,在本实施例中,输入流为一帧深度图像数据X以及改进的三维截断有向距离场S,本发明的计算在GPU进行,面向深度图像的实时三维重构分为数据预处理阶段、数据配准阶段、数据融合阶段和三维模型提取阶段四个阶段。
其中数据预处理包括数据截断、数据滤波和数据分层。获取一帧深度图像之后,首先将深度图像数据上传至显存。数据截断操作将不在最大最小范围值范围内的深度图像数据中的像素点设置为0,执行下一步骤;数据滤波操作采用双边滤波过滤掉深度图像数据中的噪点,执行下一步骤;数据分层操作将深度图像数据分成三层,其中每层是上层的数据量的四分之一,执行下一步骤。
具体步骤为:首先获取一帧深度图像数据X,深度数据格式如图2所示,其中每个方格代表一个深度点,深度数据的大小是640*480个像素点,也就是X有640*480个数据点,标记xi表示X中第i个像素点,并且深度图像可以按照小孔成像原理转换成三维点云数据。将深度图像数据上传至GPU进行数据截断处理,在该阶段首先设置最大值cut_far和最小值cut_near,将深度图像数据中不在cut_far与cut_near之间的深度图像像素点的值设置为0,此步骤中在GPU上处理,并且为每个深度数据像素分配一个线程进行处理,对于X,则要分配640*480个线程,处理结束之后进行下一步数据滤波操作;在数据滤波操作过程中采用双边滤波算法,同样在GPU上进行处理,并为每个深度数据像素分配一个线程,处理结束之后进行下一步数据分层操作。在数据分层操作步骤中,标记深度图像数据为第一层深度数据,首先在GPU上申请两张二维数据表,分别标记为第二层深度数据与第三层深度数据,大小分别是第一层深度数据的四分之一和八分之一,既第二层深度数据表的长宽大小是第一层深度数据表的二分之一,第三层深度数据表的长宽大小是第二层深度数据表的四分之一,对于深度图像X,第一层就是X,标记为X1,第二层标记为X2,第三层标记为X3,那么X1的大小是640*480,X2的大小是320*240,X3的大小是160*120。第二层深度数据和三层深度数据初始化在GPU上完成,为第二深度数据表中的每个数据分配一个线程,用于为第二层深度数据表赋值,在第一层深度数据每行中每隔一个数据取一个数据赋值给第二层深度数据,完成第二层深度数据赋值。为第三次深度数据表中的每个数据分配一个线程,在第二层深度数据每行中每隔一个数据取一个数据赋值给第三层深度数据,完成第三次深度数据处理化,进行下一步骤。
数据配准阶段用于求解深度图像数据在全局坐标下的位姿。初始化位姿是上一帧深度数据的位姿,使用高斯牛顿方法解误差方程,可以得到迭代公式,通过计算迭代公式优化位姿,当位姿迭代一定次数后,或者位姿发生的变化在一定范围内,则停止迭代,如果求到的位姿与上一帧深度数据的位姿相比,发生的变化在设定范围内,则认为成功求取位姿,在成功求取位姿的情况下,执行下一步。
具体步骤为:数据配准阶段用于求解当前深度图像在改进的三维截断有向距离场的位姿,首先本发明采用改进的三维截断有向距离场存储三维模型数据,如图3所示,在本示例中S即是改进的三维截断有向距离场。有向距离场是将三维重建空间分成很多相等的小立方体空间,每个小空间称为体素,使用公式将三维点P(px,py,pz)转换为体素T(tx,ty,tz),其中lx表示体素在x轴上代表的距离大小,ly表示体素在y轴上代表的距离大小,lz表示体素在z轴上代表的距离大小。每个体素存储两个值,一个用于存储到三维重建空间中物体表面的最近距离d,另一个存储权重值w,两个值都是用short类型表示,最近距离d和权重值w的初始值都是零,其中d为零时,表示体素在物体上,为正负时表示体素在物体的两面。在二维图像中的表示如图4所示,在图中每个原点表示体素,黑色实线表示物体表面,在计算体素存储值时,只计算两条虚线范围内的体素值,在三维模型中是当距离值小于设定范围时更新体素距离值。在本发明中使用改进方法存储三维模型数据,如图3所示,虚线表示将有向距离场分成K部分,这K部分可以组合移动,当新的深度数据的范围超过三维数据存储模型时,将最久没有使用过的部分移动到前面,如图5所示,三维存储模型分成abcdef六部分,当新的深度图像数据加入且超过存储模型的范围,从f中提取出三维网格模型并初始化f,然后将f放到a的前面,三维存储模型变成fabcde,当下次出现超出范围的情况时,按照上述方法操作。
数据配准阶段在GPU上迭代执行,为每个深度数据分配一个线程,也就是分配640*480个线程,初始时将上一帧深度数据的位姿作为当前深度数据的初始位姿。在一次迭代过程中按照下列步骤计算,并且从高层深度图像数据X3开始计算:首先将深度图像数据按照小孔成像原理转换成三维点云数据,将三维点云按照当前位姿转换到全局坐标,求取该点的体素值,然后求该三维点在三个方向上的梯度值向量,接着求梯度值向量与梯度值向量倒数的乘积a,然后将所有深度数据点求得的a累加到A中,体素中距离值和梯度值向量的乘积b,然后将所有深度数据点求得的b累加到B中,然后按照公式ξk+1=ξk-A-1B求解,将ξ加入到初始位姿中,其中ξ表示六维向量,每次迭代初始值是零,按照上述步骤迭代计算,当ξk+1k<α或者迭代一定次数时结束迭代,其中α是设置的界限值。如果求到的位姿相对于上一帧数据的移动位置在一定范围内,则认为成功求到当前深度图像数据的位姿,否则处理下一帧深度图像。进行下一步操作。
数据融合阶段用于将深度图像数据融合到已有的改进的三维截断有向距离场模型中,在融合的过程中,如果当前深度图像数据的位姿不在改进的三维截断有向距离场模型中,更新改进三维截断有向距离场模型,然后再存储数据。其中三维网格模型提取阶段在扫描结束后用于从改进的三维截断有向距离场模型中提取出三维网格模型。
具体步骤为:数据融合阶段用于将当前深度图像数据融合进改进的三维截断有向距离场模型中,具体操作如下:在GPU上执行,图3为三维模型存储结构,将三维空间分为相等的小立方体,如在xyz轴上小立方体的个数分别cx、cy和cz,首先分配线程数量是cx*cy,每个线程按照从0到cz访问每个体素,使用数据配准阶段求到的位姿的逆矩阵将体素转换到局部坐标下,接着使用小孔成像原理将体素转换到成像平面所在的平面中,如果转换后的位置在成像平面上,则计算当前体素的距离值,将该位置上的深度值减去体素到该位置的距离作为该体素的临时距离值,如果该临时距离值在设定的范围内,更新该体素的距离值,更新方法按照公式进行,其中di为体素i的距离值,dnew为该体素的临时距离值,wi为体素中存储的权重值,wnew为新的权重值,其中wi公式wi=min(wnew+wi,wmax)进行更新。所有体素执行上步操作之后,进行下一步操作。
三维模型提取阶段用于从改进的三维截断有向距离场模型中提取出三维网格模型。本发明采用改进的三维截断有向距离场作为三维数据存储模型,改进的三维截断有向距离场将有向距离场均匀分成几部分,当深度图像数据融合进改进的三维截断有向距离场模型时,如果深度图像数据的范围超过改进的三维截断有向距离场模型,则更新存储模型,更新方法是将最久没有使用过的部分中的三维数据提取出来,然后用于存储新的三维数据。改进的三维截断有向距离场中每个体素存储的距离值表示该体素到物体的最近距离,如果距离值为零,表示该体素被物体占据;如果为正,表示该体素在物体的外面;如果为负,表示该体素在物体的外面。相邻体素的乘积小于或等于零,且该体素的权重值不为零,则从该体素中提取三维数据点。
具体步骤为:三维模型提取阶段用于从改进的三维截断有向距离场模型中提取三维网格模型,使用的方法在GPU上执行,首先分配线程数量是cx*cy,每个线程按照从0到cz访问每个体素,当前体素中存储的距离值与下一个要访问的体素的距离值的乘积小于或等于零,且该体素的权重值不为0时,将该点作为一个三维点,然后按照公式α(tx,ty,tz)=(tx·lx,ty·ly,tz·lz)将体素T(tx,ty,tz)转换为三维点P(px,py,pz),获得三维点之后可以使用移动立方体方法网格化。
本发明的一较佳实施例中的一种基于GPU及面向深度图像的实时三维重构方法,能够有效地利用GPU多线程并行处理的特点,在GPU上实现实时三维重构,在保证高精度的前提下实现实时三维模型重构。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思作出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。

Claims (10)

1.一种基于GPU及面向深度图像的实时三维重构方法,其特征在于,所述方法的计算在GPU上进行,包括数据预处理阶段、数据配准阶段、数据融合阶段和三维模型提取阶段;其中,
所述数据预处理阶段包括数据截断、数据滤波和数据分层;
所述数据配准阶段设置为用于求解深度图像数据在全局坐标下的位姿;
所述数据融合阶段设置为用于将所述深度图像数据融合到改进的三维截断有向距离场模型中;
所述三维模型提取阶段设置为从所述改进的三维截断有向距离场模型中提取出三维网格模型。
2.如权利要求1所述的一种基于GPU及面向深度图像的实时三维重构方法,其特征在于,所述数据截断设置为将不在最大范围值和最小范围值的范围内的深度图像数据中的像素点设置为0;
所述数据滤波设置为过滤所述深度图像数据中的噪点;
所述数据分层设置为将所述深度图像数据分为三层,其中每层是上层数据量的四分之一。
3.如权利要求1所述的一种基于GPU及面向深度图像的实时三维重构方法,其特征在于,所述数据配准阶段使用高斯牛顿方法解误差方程,得到迭代公式,求取位姿。
4.如权利要求2所述的一种基于GPU及面向深度图像的实时三维重构方法,其特征在于,所述数据滤波设置为采用双边滤波过滤所述深度图像数据中的噪点。
5.如权利要求1所述的一种基于GPU及面向深度图像的实时三维重构方法,其特征在于,所述数据融合阶段采用改进的三维截断有向距离场存储三维模型数据。
6.如权利要求5所述的一种基于GPU及面向深度图像的实时三维重构方法,其特征在于,所述改进的三维截断有向距离场将有向距离场均匀分成N个部分,当所述深度图像数据的范围超过所述改进的三维截断有向距离场模型时,更新存储模型。
7.如权利要求6所述的一种基于GPU及面向深度图像的实时三维重构方法,其特征在于,所述更新储存模型是将最久没有使用过的部分中的三维数据提取出来,用于储存新的三维数据。
8.如权利要求1所述的一种基于GPU及面向深度图像的实时三维重构方法,其特征在于,所述数据融合阶段使用所述数据配准阶段求到的位姿转换到局部坐标下,使用小孔成像原理转换到成像平面所在的平面中,并且计算临时距离值,当所述临时距离值在设定的范围内时,更新体素的距离值。
9.如权利要求1所述的一种基于GPU及面向深度图像的实时三维重构方法,其特征在于,所述三维模型提取阶段将体素转换为三维点,获得所述三维点之后使用移动立方体方法网格化。
10.如权利要求1所述的一种基于GPU及面向深度图像的实时三维重构方法,其特征在于,所述GPU使用多线程并行计算。
CN201610945412.1A 2016-11-02 2016-11-02 一种基于gpu及面向深度图像的实时三维重构方法 Active CN106504320B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610945412.1A CN106504320B (zh) 2016-11-02 2016-11-02 一种基于gpu及面向深度图像的实时三维重构方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610945412.1A CN106504320B (zh) 2016-11-02 2016-11-02 一种基于gpu及面向深度图像的实时三维重构方法

Publications (2)

Publication Number Publication Date
CN106504320A true CN106504320A (zh) 2017-03-15
CN106504320B CN106504320B (zh) 2019-12-17

Family

ID=58321999

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610945412.1A Active CN106504320B (zh) 2016-11-02 2016-11-02 一种基于gpu及面向深度图像的实时三维重构方法

Country Status (1)

Country Link
CN (1) CN106504320B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108287164A (zh) * 2017-12-23 2018-07-17 深圳天眼激光科技有限公司 一种裂纹检测系统
CN108537876A (zh) * 2018-03-05 2018-09-14 清华-伯克利深圳学院筹备办公室 基于深度相机的三维重建方法、装置、设备及存储介质
CN109559371A (zh) * 2017-09-27 2019-04-02 虹软科技股份有限公司 一种用于三维重建的方法和装置
CN110097582A (zh) * 2019-05-16 2019-08-06 广西师范大学 一种点云优化配准与实时显示系统及工作方法
CN110490908A (zh) * 2019-08-26 2019-11-22 北京华捷艾米科技有限公司 一种动态场景下小物体的位姿追踪方法及装置
CN111696145A (zh) * 2019-03-11 2020-09-22 北京地平线机器人技术研发有限公司 深度信息确定方法、深度信息确定装置及电子设备
CN112732496A (zh) * 2020-12-05 2021-04-30 西安翔腾微电子科技有限公司 一种gpu深度测试精度的评估方法
CN113052761A (zh) * 2019-12-26 2021-06-29 炬星科技(深圳)有限公司 激光点云地图融合方法、设备以及计算机可读存储介质
CN116306811A (zh) * 2023-02-28 2023-06-23 苏州亿铸智能科技有限公司 一种针对ReRAM部署神经网络的权重分配方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8169434B2 (en) * 2008-09-29 2012-05-01 Microsoft Corporation Octree construction on graphics processing units
CN103559737A (zh) * 2013-11-12 2014-02-05 中国科学院自动化研究所 一种对象全景建模方法
US20140146057A1 (en) * 2012-11-26 2014-05-29 Electronics And Telecommunications Research Institute Apparatus for 3d reconstruction based on multiple gpus and method thereof
CN105654492A (zh) * 2015-12-30 2016-06-08 哈尔滨工业大学 基于消费级摄像头的鲁棒实时三维重建方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8169434B2 (en) * 2008-09-29 2012-05-01 Microsoft Corporation Octree construction on graphics processing units
US20140146057A1 (en) * 2012-11-26 2014-05-29 Electronics And Telecommunications Research Institute Apparatus for 3d reconstruction based on multiple gpus and method thereof
CN103559737A (zh) * 2013-11-12 2014-02-05 中国科学院自动化研究所 一种对象全景建模方法
CN105654492A (zh) * 2015-12-30 2016-06-08 哈尔滨工业大学 基于消费级摄像头的鲁棒实时三维重建方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
朱笑笑 等: "一种改进的KinectFusion三维重构算法", 《机器人》 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109559371A (zh) * 2017-09-27 2019-04-02 虹软科技股份有限公司 一种用于三维重建的方法和装置
CN109559371B (zh) * 2017-09-27 2023-12-26 虹软科技股份有限公司 一种用于三维重建的方法和装置
CN108287164A (zh) * 2017-12-23 2018-07-17 深圳天眼激光科技有限公司 一种裂纹检测系统
CN108287164B (zh) * 2017-12-23 2021-03-23 深圳天眼激光科技有限公司 一种裂纹检测系统
CN108537876A (zh) * 2018-03-05 2018-09-14 清华-伯克利深圳学院筹备办公室 基于深度相机的三维重建方法、装置、设备及存储介质
CN108537876B (zh) * 2018-03-05 2020-10-16 清华-伯克利深圳学院筹备办公室 三维重建方法、装置、设备及存储介质
CN111696145B (zh) * 2019-03-11 2023-11-03 北京地平线机器人技术研发有限公司 深度信息确定方法、深度信息确定装置及电子设备
CN111696145A (zh) * 2019-03-11 2020-09-22 北京地平线机器人技术研发有限公司 深度信息确定方法、深度信息确定装置及电子设备
CN110097582A (zh) * 2019-05-16 2019-08-06 广西师范大学 一种点云优化配准与实时显示系统及工作方法
CN110097582B (zh) * 2019-05-16 2023-03-31 广西师范大学 一种点云优化配准与实时显示系统及工作方法
CN110490908B (zh) * 2019-08-26 2021-09-21 北京华捷艾米科技有限公司 一种动态场景下小物体的位姿追踪方法及装置
CN110490908A (zh) * 2019-08-26 2019-11-22 北京华捷艾米科技有限公司 一种动态场景下小物体的位姿追踪方法及装置
CN113052761A (zh) * 2019-12-26 2021-06-29 炬星科技(深圳)有限公司 激光点云地图融合方法、设备以及计算机可读存储介质
CN113052761B (zh) * 2019-12-26 2024-01-30 炬星科技(深圳)有限公司 激光点云地图融合方法、设备以及计算机可读存储介质
CN112732496A (zh) * 2020-12-05 2021-04-30 西安翔腾微电子科技有限公司 一种gpu深度测试精度的评估方法
CN112732496B (zh) * 2020-12-05 2024-04-12 西安翔腾微电子科技有限公司 一种gpu深度测试精度的评估方法
CN116306811B (zh) * 2023-02-28 2023-10-27 苏州亿铸智能科技有限公司 一种针对ReRAM部署神经网络的权重分配方法
CN116306811A (zh) * 2023-02-28 2023-06-23 苏州亿铸智能科技有限公司 一种针对ReRAM部署神经网络的权重分配方法

Also Published As

Publication number Publication date
CN106504320B (zh) 2019-12-17

Similar Documents

Publication Publication Date Title
CN106504320A (zh) 一种基于gpu及面向深度图像的实时三维重构方法
CN103021017B (zh) 基于gpu加速的三维场景重建方法
Kolluri et al. Spectral surface reconstruction from noisy point clouds
CN104616345B (zh) 一种基于八叉树森林压缩的三维体素存取方法
CN105513131B (zh) 一种顾及褶皱的三维地质结构模型角点网格剖分方法
Hansen et al. Massively parallel isosurface extraction
CN111696210A (zh) 一种基于三维点云数据特征轻量化的点云重构方法及系统
CN106683167A (zh) 复杂建筑物高精度模型自动建模方法
CN104504760B (zh) 实时更新三维图像的方法和系统
CN110032771B (zh) 一种顾及局部细节特征的露天煤矿dem精确裁剪方法
CN108665530B (zh) 基于单张图片的三维建模实现方法
CN111028335B (zh) 一种基于深度学习的点云数据的分块面片重建方法
CN108961410A (zh) 一种基于图像的三维线框建模方法及装置
CN107590858A (zh) 基于ar技术的医学样品展示方法和计算机设备、存储介质
CN105279788B (zh) 一种生成物体空间扫掠体的方法
JP7177020B2 (ja) 画像処理装置、方法及びプログラム
CN107895398B (zh) 结合视觉显著性的浮雕编辑方法
CN108346177B (zh) 一种基于Unity3D的虚拟陶瓷设计方法
CN107221027A (zh) 一种将用户自定义内容嵌入倾斜摄影三维模型的方法
CN115222894A (zh) 一种基于laplace优化的图像拓扑变形方法
Bolitho The reconstruction of large three-dimensional meshes
Coeurjolly et al. Digital surface regularization with guarantees
Aldrich et al. Collision-Driven Volumetric Deformation on the GPU.
Kil et al. 3D warp brush modeling
Shakaev et al. View-Dependent Level of Detail for Real-Time Rendering of Large Isosurfaces

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20231027

Address after: Building 401, Building 3, Fuhai Industrial Zone, Qiaotou Community, Fuhai Street, Bao'an District, Shenzhen City, Guangdong Province, 518100

Patentee after: Shenzhen Wushi Innovation Technology Co.,Ltd.

Address before: 200062 No. 3663, Putuo District, Shanghai, Zhongshan North Road

Patentee before: EAST CHINA NORMAL University