CN111462299B - 基于深度学习的非视域飞秒成像三维重建方法及装置 - Google Patents
基于深度学习的非视域飞秒成像三维重建方法及装置 Download PDFInfo
- Publication number
- CN111462299B CN111462299B CN202010136035.3A CN202010136035A CN111462299B CN 111462299 B CN111462299 B CN 111462299B CN 202010136035 A CN202010136035 A CN 202010136035A CN 111462299 B CN111462299 B CN 111462299B
- Authority
- CN
- China
- Prior art keywords
- view
- scene
- field
- neural network
- rendering
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 37
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000013135 deep learning Methods 0.000 title claims abstract description 25
- 238000009877 rendering Methods 0.000 claims abstract description 50
- 230000000007 visual effect Effects 0.000 claims abstract description 49
- 238000013528 artificial neural network Methods 0.000 claims abstract description 34
- 238000005286 illumination Methods 0.000 claims abstract description 13
- 238000012549 training Methods 0.000 claims description 11
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 230000003287 optical effect Effects 0.000 abstract description 9
- 230000006870 function Effects 0.000 abstract description 8
- 238000012546 transfer Methods 0.000 abstract description 5
- 230000001052 transient effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000005284 excitation Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/506—Illumination models
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Geometry (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种基于深度学习的非视域飞秒成像三维重建方法及装置,其中,方法包括以下步骤:建立视域场景的三维模型,利用空间坐标系确定每个离散面片的位置和方向,并且进行视域下高速渲染;对光照场景进行非视域光追渲染;基于数据学习的神经网络架构,以从非视域场到视域场的三维重建扫描。该方法通过神经网络学习视域场和非视域场之间的传递函数,可以在没有过多硬件约束的条件下,将非视域场中采集到的条纹信息重建成为视域信息,从而使用数据而非光学模型对视域场进行重建,有效提高重建的适用性和实用性,简单易实现。
Description
技术领域
本发明涉及计算机算法和非视域重建技术领域,特别涉及一种基于深度学习的非视域飞秒成像三维重建方法及装置。
背景技术
拐角成像问题是非视域成像问题中的重要分支,其最终的目的是需要观测者观察漫反射面被激发以后所看到的散射条纹。通过观察散射条纹的形态以及到达相机的时间信息,反推再反射板后方物体的三维信息,并且进行三维重建。
2014年Ramesh Raskar提出了基于反向投影的拐角成像方案,改方法的适应性和速度都有待加强。在2018年和2019年,Gordon Wetzstein提出了基于共聚焦的光锥反解算法还有频率-波数迁移算法,极大的加速了反解速度。2019年Andreas Velten提出了使用相位场进行重建,把采集到的瞬态图像转换成为相位信息,并进行重建。但现阶段的算法大都基于确定的光学传播模型,实验侧重于让点扩散函数的拥有高度的一致性,从而帮助算法进行简化。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的一个目的在于提出一种基于深度学习的非视域飞秒成像三维重建方法,该方法使用数据而非光学模型对视域场进行重建,有效提高重建的适用性和实用性,简单易实现。
本发明的另一个目的在于提出一种基于深度学习的非视域飞秒成像三维重建装置。
为达到上述目的,本发明一方面实施例提出了一种基于深度学习的非视域飞秒成像三维重建方法,包括以下步骤:建立视域场景的三维模型,利用空间坐标系确定每个离散面片的位置和方向,并且进行视域下高速渲染;对光照场景进行非视域光追渲染;基于数据学习的神经网络架构,以从非视域场到视域场的三维重建扫描。
本发明实施例的基于深度学习的非视域飞秒成像三维重建方法,通过神经网络学习视域场和非视域场之间的传递函数,可以在没有过多硬件约束的条件下,将非视域场中采集到的条纹信息重建成为视域信息,从而使用数据而非光学模型对视域场进行重建,有效提高重建的适用性和实用性,简单易实现。
另外,根据本发明上述实施例的基于深度学习的非视域飞秒成像三维重建方法还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述进行视域下高速渲染,包括:通过调整各个面片的反射系数进行视域下光照条件渲染。
进一步地,在本发明的一个实施例中,在视域下光照条件渲染之后,还包括:通过渲染后所得到的视域场反射信息进行非视域渲染转换,以将视域光场转换成为非视域光场。
进一步地,在本发明的一个实施例中,所述基于数据学习的神经网络架构,以从非视域场到视域场的三维重建扫描,包括:将所述非视域光场和视域场进行匹配重建,以将生成的数据进行训练,达到快速重建非视域场景。
为达到上述目的,本发明另一方面实施例提出了一种基于深度学习的非视域飞秒成像三维重建装置,包括:视域光线追踪渲染模块,用于建立视域场景的三维模型,利用空间坐标系确定每个离散面片的位置和方向,并且进行视域下高速渲染;非视域重建相机模型模块,用于对光照场景进行非视域光追渲染;神经网络重建模块,用于基于数据学习的神经网络架构,以从非视域场到视域场的三维重建扫描。
本发明实施例的基于深度学习的非视域飞秒成像三维重建装置,通过神经网络学习视域场和非视域场之间的传递函数,可以在没有过多硬件约束的条件下,将非视域场中采集到的条纹信息重建成为视域信息,从而使用数据而非光学模型对视域场进行重建,有效提高重建的适用性和实用性,简单易实现。
另外,根据本发明上述实施例的基于深度学习的非视域飞秒成像三维重建装置还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述视域光线追踪渲染模块进一步用于通过调整各个面片的反射系数进行视域下光照条件渲染。
进一步地,在本发明的一个实施例中,所述非视域重建相机模型模块进一步用于在视域下光照条件渲染之后,通过渲染后所得到的视域场反射信息进行非视域渲染转换,以将视域光场转换成为非视域光场。
进一步地,在本发明的一个实施例中,所述神经网络重建模块进一步用于将所述非视域光场和视域场进行匹配重建,以将生成的数据进行训练,达到快速重建非视域场景。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明实施例的基于深度学习的非视域飞秒成像三维重建方法的流程图;
图2为根据本发明实施例的数据生成转换流程图;
图3为根据本发明实施例的非视域数据重建流程图;
图4为根据本发明实施例的基于深度学习的非视域飞秒成像三维重建装置的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
本申请是基于发明人对以下问题的认识和发现做出的:
非视域重建算法是在非视域场景恢复重建中必不可少的部分,在激光照射到漫反射板上之后光线会散射到非视域场景的物体上,这些被漫反射的光所照明的物体便组成了视域场。视域场中的物体如果收到漫反射光的照射,也会通过镜面反射或者漫反射发出反射光并且第二次照射到漫反射板上面,形成散射条纹。这种散射条纹的形成是由视域场中的物体空间分布不均匀造成的。这些从物体上反射回漫反射板的散射条纹被瞬态成像设备捕捉在连续的时间上进行捕捉,这种被捕捉的连续的散射条纹,称之为漫反射场或者非视域场。非视域重建便是通过某种算法将非视域场中捕捉到的散射条纹,恢复出漫反射场中的场景。本发明实施例使用数据而非光学模型对视域场进行重建。
下面参照附图描述根据本发明实施例提出的基于深度学习的非视域飞秒成像三维重建方法及装置,首先将参照附图描述根据本发明实施例提出的基于深度学习的非视域飞秒成像三维重建方法。
图1是本发明一个实施例的基于深度学习的非视域飞秒成像三维重建方法的流程图。
如图1所示,该基于深度学习的非视域飞秒成像三维重建方法包括以下步骤:
在步骤S101中,建立视域场景的三维模型,利用空间坐标系确定每个离散面片的位置和方向,并且进行视域下高速渲染。
在本发明的一个实施例中,进行视域下高速渲染,包括:通过调整各个面片的反射系数进行视域下光照条件渲染。
在步骤S102中,对光照场景进行非视域光追渲染。
可以理解的是,本发明实施例通过非视域成像相机模型对光照场景进行非视域光追渲染。
进一步地,在本发明的一个实施例中,在视域下光照条件渲染之后,还包括:通过渲染后所得到的视域场反射信息进行非视域渲染转换,以将视域光场转换成为非视域光场。
具体而言,本发明实施例使用光线追踪对视域场进行渲染和数据生成,首先,确定场景并且生成与之对应的物体,每一个物体是由一些列离散面片所组成。统一坐标系中对每一物体进行旋转和平移,并且移动到所定义的角度和位置。在所有物体被移动好的时候,便完成了对于非视域场的定义。然后,定义相机模型,定义起始光线位置,并且定义每一个表面的反光系数。在所有的参数被确定下来以后,对非视域场进行渲染。本发明实施例模拟光纤从起始点以漫反射的形式发出,并且计算所有面片受到激光激发的时间以及强度,在每一个视域场中的面片收到激发的时候,它会反射出漫反射光。这种反射光会在漫反射板中显示特定的反射条纹,一般定义此条纹为非视域场的点扩散函数。在收到漫反射条纹后,按照既定的瞬态相机模型进行渲染,从而得到相机模型中的非视域场。
在步骤S103中,基于数据学习的神经网络架构,以从非视域场到视域场的三维重建扫描。
在本发明的一个实施例中,基于数据学习的神经网络架构,以从非视域场到视域场的三维重建扫描,包括:将非视域光场和视域场进行匹配重建,以将生成的数据进行训练,达到快速重建非视域场景。
可以理解的是,生成大量视域-非视域数据对,用数据对于神经网络进行训练,生成预训练模型。用对影响及模型拍摄的数据放入预训练模型进行生成。其中,如图2所示,非视域场景数据是由相机模型对于视域场景进行渲染生成,视域场景数据可以通过神经网络进行反解并且生成体素。
具体而言,本发明实施例生成大量的视域-非视域场景数据对,并且建立三位卷积神经网络进行训练,这种训练属于有监督训练,其输入为非视域场拍到的条纹影像,输出为视域场中的场景体素。在使用对应的瞬态成像器材对非视域场进行成像后,使用预训练模型得到视域场中的对应场景体素。
进一步地,如图3所示,通过预训练好的神经网络,可以通过输入采集到的非视域数据对于视域场数据进行三维重建。
综上,针对非视域领域的三维重建,本发明实施例的目标是将非视域场的体素响应转换为视域场的体素点。非视域成像目前大多利用固定的体素模型进行重建计算,这种方法在成像模型参数确定情况下可以达到理想的效果,但如果成像场景的模型和建模参数的差距较大的时候,重建效果会变得不理想。对此,本发明实施例基于数据的而非模型重建算法。首先通过计算机生成视域下的场景模型,再通过建立的非视域相机模型,模拟此视域体下非视域场的相机相应。此步骤可以生成大量训练数据,这些数据的非视域场和视域场是相对应的。这些训练数据将被一个特殊的基于三维卷机身的神经网络进行计算重建,这个重建步骤的输入为非视域场的相机响应,输出为视域场的重建体素模型。
根据本发明实施例提出的基于深度学习的非视域飞秒成像三维重建方法,通过神经网络学习视域场和非视域场之间的传递函数,可以在没有过多硬件约束的条件下,将非视域场中采集到的条纹信息重建成为视域信息,从而使用数据而非光学模型对视域场进行重建,有效提高重建的适用性和实用性,简单易实现。
其次参照附图描述根据本发明实施例提出的基于深度学习的非视域飞秒成像三维重建装置。
图4是本发明一个实施例的基于深度学习的非视域飞秒成像三维重建装置的结构示意图。
如图4所示,该基于深度学习的非视域飞秒成像三维重建装置10包括:视域光线追踪渲染模块100、非视域重建相机模型模块200和神经网络重建模块300。
其中,视域光线追踪渲染模块100用于建立视域场景的三维模型,利用空间坐标系确定每个离散面片的位置和方向,并且进行视域下高速渲染;非视域重建相机模型模块200用于对光照场景进行非视域光追渲染;神经网络重建模块300用于基于数据学习的神经网络架构,以从非视域场到视域场的三维重建扫描。本发明实施例的装置10使用数据而非光学模型对视域场进行重建,有效提高重建的适用性和实用性,简单易实现。
进一步地,在本发明的一个实施例中,视域光线追踪渲染模块100进一步用于通过调整各个面片的反射系数进行视域下光照条件渲染。
进一步地,在本发明的一个实施例中,非视域重建相机模型模块200进一步用于在视域下光照条件渲染之后,通过渲染后所得到的视域场反射信息进行非视域渲染转换,以将视域光场转换成为非视域光场。
进一步地,在本发明的一个实施例中,神经网络重建模块300进一步用于将非视域光场和视域场进行匹配重建,以将生成的数据进行训练,达到快速重建非视域场景。
需要说明的是,前述对基于深度学习的非视域飞秒成像三维重建方法实施例的解释说明也适用于该实施例的基于深度学习的非视域飞秒成像三维重建装置,此处不再赘述。
根据本发明实施例提出的基于深度学习的非视域飞秒成像三维重建装置,通过神经网络学习视域场和非视域场之间的传递函数,可以在没有过多硬件约束的条件下,将非视域场中采集到的条纹信息重建成为视域信息,从而使用数据而非光学模型对视域场进行重建,有效提高重建的适用性和实用性,简单易实现。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特征水平高度小于第二特征。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (6)
1.一种基于深度学习的非视域飞秒成像三维重建方法,其特征在于,包括以下步骤:
建立视域场景的三维模型,利用空间坐标系确定所述三维模型的每个离散面片的位置和方向,并且进行视域场景下高速渲染;
对光照场景进行非视域场景光线追踪渲染;以及
基于数据学习的神经网络架构,以从非视域场景到视域场景的三维重建扫描;
其中,所述基于数据学习的神经网络架构,包括:
利用生成的多个视域-非视域数据对,对神经网络进行训练,生成预训练模型,其中,所述神经网络的输入为非视域场景数据,所述神经网络的输出为视域场景数据,所述非视域场景数据是非视域场景拍到的条纹影像,所述视域场景数据是通过所述神经网络进行反解并生成对应的场景体素。
2.根据权利要求1所述的方法,其特征在于,所述进行视域场景下高速渲染,包括:
通过调整每个离散面片的反射系数进行视域场景下光照条件渲染。
3.根据权利要求2所述的方法,其特征在于,在视域场景下光照条件渲染之后,还包括:
通过渲染后所得到的视域场景反射信息进行非视域场景渲染转换,以将视域光场转换成为非视域光场。
4.一种基于深度学习的非视域飞秒成像三维重建装置,其特征在于,包括:
视域光线追踪渲染模块,用于建立视域场景的三维模型,利用空间坐标系确定所述三维模型的每个离散面片的位置和方向,并且进行视域场景下高速渲染;
非视域重建相机模型模块,用于对光照场景进行非视域场景光线追踪渲染;以及
神经网络重建模块,用于基于数据学习的神经网络架构,以从非视域场景到视域场景的三维重建扫描;
所述神经网络重建模块,还用于利用生成的多个视域-非视域数据对,对神经网络进行训练,生成预训练模型,其中,所述神经网络的输入为非视域场景数据,所述神经网络的输出为视域场景数据,所述非视域场景数据是非视域场景拍到的条纹影像,所述视域场景数据是通过所述神经网络进行反解并生成对应的场景体素。
5.根据权利要求4所述的装置,其特征在于,所述视域光线追踪渲染模块进一步用于通过调整每个离散面片的反射系数进行视域场景下光照条件渲染。
6.根据权利要求5所述的装置,其特征在于,所述非视域重建相机模型模块进一步用于在视域下光照条件渲染之后,通过渲染后所得到的视域场景反射信息进行非视域场景渲染转换,以将视域光场转换成为非视域光场。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010136035.3A CN111462299B (zh) | 2020-03-02 | 2020-03-02 | 基于深度学习的非视域飞秒成像三维重建方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010136035.3A CN111462299B (zh) | 2020-03-02 | 2020-03-02 | 基于深度学习的非视域飞秒成像三维重建方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111462299A CN111462299A (zh) | 2020-07-28 |
CN111462299B true CN111462299B (zh) | 2022-07-19 |
Family
ID=71682468
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010136035.3A Expired - Fee Related CN111462299B (zh) | 2020-03-02 | 2020-03-02 | 基于深度学习的非视域飞秒成像三维重建方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111462299B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112802142B (zh) * | 2020-12-31 | 2023-10-31 | 之江实验室 | 一种非视域成像方法及系统 |
CN113204010B (zh) * | 2021-03-15 | 2021-11-02 | 锋睿领创(珠海)科技有限公司 | 非视域目标检测方法、装置和存储介质 |
CN113344774A (zh) * | 2021-06-16 | 2021-09-03 | 东南大学 | 一种基于深度卷积逆向图网络的非视域成像方法 |
US20240202948A1 (en) * | 2021-07-05 | 2024-06-20 | Shanghaitech University | Non-line-of-sight imaging via neural transient field |
CN113820727B (zh) * | 2021-09-30 | 2024-02-02 | 中国科学院光电技术研究所 | 一种非视域目标探测中基于神经网络的快速定位方法 |
CN114494480B (zh) * | 2021-12-08 | 2024-09-06 | 山东大学 | 基于未训练深度解码神经网络的非视域成像方法 |
CN117274353B (zh) * | 2023-11-20 | 2024-02-20 | 光轮智能(北京)科技有限公司 | 合成图像数据生成方法、控制装置及可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106846463A (zh) * | 2017-01-13 | 2017-06-13 | 清华大学 | 基于深度学习神经网络的显微图像三维重建方法及系统 |
CN110443882A (zh) * | 2019-07-05 | 2019-11-12 | 清华大学 | 基于深度学习算法的光场显微三维重建方法及装置 |
CN110633628A (zh) * | 2019-08-02 | 2019-12-31 | 杭州电子科技大学 | 基于人工神经网络的rgb图像场景三维模型重建方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10893262B2 (en) * | 2017-02-07 | 2021-01-12 | Siemens Healthcare Gmbh | Lightfield rendering based on depths from physically-based volume rendering |
-
2020
- 2020-03-02 CN CN202010136035.3A patent/CN111462299B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106846463A (zh) * | 2017-01-13 | 2017-06-13 | 清华大学 | 基于深度学习神经网络的显微图像三维重建方法及系统 |
CN110443882A (zh) * | 2019-07-05 | 2019-11-12 | 清华大学 | 基于深度学习算法的光场显微三维重建方法及装置 |
CN110633628A (zh) * | 2019-08-02 | 2019-12-31 | 杭州电子科技大学 | 基于人工神经网络的rgb图像场景三维模型重建方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111462299A (zh) | 2020-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111462299B (zh) | 基于深度学习的非视域飞秒成像三维重建方法及装置 | |
EP3510564B1 (en) | Ray-tracing methods for realistic interactive ultrasound simulation | |
CN109785423B (zh) | 图像补光方法、装置及计算机设备 | |
JP4932951B2 (ja) | 顔画像処理方法およびシステム | |
JP4733318B2 (ja) | 顔の特徴をアニメーション化する方法およびシステムならびに表情変換のための方法およびシステム | |
AU2017248506A1 (en) | Implementation of an advanced image formation process as a network layer and its applications | |
Gilles et al. | Computer generated hologram from multiview-plus-depth data considering specular reflections | |
CN116057348A (zh) | 用于3d图像扫描的系统和方法 | |
GB2593441A (en) | Three-dimensional facial reconstruction | |
Suresh et al. | PMENet: phase map enhancement for Fourier transform profilometry using deep learning | |
D'Apuzzo | Automated photogrammetric measurement of human faces | |
CN118262034A (zh) | 从图像重建可动画化的三维人类头部模型的系统和方法 | |
US20170186216A1 (en) | Method and visualization apparatus for the volumetric visualization of a three-dimensional object | |
Siv et al. | 3D human face reconstruction using depth sensor of Kinect 2 | |
Kang et al. | View-dependent scene appearance synthesis using inverse rendering from light fields | |
EP4193905A1 (en) | Intraoral scanner, intraoral scanning system, method for performing intraoral scans and computer program product | |
US12086927B2 (en) | Appearance capture under multiple lighting conditions | |
CN115628701A (zh) | 一种基于虚拟图像渲染的自适应投影三维测量方法及系统 | |
Wakunami et al. | Calculation of computer-generated hologram for 3D display using light-ray sampling plane | |
CN109120918A (zh) | 基于机器人的投影效果自评系统和方法 | |
Yamaguchi et al. | Video-based modeling of dynamic hair | |
Hassanpour et al. | Delaunay triangulation based 3d human face modeling from uncalibrated images | |
US20230222710A1 (en) | Correction of artifacts of tomographic reconstructions by neuron networks | |
Keksel et al. | Scientific modeling of optical 3D measuring devices based on GPU-accelerated ray tracing using the NVIDIA OptiX Engine | |
Einabadi et al. | Learning Self-Shadowing for Clothed Human Bodies |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20220719 |