CN111462299B - 基于深度学习的非视域飞秒成像三维重建方法及装置 - Google Patents

基于深度学习的非视域飞秒成像三维重建方法及装置 Download PDF

Info

Publication number
CN111462299B
CN111462299B CN202010136035.3A CN202010136035A CN111462299B CN 111462299 B CN111462299 B CN 111462299B CN 202010136035 A CN202010136035 A CN 202010136035A CN 111462299 B CN111462299 B CN 111462299B
Authority
CN
China
Prior art keywords
view
scene
field
neural network
rendering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN202010136035.3A
Other languages
English (en)
Other versions
CN111462299A (zh
Inventor
戴琼海
张安科
裴承全
乔晖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN202010136035.3A priority Critical patent/CN111462299B/zh
Publication of CN111462299A publication Critical patent/CN111462299A/zh
Application granted granted Critical
Publication of CN111462299B publication Critical patent/CN111462299B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种基于深度学习的非视域飞秒成像三维重建方法及装置,其中,方法包括以下步骤:建立视域场景的三维模型,利用空间坐标系确定每个离散面片的位置和方向,并且进行视域下高速渲染;对光照场景进行非视域光追渲染;基于数据学习的神经网络架构,以从非视域场到视域场的三维重建扫描。该方法通过神经网络学习视域场和非视域场之间的传递函数,可以在没有过多硬件约束的条件下,将非视域场中采集到的条纹信息重建成为视域信息,从而使用数据而非光学模型对视域场进行重建,有效提高重建的适用性和实用性,简单易实现。

Description

基于深度学习的非视域飞秒成像三维重建方法及装置
技术领域
本发明涉及计算机算法和非视域重建技术领域,特别涉及一种基于深度学习的非视域飞秒成像三维重建方法及装置。
背景技术
拐角成像问题是非视域成像问题中的重要分支,其最终的目的是需要观测者观察漫反射面被激发以后所看到的散射条纹。通过观察散射条纹的形态以及到达相机的时间信息,反推再反射板后方物体的三维信息,并且进行三维重建。
2014年Ramesh Raskar提出了基于反向投影的拐角成像方案,改方法的适应性和速度都有待加强。在2018年和2019年,Gordon Wetzstein提出了基于共聚焦的光锥反解算法还有频率-波数迁移算法,极大的加速了反解速度。2019年Andreas Velten提出了使用相位场进行重建,把采集到的瞬态图像转换成为相位信息,并进行重建。但现阶段的算法大都基于确定的光学传播模型,实验侧重于让点扩散函数的拥有高度的一致性,从而帮助算法进行简化。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的一个目的在于提出一种基于深度学习的非视域飞秒成像三维重建方法,该方法使用数据而非光学模型对视域场进行重建,有效提高重建的适用性和实用性,简单易实现。
本发明的另一个目的在于提出一种基于深度学习的非视域飞秒成像三维重建装置。
为达到上述目的,本发明一方面实施例提出了一种基于深度学习的非视域飞秒成像三维重建方法,包括以下步骤:建立视域场景的三维模型,利用空间坐标系确定每个离散面片的位置和方向,并且进行视域下高速渲染;对光照场景进行非视域光追渲染;基于数据学习的神经网络架构,以从非视域场到视域场的三维重建扫描。
本发明实施例的基于深度学习的非视域飞秒成像三维重建方法,通过神经网络学习视域场和非视域场之间的传递函数,可以在没有过多硬件约束的条件下,将非视域场中采集到的条纹信息重建成为视域信息,从而使用数据而非光学模型对视域场进行重建,有效提高重建的适用性和实用性,简单易实现。
另外,根据本发明上述实施例的基于深度学习的非视域飞秒成像三维重建方法还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述进行视域下高速渲染,包括:通过调整各个面片的反射系数进行视域下光照条件渲染。
进一步地,在本发明的一个实施例中,在视域下光照条件渲染之后,还包括:通过渲染后所得到的视域场反射信息进行非视域渲染转换,以将视域光场转换成为非视域光场。
进一步地,在本发明的一个实施例中,所述基于数据学习的神经网络架构,以从非视域场到视域场的三维重建扫描,包括:将所述非视域光场和视域场进行匹配重建,以将生成的数据进行训练,达到快速重建非视域场景。
为达到上述目的,本发明另一方面实施例提出了一种基于深度学习的非视域飞秒成像三维重建装置,包括:视域光线追踪渲染模块,用于建立视域场景的三维模型,利用空间坐标系确定每个离散面片的位置和方向,并且进行视域下高速渲染;非视域重建相机模型模块,用于对光照场景进行非视域光追渲染;神经网络重建模块,用于基于数据学习的神经网络架构,以从非视域场到视域场的三维重建扫描。
本发明实施例的基于深度学习的非视域飞秒成像三维重建装置,通过神经网络学习视域场和非视域场之间的传递函数,可以在没有过多硬件约束的条件下,将非视域场中采集到的条纹信息重建成为视域信息,从而使用数据而非光学模型对视域场进行重建,有效提高重建的适用性和实用性,简单易实现。
另外,根据本发明上述实施例的基于深度学习的非视域飞秒成像三维重建装置还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述视域光线追踪渲染模块进一步用于通过调整各个面片的反射系数进行视域下光照条件渲染。
进一步地,在本发明的一个实施例中,所述非视域重建相机模型模块进一步用于在视域下光照条件渲染之后,通过渲染后所得到的视域场反射信息进行非视域渲染转换,以将视域光场转换成为非视域光场。
进一步地,在本发明的一个实施例中,所述神经网络重建模块进一步用于将所述非视域光场和视域场进行匹配重建,以将生成的数据进行训练,达到快速重建非视域场景。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明实施例的基于深度学习的非视域飞秒成像三维重建方法的流程图;
图2为根据本发明实施例的数据生成转换流程图;
图3为根据本发明实施例的非视域数据重建流程图;
图4为根据本发明实施例的基于深度学习的非视域飞秒成像三维重建装置的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
本申请是基于发明人对以下问题的认识和发现做出的:
非视域重建算法是在非视域场景恢复重建中必不可少的部分,在激光照射到漫反射板上之后光线会散射到非视域场景的物体上,这些被漫反射的光所照明的物体便组成了视域场。视域场中的物体如果收到漫反射光的照射,也会通过镜面反射或者漫反射发出反射光并且第二次照射到漫反射板上面,形成散射条纹。这种散射条纹的形成是由视域场中的物体空间分布不均匀造成的。这些从物体上反射回漫反射板的散射条纹被瞬态成像设备捕捉在连续的时间上进行捕捉,这种被捕捉的连续的散射条纹,称之为漫反射场或者非视域场。非视域重建便是通过某种算法将非视域场中捕捉到的散射条纹,恢复出漫反射场中的场景。本发明实施例使用数据而非光学模型对视域场进行重建。
下面参照附图描述根据本发明实施例提出的基于深度学习的非视域飞秒成像三维重建方法及装置,首先将参照附图描述根据本发明实施例提出的基于深度学习的非视域飞秒成像三维重建方法。
图1是本发明一个实施例的基于深度学习的非视域飞秒成像三维重建方法的流程图。
如图1所示,该基于深度学习的非视域飞秒成像三维重建方法包括以下步骤:
在步骤S101中,建立视域场景的三维模型,利用空间坐标系确定每个离散面片的位置和方向,并且进行视域下高速渲染。
在本发明的一个实施例中,进行视域下高速渲染,包括:通过调整各个面片的反射系数进行视域下光照条件渲染。
在步骤S102中,对光照场景进行非视域光追渲染。
可以理解的是,本发明实施例通过非视域成像相机模型对光照场景进行非视域光追渲染。
进一步地,在本发明的一个实施例中,在视域下光照条件渲染之后,还包括:通过渲染后所得到的视域场反射信息进行非视域渲染转换,以将视域光场转换成为非视域光场。
具体而言,本发明实施例使用光线追踪对视域场进行渲染和数据生成,首先,确定场景并且生成与之对应的物体,每一个物体是由一些列离散面片所组成。统一坐标系中对每一物体进行旋转和平移,并且移动到所定义的角度和位置。在所有物体被移动好的时候,便完成了对于非视域场的定义。然后,定义相机模型,定义起始光线位置,并且定义每一个表面的反光系数。在所有的参数被确定下来以后,对非视域场进行渲染。本发明实施例模拟光纤从起始点以漫反射的形式发出,并且计算所有面片受到激光激发的时间以及强度,在每一个视域场中的面片收到激发的时候,它会反射出漫反射光。这种反射光会在漫反射板中显示特定的反射条纹,一般定义此条纹为非视域场的点扩散函数。在收到漫反射条纹后,按照既定的瞬态相机模型进行渲染,从而得到相机模型中的非视域场。
在步骤S103中,基于数据学习的神经网络架构,以从非视域场到视域场的三维重建扫描。
在本发明的一个实施例中,基于数据学习的神经网络架构,以从非视域场到视域场的三维重建扫描,包括:将非视域光场和视域场进行匹配重建,以将生成的数据进行训练,达到快速重建非视域场景。
可以理解的是,生成大量视域-非视域数据对,用数据对于神经网络进行训练,生成预训练模型。用对影响及模型拍摄的数据放入预训练模型进行生成。其中,如图2所示,非视域场景数据是由相机模型对于视域场景进行渲染生成,视域场景数据可以通过神经网络进行反解并且生成体素。
具体而言,本发明实施例生成大量的视域-非视域场景数据对,并且建立三位卷积神经网络进行训练,这种训练属于有监督训练,其输入为非视域场拍到的条纹影像,输出为视域场中的场景体素。在使用对应的瞬态成像器材对非视域场进行成像后,使用预训练模型得到视域场中的对应场景体素。
进一步地,如图3所示,通过预训练好的神经网络,可以通过输入采集到的非视域数据对于视域场数据进行三维重建。
综上,针对非视域领域的三维重建,本发明实施例的目标是将非视域场的体素响应转换为视域场的体素点。非视域成像目前大多利用固定的体素模型进行重建计算,这种方法在成像模型参数确定情况下可以达到理想的效果,但如果成像场景的模型和建模参数的差距较大的时候,重建效果会变得不理想。对此,本发明实施例基于数据的而非模型重建算法。首先通过计算机生成视域下的场景模型,再通过建立的非视域相机模型,模拟此视域体下非视域场的相机相应。此步骤可以生成大量训练数据,这些数据的非视域场和视域场是相对应的。这些训练数据将被一个特殊的基于三维卷机身的神经网络进行计算重建,这个重建步骤的输入为非视域场的相机响应,输出为视域场的重建体素模型。
根据本发明实施例提出的基于深度学习的非视域飞秒成像三维重建方法,通过神经网络学习视域场和非视域场之间的传递函数,可以在没有过多硬件约束的条件下,将非视域场中采集到的条纹信息重建成为视域信息,从而使用数据而非光学模型对视域场进行重建,有效提高重建的适用性和实用性,简单易实现。
其次参照附图描述根据本发明实施例提出的基于深度学习的非视域飞秒成像三维重建装置。
图4是本发明一个实施例的基于深度学习的非视域飞秒成像三维重建装置的结构示意图。
如图4所示,该基于深度学习的非视域飞秒成像三维重建装置10包括:视域光线追踪渲染模块100、非视域重建相机模型模块200和神经网络重建模块300。
其中,视域光线追踪渲染模块100用于建立视域场景的三维模型,利用空间坐标系确定每个离散面片的位置和方向,并且进行视域下高速渲染;非视域重建相机模型模块200用于对光照场景进行非视域光追渲染;神经网络重建模块300用于基于数据学习的神经网络架构,以从非视域场到视域场的三维重建扫描。本发明实施例的装置10使用数据而非光学模型对视域场进行重建,有效提高重建的适用性和实用性,简单易实现。
进一步地,在本发明的一个实施例中,视域光线追踪渲染模块100进一步用于通过调整各个面片的反射系数进行视域下光照条件渲染。
进一步地,在本发明的一个实施例中,非视域重建相机模型模块200进一步用于在视域下光照条件渲染之后,通过渲染后所得到的视域场反射信息进行非视域渲染转换,以将视域光场转换成为非视域光场。
进一步地,在本发明的一个实施例中,神经网络重建模块300进一步用于将非视域光场和视域场进行匹配重建,以将生成的数据进行训练,达到快速重建非视域场景。
需要说明的是,前述对基于深度学习的非视域飞秒成像三维重建方法实施例的解释说明也适用于该实施例的基于深度学习的非视域飞秒成像三维重建装置,此处不再赘述。
根据本发明实施例提出的基于深度学习的非视域飞秒成像三维重建装置,通过神经网络学习视域场和非视域场之间的传递函数,可以在没有过多硬件约束的条件下,将非视域场中采集到的条纹信息重建成为视域信息,从而使用数据而非光学模型对视域场进行重建,有效提高重建的适用性和实用性,简单易实现。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特征水平高度小于第二特征。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (6)

1.一种基于深度学习的非视域飞秒成像三维重建方法,其特征在于,包括以下步骤:
建立视域场景的三维模型,利用空间坐标系确定所述三维模型的每个离散面片的位置和方向,并且进行视域场景下高速渲染;
对光照场景进行非视域场景光线追踪渲染;以及
基于数据学习的神经网络架构,以从非视域场景到视域场景的三维重建扫描;
其中,所述基于数据学习的神经网络架构,包括:
利用生成的多个视域-非视域数据对,对神经网络进行训练,生成预训练模型,其中,所述神经网络的输入为非视域场景数据,所述神经网络的输出为视域场景数据,所述非视域场景数据是非视域场景拍到的条纹影像,所述视域场景数据是通过所述神经网络进行反解并生成对应的场景体素。
2.根据权利要求1所述的方法,其特征在于,所述进行视域场景下高速渲染,包括:
通过调整每个离散面片的反射系数进行视域场景下光照条件渲染。
3.根据权利要求2所述的方法,其特征在于,在视域场景下光照条件渲染之后,还包括:
通过渲染后所得到的视域场景反射信息进行非视域场景渲染转换,以将视域光场转换成为非视域光场。
4.一种基于深度学习的非视域飞秒成像三维重建装置,其特征在于,包括:
视域光线追踪渲染模块,用于建立视域场景的三维模型,利用空间坐标系确定所述三维模型的每个离散面片的位置和方向,并且进行视域场景下高速渲染;
非视域重建相机模型模块,用于对光照场景进行非视域场景光线追踪渲染;以及
神经网络重建模块,用于基于数据学习的神经网络架构,以从非视域场景到视域场景的三维重建扫描;
所述神经网络重建模块,还用于利用生成的多个视域-非视域数据对,对神经网络进行训练,生成预训练模型,其中,所述神经网络的输入为非视域场景数据,所述神经网络的输出为视域场景数据,所述非视域场景数据是非视域场景拍到的条纹影像,所述视域场景数据是通过所述神经网络进行反解并生成对应的场景体素。
5.根据权利要求4所述的装置,其特征在于,所述视域光线追踪渲染模块进一步用于通过调整每个离散面片的反射系数进行视域场景下光照条件渲染。
6.根据权利要求5所述的装置,其特征在于,所述非视域重建相机模型模块进一步用于在视域下光照条件渲染之后,通过渲染后所得到的视域场景反射信息进行非视域场景渲染转换,以将视域光场转换成为非视域光场。
CN202010136035.3A 2020-03-02 2020-03-02 基于深度学习的非视域飞秒成像三维重建方法及装置 Expired - Fee Related CN111462299B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010136035.3A CN111462299B (zh) 2020-03-02 2020-03-02 基于深度学习的非视域飞秒成像三维重建方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010136035.3A CN111462299B (zh) 2020-03-02 2020-03-02 基于深度学习的非视域飞秒成像三维重建方法及装置

Publications (2)

Publication Number Publication Date
CN111462299A CN111462299A (zh) 2020-07-28
CN111462299B true CN111462299B (zh) 2022-07-19

Family

ID=71682468

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010136035.3A Expired - Fee Related CN111462299B (zh) 2020-03-02 2020-03-02 基于深度学习的非视域飞秒成像三维重建方法及装置

Country Status (1)

Country Link
CN (1) CN111462299B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112802142B (zh) * 2020-12-31 2023-10-31 之江实验室 一种非视域成像方法及系统
CN113204010B (zh) * 2021-03-15 2021-11-02 锋睿领创(珠海)科技有限公司 非视域目标检测方法、装置和存储介质
CN117597704A (zh) * 2021-07-05 2024-02-23 上海科技大学 通过神经瞬态场进行非视距成像
CN113820727B (zh) * 2021-09-30 2024-02-02 中国科学院光电技术研究所 一种非视域目标探测中基于神经网络的快速定位方法
CN117274353B (zh) * 2023-11-20 2024-02-20 光轮智能(北京)科技有限公司 合成图像数据生成方法、控制装置及可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106846463A (zh) * 2017-01-13 2017-06-13 清华大学 基于深度学习神经网络的显微图像三维重建方法及系统
CN110443882A (zh) * 2019-07-05 2019-11-12 清华大学 基于深度学习算法的光场显微三维重建方法及装置
CN110633628A (zh) * 2019-08-02 2019-12-31 杭州电子科技大学 基于人工神经网络的rgb图像场景三维模型重建方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10893262B2 (en) * 2017-02-07 2021-01-12 Siemens Healthcare Gmbh Lightfield rendering based on depths from physically-based volume rendering

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106846463A (zh) * 2017-01-13 2017-06-13 清华大学 基于深度学习神经网络的显微图像三维重建方法及系统
CN110443882A (zh) * 2019-07-05 2019-11-12 清华大学 基于深度学习算法的光场显微三维重建方法及装置
CN110633628A (zh) * 2019-08-02 2019-12-31 杭州电子科技大学 基于人工神经网络的rgb图像场景三维模型重建方法

Also Published As

Publication number Publication date
CN111462299A (zh) 2020-07-28

Similar Documents

Publication Publication Date Title
CN111462299B (zh) 基于深度学习的非视域飞秒成像三维重建方法及装置
EP3510564B1 (en) Ray-tracing methods for realistic interactive ultrasound simulation
Bonfort et al. Voxel carving for specular surfaces
CN109785423B (zh) 图像补光方法、装置及计算机设备
JP4733318B2 (ja) 顔の特徴をアニメーション化する方法およびシステムならびに表情変換のための方法およびシステム
AU2017248506A1 (en) Implementation of an advanced image formation process as a network layer and its applications
Alexander et al. Creating a photoreal digital actor: The digital emily project
Gilles et al. Computer generated hologram from multiview-plus-depth data considering specular reflections
JP2011170891A (ja) 顔画像処理方法およびシステム
KR102054680B1 (ko) 영상 처리 장치, 초음파 영상 장치 및 영상 처리 방법
Bellocchio et al. 3D surface reconstruction: multi-scale hierarchical approaches
GB2593441A (en) Three-dimensional facial reconstruction
CN116057348A (zh) 用于3d图像扫描的系统和方法
Suresh et al. PMENet: phase map enhancement for Fourier transform profilometry using deep learning
D'Apuzzo Automated photogrammetric measurement of human faces
Kang et al. View-dependent scene appearance synthesis using inverse rendering from light fields
Buck et al. Ignorance is bliss: flawed assumptions in simulated ground truth
EP4193905A1 (en) Intraoral scanner, intraoral scanning system, method for performing intraoral scans and computer program product
US9905042B2 (en) Method and visualization apparatus for the volumetric visualization of a three-dimensional object
US20230124117A1 (en) Appearance capture under multiple lighting conditions
Wakunami et al. Calculation of computer-generated hologram for 3D display using light-ray sampling plane
CN109120918A (zh) 基于机器人的投影效果自评系统和方法
Yamaguchi et al. Video-based modeling of dynamic hair
Hassanpour et al. Delaunay triangulation based 3d human face modeling from uncalibrated images
US20230222710A1 (en) Correction of artifacts of tomographic reconstructions by neuron networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20220719