CN115053234A - 深度光度学习(dpl)系统、装置和方法 - Google Patents

深度光度学习(dpl)系统、装置和方法 Download PDF

Info

Publication number
CN115053234A
CN115053234A CN202180012365.4A CN202180012365A CN115053234A CN 115053234 A CN115053234 A CN 115053234A CN 202180012365 A CN202180012365 A CN 202180012365A CN 115053234 A CN115053234 A CN 115053234A
Authority
CN
China
Prior art keywords
computing system
deep learning
learning model
training data
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180012365.4A
Other languages
English (en)
Inventor
马修·C·普特曼
瓦迪姆·潘斯基
塔纳蓬·纳·纳荣
丹尼斯·Y·沙鲁霍夫
托尼斯拉夫·伊万诺夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nano Electronic Imaging Co ltd
Original Assignee
Nano Electronic Imaging Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nano Electronic Imaging Co ltd filed Critical Nano Electronic Imaging Co ltd
Publication of CN115053234A publication Critical patent/CN115053234A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/586Depth or shape recovery from multiple images from multiple light sources, e.g. photometric stereo
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • G02B21/367Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Optics & Photonics (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Microscoopes, Condenser (AREA)

Abstract

本文公开了一种成像系统。成像系统包括成像装置和计算系统。成像装置包括相对于被配置为支撑样本的台定位在多个位置和多个角度处的多个光源。成像装置被配置为捕获样本的表面的多个图像。计算系统与成像装置通信。计算系统被配置为通过以下方式生成样本的表面的3D重建:从成像装置接收样本的表面的多个图像,通过成像装置经由深度学习模型生成基于多个图像的样本的表面的高度图,以及基于由深度学习模型生成的高度图输出样本的表面的3D重建。

Description

深度光度学习(DPL)系统、装置和方法
相关申请的交叉引用
本申请要求于2020年2月3日提交的美国临时申请序列 No.62/969,574的优先权,该美国临时申请的全部内容通过引用并入本文。
技术领域
本公开总体上涉及成像系统,更具体地,涉及生成由成像系统捕获的样本表面的3D重建。
背景技术
光度立体技术可用于计算机视觉,以基于光的朗伯反射来估计深度和表面取向。可以根据使用具有不同照明方向的固定视角拍摄的输入图像,来计算物体的表面法线和反射率图。
发明内容
在一些实施例中,本文公开了一种成像系统。成像系统包括成像装置和计算系统。成像装置包括相对于被配置为支撑样本的台定位在多个位置和多个角度处的多个光源。成像装置被配置为捕获样本的表面的多个图像。计算系统可以与成像装置通信。计算系统可以被配置为通过以下方式生成样本的表面的3D重建:通过从成像装置接收样本的表面的多个图像,通过成像装置经由深度学习模型生成基于多个图像的样本的表面的高度图,以及基于由深度学习模型生成的高度图输出样本的表面的3D重建。
在一些实施例中,本文公开了一种生成样本的表面的3D重建的方法。计算系统从成像装置接收位于成像装置的台上的样本的表面的多个图像。计算系统经由深度学习模型生成基于多个图像的样本的表面的高度图。计算系统基于由深度学习模型生成的高度图输出样本的表面的3D重建。
在一些实施例中,本文公开了一种非暂时性计算机可读介质。非暂时性计算机可读介质包括一个或更多个指令序列,当由一个或更多个处理器执行时,该一个或更多个指令序列使得计算系统执行操作。操作包括:通过计算系统,从成像装置接收位于成像装置的台上的样本的表面的多个图像。操作还包括:通过计算系统经由深度学习模型,生成基于多个图像的样本的表面的高度图。操作还包括:通过计算系统,基于由深度学习模型生成的高度图输出样本的表面的3D重建。
附图说明
为了能够详细理解本公开的上述列举的特征的方式,可以通过参考实施例来获得对上述简要概括的本公开的更具体的描述,其中一些实施例在附图中示出。然而,要注意的是,附图仅示出了本公开的典型实施例,因此不应被视为对本公开的范围的限制,因为本公开可以允许其他等效实施例。
图1是示出根据示例实施例的成像系统的框图。
图2示出了根据示例实施例的来自图1的成像系统的深度学习模块的示例性架构。
图3是示出根据示例实施例的训练深度学习模块的方法的流程图。
图4A是示出根据示例实施例的生成样本的3D重建的方法的流程图。
图4B是示出根据示例实施例的生成微观表面的3D重建的方法的流程图。
图5示出了根据示例实施例的样本的示例性3D重建。
图6A示出了根据示例实施例的系统总线计算系统架构。
图6B示出了根据示例实施例的具有芯片组架构的计算机系统。
为了便于理解,在可能的情况下,相同的参考数字已用于表示附图中共同的相同元件。在一个实施例中公开的元件可以有益地用于其他实施例而无需具体叙述是可预期的。
具体实施方式
光度立体可以是一种用于3D重建的技术,该技术可以通过从不同的照明角度计算物体的表面法线来执行。该技术可以有效地估计具有大特征的静态物体的高度轮廓,但通常不适用于具有较小特征的物体或在具有小凹陷的平坦环境中,例如在半导体晶片中。本文描述的一种或更多种技术提供了对使用光度立体的传统3D重建技术的改进。例如,本文描述的一种或更多种技术可以包括使用神经网络、伴随表面法线计算的进步的复合方法,以补偿预期噪声。一种或更多种技术包括在光度立体模型中结合样本噪声和不均匀样本照明的几种方法。在一些实施例中,下面讨论的建议模型可以展示合成和实验数据集上降低的噪声敏感性。这种方法可以实现复杂表面的快速检查和重建,而无需使用破坏性或昂贵的分析方法。
一般来说,用于深度估计的光度立体的大多数应用都是针对宏观尺度的物体。最近,通过正则化最小化方法计算反照率、表面法线和高度图的微观立体方法已被用于深度估计。然而,在将发光二极管(LED)灯或其他光源设置在成像台附近的情况下,由于特征的大小和近场照明条件,使用微观输入图像给3D重建带来了挑战。这些表面和照明条件可能会限制经典光度立体在微观表面上的性能。
本文描述的一种或更多种技术利用深度光度学习模型来使用卷积神经网络对微观表面进行3D重建,而不是微观光度立体方法的熵最小化架构。例如,本文描述的一种或更多种技术可以包括使用合成和实验输入来训练深度学习模块,以将深度光度学习性能与经典光度立体实施进行比较。例如,在合成数据上,可以通过在合成输入图像中加入不均匀的照明轮廓、高斯噪声和表面倾斜来模拟非理想表面和照明条件,并分析深度光度习和光度立体方法对这些条件的鲁棒性。这种深度学习技术的使用可以减少系统对朗伯表面的依赖。
图1示出了根据示例性实施例的用于样本的倾斜照明和支撑在台上的样本的表面的3D重建的示例性计算环境100。如图所示,根据示例实施例,计算环境100可以包括与计算系统150通信的装置102。装置102 可以被配置为用一个或更多个光源104、106照射样本101。一个或更多个光源104、106可以被配置为将倾斜光108、110以一定角度朝向样本101引导。倾斜照明可以作为反射光112从样本101的表面被反射。装置102 可以包括相机设备114,相机设备114具有被配置为捕获反射光的图像传感器。在一些实施例中,光源104、106可以移动到位于物体周围的不同位置,其中在每个位置处拍摄图像。
在一些实施例中,装置102可以将相机设备114捕获的图像提供给计算系统150以用于处理。计算系统150可以经由一个或更多个通信信道与装置102通信。在一些实施例中,一个或更多个通信信道可以表示为经由互联网(例如蜂窝或Wi-Fi网络)的单独连接。在一些实施例中,一个或更多个通信信道可以使用直接连接(例如射频识别(RFID)、近场通信(NFC)、蓝牙TM、低能耗蓝牙TM(BLE)、Wi-FiTM、ZigBeeTM、环境反向散射通信(ABC)协议、USB、WAN或LAN)来连接终端、服务和移动设备。计算系统150可以被配置为分析由相机设备114捕获的图像并生成样本101的形貌。
如图所示,计算系统150可以包括预处理引擎152和深度学习模型 154。预处理引擎152和深度学习模型154中的每一个可以包括一个或更多个软件模块。一个或更多个软件模块可以是存储在介质(例如,计算系统150的存储器)上的代码或指令的集合,这些代码或指令的集合表示实施一个或更多个算法步骤的一系列机器指令(例如,程序代码)。这样的机器指令可以是处理器解释以实施指令的实际计算机代码,或者替代地,可以是被解释以获得实际计算机代码的指令的更高级别的编码。一个或更多个软件模块还可以包括一个或更多个硬件组件。示例算法的一个或更多个方面可以由硬件组件(例如,电路)本身执行,而不是作为指令的结果。
深度学习模型154可以被配置为生成样本的3D重建。在一些实施例中,可以使用一个或更多个合成训练数据集来训练深度学习模型154。为了创建合成数据集,预处理引擎152可以通过在空白高度图上随机放置多个(例如,100个)非重叠的半球来创建一个或更多个合成高度图。在一些实施例中,半径均匀地在大约四个到大约二十个像素之间的半球可以被添加作为正方向上的凸块和负方向上的孔(例如,反之亦然),其中高度表示为32位像素值。在一些实施例中,预处理引擎152可以进一步使用一个或更多个建模和渲染包在程序上将每个高度图转换为3D形状。在一些实施例中,预处理引擎152可以为多个照明光矢量(例如,八个照明光矢量)计算“点”光源的位置。对于每个光矢量,可以使用光线追踪引擎(例如,Cycles光线追踪引擎)渲染单色16位图像。
在一些实施例中,深度学习模型154可以实现卷积神经网络(CNN)。在一些实施例中,CNN模型可以类似于PyTorch中的U-Net模型。在一些实施例中,可以用三种类型的合成训练数据集训练深度学习模型154:没有噪声和没有倾斜的第一训练数据集(例如,“DPL”),具有固定量的高斯噪声但没有倾斜的第二训练集(例如,“DPLn”),以及没有噪声但有倾斜的第三训练集(例如,DPLt)。在一些实施例中,每个数据集包含大约500个训练示例。深度学习模型154的性能可以在各种大小的测试数据集上被量化。例如,测试数据集可以包括大小为10的DPL和DPLn (增加可能被添加到初始数据集的输入图像的高斯噪声量)和大小为50的DPLt。
在一些实施例中,可以修改深度学习模型154以包括倾斜角作为具有倾斜的训练示例的附加输入。在一些实施例中,为了对实验数据进行验证,可以使用多个训练示例的数据集来重新训练深度学习模型154,该多个训练示例的数据集具有更好的匹配光照轮廓,并且深度学习模型154可以被专门生成以匹配实验光矢量。
在一些实施例中,计算系统150还可以包括集成引擎156。虽然深度学习模型154可以被配置为直接预测最终高度图,但是在一些实施例中,深度学习模型154可以用于预测样本的局部表面。在预测样本的局部表面之后,集成引擎156可以被配置为使用该局部表面预测来生成高度图。例如,集成引擎156可以被配置为集成3D重建的表面法线以生成高度图。通常,可以根据法线图[nx,ny,nz]计算梯度图g=[p,q]。在一些实施例中,可以通过最小化以下函数来求解方程
Figure BDA0003777586420000051
Figure BDA0003777586420000052
在一些实施例中,欧拉-拉格朗日方程可能要求p和q满足泊松方程:
Figure BDA0003777586420000053
在一些实施例中,集成引擎156可以使用各种技术来求解泊松方程以计算高度图。
图2示出了根据示例实施例的深度学习模型154的架构200。如图所示,架构200包括输入层202、多个卷积层204、多个激活层206、多个最大池化层208、多个上采样层210、多个连接层212和输出层214。在一些实施例中,输入层202可以具有6×1200×1200的维度。在一些实施例中,输出层214可以具有1×1200×1200的维度。
图3是示出根据示例实施例的训练深度学习模型154的方法300的流程图。方法300可以开始于步骤302。
在步骤302,计算系统150可以生成多个训练数据集。例如,预处理引擎152可以通过在空白高度图上随机放置多个(例如,100个)非重叠的半球来创建一个或更多个合成高度图。在一些实施例中,半径均匀地在大约四个到大约二十个像素之间的半球可以被添加作为正方向上的凸块和负方向上的孔(例如,反之亦然),其中高度表示为32位像素值。在一些实施例中,预处理引擎152可以进一步使用一个或更多个建模和渲染包在程序上将每个高度图转换为3D形状。在一些实施例中,预处理引擎 152可以为多个照明光矢量(例如,八个照明光矢量)计算“点”光源的位置。对于每个光矢量,可以使用光线追踪引擎(例如,Cycles光线追踪引擎)渲染单色16位图像。
在步骤304,计算系统150可以用多个训练数据集训练深度学习模型 154。例如,计算系统150可以训练深度学习模型154以生成基于多个训练数据集的高度图。在一些实施例中,计算系统150还可以用真实数据(例如,实际图像)训练深度学习模型154。
在步骤306,计算系统150可以用实际图像测试深度学习模型154。例如,代替合成输入,计算系统150可以使用橡胶表面的实际微观图像来测试深度学习模型154。在一些实施例中,可以用固定的相机角度和不同的照明方向对每个样本拍摄多个(例如,6个)图像。与具有精确已知地面实况的合成数据不同,可以使用橡胶样本的地面实况高度测量值。
在步骤308,计算系统150可以输出完全训练的深度学习模型154。例如,在训练和测试操作之后,深度学习模型154可以被完全训练以与装置102或其他类似装置一起使用。
图4A是示出根据示例实施例的生成微观表面的3D重建的方法400 的流程图。方法400可以开始于步骤402。
在步骤402,计算系统150可以接收样本的多个图像。例如,装置102 的一个或更多个光源104、106可以以各种角度将倾斜光108、110朝向样本101引导。装置102的相机设备114可以捕获反射光。在一些实施例中,光源104、106可以移动到位于物体周围的不同位置,其中在每个位置处拍摄图像。这些图像中的每一个可以被提供给计算系统150以用于进一步处理。
在步骤404,计算系统150可以被配置为基于多个图像生成样本的高度图。例如,计算系统150可以将多个图像作为输入提供给深度学习模型 154。深度学习模型154可以基于多个图像生成对应样本表面的高度图。
在步骤406,计算系统150可以基于来自深度学习模型154的输出生成微观表面的3D重建。例如,计算系统150可以基于从深度学习模型154 输出的高度图生成微观表面的3D重建。
图4B是示出根据示例实施例的生成微观表面的3D重建的方法450 的流程图。方法450可以开始于步骤452。
在步骤452,计算系统150可以接收样本的多个图像。例如,装置102 的一个或更多个光源104、106可以以各种角度将倾斜光108、110朝向样本101引导。装置102的相机设备114可以捕获反射光。在一些实施例中,光源104、106可以移动到位于物体周围的不同位置,其中在每个位置处拍摄图像。这些图像中的每一个可以被提供给计算系统150以用于进一步处理。
在步骤454,计算系统150可以被配置为基于多个图像生成样本的表面预测。例如,计算系统150可以将多个图像作为输入提供给深度学习模型154。深度学习模型154可以基于多个图像生成样本的表面预测。
在步骤456,计算系统150可以基于样本的预测表面生成高度图。例如,集成引擎156可以集成3D重建的表面法线以生成高度图,如上所述。
在步骤458,计算系统150可以基于来自深度学习模型154的输出生成微观表面的3D重建。例如,计算系统150可以基于从深度学习模型154 输出的高度图生成微观表面的3D重建。
图5示出了根据示例实施例的样本的示例性3D重建500。如上所述, 3D重建500可以是在由深度学习模型154分析之后来自计算环境100的示例性输出。
图6A示出了根据示例实施例的系统总线计算系统架构600。系统600 的一个或更多个组件可以使用总线605彼此电通信。系统600可以包括:处理器(例如,一个或更多个CPU、GPU或其他类型的处理器)610和将各种系统组件耦接到处理器610的系统总线605,各种系统组件包括系统存储器615,例如只读存储器(ROM)620和随机存取存储器(RAM)625。系统600可以包括直接连接处理器610、紧邻处理器610或集成为处理器 610的一部分的高速存储器的高速缓存。系统600可以将数据从存储器615 和/或存储设备630复制到高速缓存612以供处理器610快速访问。以此方式,高速缓存612可提供避免处理器610在等待数据时延迟的性能提升。这些模块和其他模块可以控制或被配置为控制处理器610以执行各种动作。也可以使用其他系统存储器615。存储器615可以包括具有不同性能特征的多种不同类型的存储器。处理器610可以表示为单个处理器或多个处理器。处理器610可以包括被配置为控制处理器610的通用处理器或硬件模块或软件模块(例如存储在存储设备630中的服务1632、服务2634 和服务3636)以及其中软件指令被整合到实际处理器设计中的专用处理器中的一个或更多个。处理器610本质上可以是完全独立的计算系统,包含多个核心或处理器、总线、存储控制器、高速缓存等。多核处理器可以是对称的或不对称的。
为了实现与计算设备600的用户交互,输入设备645可以是任何数量的输入机构,例如用于语音的麦克风、用于手势或图形输入的触敏屏幕、键盘、鼠标、运动输入、语音等等。输出设备635也可以是本领域技术人员已知的多种输出机构中的一种或更多种。在一些情况下,多模式系统可以使用户能够提供多种类型的输入以与计算设备600进行通信。通信接口 640通常可以支配和管理用户输入和系统输出。对在任何特定硬件布置上的操作没有限制,因此在开发过程中,此处的基本特征可以很容易地被替换为改进的硬件或固件布置。
存储设备630可以是非易失性存储器并且可以是硬盘或是可以存储由计算机访问的数据的其他类型的计算机可读介质,例如盒式磁带、闪存卡、固态存储设备、数字多功能磁盘、暗盒、随机存取存储器(RAM) 625、只读存储器(ROM)620及其混合。
存储设备630可以包括用于控制处理器610的服务632、634和636。其他硬件或软件模块也是可预期的。存储设备630可以连接到系统总线 605。一方面,执行特定功能的硬件模块可以包括存储在计算机可读介质中的软件组件,该软件组件与诸如处理器610、总线605、显示器635等必要的硬件组件连接,以执行功能。
图6B示出了根据示例实施例的具有芯片组架构的计算机系统650。计算机系统650可以是可用于实施所公开技术的计算机硬件、软件和固件的示例。系统650可以包括表示能够执行被配置为执行识别的计算的软件、固件和硬件的任意数量的物理和/或逻辑上的不同的资源的一个或更多个处理器655。一个或更多个处理器655可以与芯片组660通信,该芯片组660可以控制对一个或更多个处理器655的输入和来自一个或更多个处理器655的输出。在该示例中,芯片组660将信息输出到输出665,例如显示器,并且芯片组660可以读取和写入信息到存储设备670,该存储设备670可以包括例如磁介质和固态介质。芯片组660还可以从RAM 675 读取数据以及向RAM 675写入数据。可以提供用于与各种用户接口组件 685连接的桥680,以用于与芯片组660连接。这样的用户接口组件685 可以包括键盘、麦克风、触摸检测和处理电路、诸如鼠标的定点设备等等。通常,对系统650的输入可以来自机器生成的和/或人工生成的各种来源中的任何一种。
芯片组660还可以与可能具有不同物理接口的一个或更多个通信接口690连接。这样的通信接口可以包括用于有线和无线局域网、宽带无线网络以及个域网的接口。用于生成、显示和使用本文公开的GUI的方法的一些应用可以包括通过物理接口接收有序数据集,或者可以由机器本身通过一个或更多个处理器655分析存储在存储器670或675中的数据来生成用于生成、显示和使用本文公开的GUI的方法的一些应用。此外,机器可以通过用户接口组件685接收来自用户的输入并执行适当的功能,例如通过使用一个或更多个处理器655解释这些输入的浏览功能。
可以理解,示例系统600和650可以具有多于一个处理器610或者是联网在一起以提供更大处理能力的一组计算设备或集群计算设备的一部分。
虽然前述内容针对本文描述的实施例,但可以设计其他和进一步的实施例而不背离其基本范围。例如,本公开的各方面可以以硬件或软件或硬件和软件的组合来实施。本文描述的一个实施例可以被实施为与计算机系统一起使用的程序产品。程序产品的程序定义了实施例的功能(包括本文描述的方法)并且可以包含在各种计算机可读存储介质上。说明性的计算机可读存储介质包括但不限于:(i)永久存储信息的不可写存储介质(例如,计算机内的只读存储器(ROM)设备,诸如可由CD-ROM驱动器读取的CD-ROM磁盘、闪存、ROM芯片或任何类型的固态非易失性存储器);以及(ii)存储可变信息的可写存储介质(例如,软盘驱动器中的软盘或硬盘驱动器或任何类型的固态随机存取存储器)。当承载指导所公开实施例的功能的计算机可读指令时,这样的计算机可读存储介质是本公开的实施例。
本领域技术人员将理解,前述示例是示例性的而非限制性的。在阅读说明书和研究附图后,所有排列、增强、等效和改进对于本领域技术人员而言是显而易见的,都被包括在本公开的真实本质和范围内。因此,以下所附权利要求旨在包括落入这些教导的真实本质和范围内的所有这样的修改、排列和等效。

Claims (20)

1.一种成像系统,包括:
成像装置,所述成像装置包括:相对于被配置为支撑样本的台定位在多个位置和多个角度处的多个光源,其中所述成像装置被配置为捕获所述样本的表面的多个图像;以及
计算系统,所述计算系统与所述成像装置通信,所述计算系统被配置为通过以下方式生成所述样本的表面的3D重建:
从所述成像装置接收所述样本的表面的多个图像;
通过所述成像装置经由深度学习模型,生成基于所述多个图像的所述样本的表面的高度图;以及
基于由所述深度学习模型生成的高度图,输出所述样本的表面的3D重建。
2.根据权利要求1所述的成像系统,其中,所述深度学习模型包括卷积神经网络。
3.根据权利要求2所述的成像系统,其中,所述卷积神经网络被配置为接收所述多个图像作为输入并输出单个图像。
4.根据权利要求1所述的成像系统,其中,所述计算系统还被配置为通过以下方式训练所述深度学习模型:
生成多个训练数据集,其中所述多个训练数据集包括多个合成高度图;以及
使用所述多个训练数据集训练所述深度学习模型。
5.根据权利要求4所述的成像系统,其中,所述多个训练数据集包括:
没有噪声且没有倾斜的第一训练数据集;
包括固定量的噪声且没有倾斜的第二训练数据集;以及
包括倾斜且没有噪声的第三训练数据集。
6.根据权利要求1所述的成像系统,其中,所述计算系统还被配置为通过以下方式测试所述深度学习模型:
生成示例样本的多个微观图像;以及
使用所述多个微观图像测试所述深度学习模型的准确性。
7.根据权利要求6所述的成像系统,其中,所述多个微观图像包括以固定相机角度和不同照明方向拍摄的图像。
8.一种生成样本的表面的3D重建的方法,包括:
通过计算系统,从成像装置接收位于所述成像装置的台上的样本的表面的多个图像;
通过所述计算系统经由深度学习模型,生成基于所述多个图像的所述样本的表面的高度图;以及
通过所述计算系统,基于由所述深度学习模型生成的高度图输出所述样本的表面的3D重建。
9.根据权利要求8所述的方法,其中,所述深度学习模型包括卷积神经网络。
10.根据权利要求9所述的方法,其中,所述卷积神经网络被配置为接收所述多个图像作为输入并输出单个图像。
11.根据权利要求8所述的方法,还包括:
通过所述计算系统,生成多个训练数据集,其中所述多个训练数据集包括多个合成高度图;以及
通过所述计算系统,使用所述多个训练数据集训练所述深度学习模型。
12.根据权利要求11所述的方法,其中,所述多个训练数据集包括:
没有噪声且没有倾斜的第一训练数据集;
包括固定量的噪声且没有倾斜的第二训练数据集;以及
包括倾斜且没有噪声的第三训练数据集。
13.根据权利要求8所述的方法,还包括:
通过所述计算系统,生成示例样本的多个微观图像;以及
通过所述计算系统,使用所述多个微观图像测试所述深度学习模型的准确性。
14.根据权利要求13所述的方法,其中,所述多个微观图像包括以固定相机角度和不同照明方向拍摄的图像。
15.一种非暂时性计算机可读介质,包括一个或更多个指令序列,当由一个或更多个处理器执行时,所述一个或更多个指令序列使得计算系统执行操作,所述操作包括:
通过所述计算系统,从成像装置接收位于所述成像装置的台上的样本的表面的多个图像;
通过所述计算系统经由深度学习模型,生成基于所述多个图像的所述样本的表面的高度图;以及
通过所述计算系统,基于由所述深度学习模型生成的高度图输出所述样本的表面的3D重建。
16.根据权利要求15所述的非暂时性计算机可读介质,其中,所述深度学习模型包括卷积神经网络。
17.根据权利要求15所述的非暂时性计算机可读介质,还包括:
通过所述计算系统,生成多个训练数据集,其中所述多个训练数据集包括多个合成高度图;以及
通过所述计算系统,使用所述多个训练数据集训练所述深度学习模型。
18.根据权利要求17所述的非暂时性计算机可读介质,其中,所述多个训练数据集包括:
没有噪声且没有倾斜的第一训练数据集;
包括固定量的噪声且没有倾斜的第二训练数据集;以及
包括倾斜且没有噪声的第三训练数据集。
19.根据权利要求15所述的非暂时性计算机可读介质,还包括:
通过所述计算系统,生成示例样本的多个微观图像;以及
通过所述计算系统,使用所述多个微观图像测试所述深度学习模型的准确性。
20.根据权利要求19所述的非暂时性计算机可读介质,其中,所述多个微观图像包括以固定相机角度和不同照明方向拍摄的图像。
CN202180012365.4A 2020-02-03 2021-02-03 深度光度学习(dpl)系统、装置和方法 Pending CN115053234A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202062969574P 2020-02-03 2020-02-03
US62/969,574 2020-02-03
PCT/US2021/016474 WO2021158703A1 (en) 2020-02-03 2021-02-03 Deep photometric learning (dpl) systems, apparatus and methods

Publications (1)

Publication Number Publication Date
CN115053234A true CN115053234A (zh) 2022-09-13

Family

ID=77061492

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180012365.4A Pending CN115053234A (zh) 2020-02-03 2021-02-03 深度光度学习(dpl)系统、装置和方法

Country Status (6)

Country Link
US (2) US11574413B2 (zh)
EP (1) EP4100925A4 (zh)
JP (1) JP2023513079A (zh)
KR (1) KR20220134000A (zh)
CN (1) CN115053234A (zh)
WO (1) WO2021158703A1 (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11644756B2 (en) * 2020-08-07 2023-05-09 KLA Corp. 3D structure inspection or metrology using deep learning
US20230120807A1 (en) 2021-10-14 2023-04-20 Outward, Inc. Interactive image generation
CN113936117B (zh) * 2021-12-14 2022-03-08 中国海洋大学 基于深度学习的高频区域增强的光度立体三维重建方法
US20240046678A1 (en) * 2022-08-02 2024-02-08 Datalogic IP Tech, S.r.l. Direct part marking code reading with multimodal object sensing

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9098931B2 (en) 2010-08-11 2015-08-04 Apple Inc. Scanning projectors and image capture modules for 3D mapping
US9082188B2 (en) 2011-04-11 2015-07-14 Hid Global Corporation Optical topographic imaging
US20150374210A1 (en) * 2013-03-13 2015-12-31 Massachusetts Institute Of Technology Photometric stereo endoscopy
GB2526866A (en) * 2014-06-05 2015-12-09 Univ Bristol Apparatus for and method of inspecting surface topography of a moving object
US20190104980A1 (en) * 2016-04-06 2019-04-11 University Of The West Of England, Bristol Non-contact apparatus and method for capturing skin surface image data
US10387755B2 (en) * 2017-06-28 2019-08-20 Applied Materials, Inc. Classification, search and retrieval of semiconductor processing metrology images using deep learning/convolutional neural networks
JP7286268B2 (ja) * 2018-02-15 2023-06-05 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置、画像処理プログラム、および、記憶媒体
US20190362235A1 (en) * 2018-05-23 2019-11-28 Xiaofan Xu Hybrid neural network pruning
US10169852B1 (en) * 2018-07-03 2019-01-01 Nanotronics Imaging, Inc. Systems, devices, and methods for providing feedback on and improving the accuracy of super-resolution imaging
GB2598711B (en) * 2020-08-11 2023-10-18 Toshiba Kk A Computer Vision Method and System
CN112381770B (zh) * 2020-11-03 2024-04-05 西安交通大学 一种基于融合卷积神经网络的磨损表面三维形貌测量方法
US12057336B2 (en) * 2020-12-16 2024-08-06 Samsung Electronics Co., Ltd. Estimating heights of defects in a wafer by scaling a 3D model using an artificial neural network

Also Published As

Publication number Publication date
US20230186502A1 (en) 2023-06-15
JP2023513079A (ja) 2023-03-30
US11574413B2 (en) 2023-02-07
US20210241478A1 (en) 2021-08-05
EP4100925A4 (en) 2024-03-06
KR20220134000A (ko) 2022-10-05
EP4100925A1 (en) 2022-12-14
WO2021158703A1 (en) 2021-08-12

Similar Documents

Publication Publication Date Title
US20210090327A1 (en) Neural network processing for multi-object 3d modeling
US11074717B2 (en) Detecting and estimating the pose of an object using a neural network model
JP7560021B2 (ja) 深層学習システム
US11574413B2 (en) Deep photometric learning (DPL) systems, apparatus and methods
US20210279894A1 (en) Depth and motion estimations in machine learning environments
JP7247248B2 (ja) コンピュータビジョン方法及びシステム
JP7386812B2 (ja) 照明推定
US11836597B2 (en) Detecting visual artifacts in image sequences using a neural network model
CN111062981B (zh) 图像处理方法、装置及存储介质
US8803880B2 (en) Image-based lighting simulation for objects
CN109683699A (zh) 基于深度学习实现增强现实的方法、装置及移动终端
CN113496271A (zh) 神经网络控制变量
US9557822B2 (en) Method and apparatus for distinguishing features in data
US11954830B2 (en) High dynamic range support for legacy applications
US11922558B2 (en) Hybrid differentiable rendering for light transport simulation systems and applications
US20220262447A1 (en) Error detection pin encoding scheme to avoid maximum transitions and further improve signal integrity on high speed graphic memory interfaces
US20240185506A1 (en) Hybrid differentiable rendering for light transport simulation systems and applications
CN110009625B (zh) 基于深度学习的图像处理系统、方法、终端、及介质
US20240177394A1 (en) Motion vector optimization for multiple refractive and reflective interfaces
CN111815748B (zh) 一种动画处理方法、装置、存储介质及电子设备
US20230306678A1 (en) Novel view synthesis using attribute correspondences and geometric relationship constraints
CN117242502A (zh) 使用面部特征点估计面部表情

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination