CN117392453A - 一种基于光场相关性融合的高光表面缺陷检测方法 - Google Patents

一种基于光场相关性融合的高光表面缺陷检测方法 Download PDF

Info

Publication number
CN117392453A
CN117392453A CN202311399194.2A CN202311399194A CN117392453A CN 117392453 A CN117392453 A CN 117392453A CN 202311399194 A CN202311399194 A CN 202311399194A CN 117392453 A CN117392453 A CN 117392453A
Authority
CN
China
Prior art keywords
light field
microlens
detection
defect
domain features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311399194.2A
Other languages
English (en)
Inventor
金欣
康今世
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen International Graduate School of Tsinghua University
Original Assignee
Shenzhen International Graduate School of Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen International Graduate School of Tsinghua University filed Critical Shenzhen International Graduate School of Tsinghua University
Priority to CN202311399194.2A priority Critical patent/CN117392453A/zh
Publication of CN117392453A publication Critical patent/CN117392453A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/431Frequency domain transformation; Autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Geometry (AREA)
  • Quality & Reliability (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

本发明公开了一种基于光场相关性融合的高光表面缺陷检测方法,包括如下步骤:S1、对结构光场缺陷检测系统捕获的实时结构光场视频流计算时域特征和频域特征,并将所述时域特征和所述频域特征加权融合;S2、基于融合后特征值在相邻微透镜上的分布回归得到缺陷中心和缺陷尺寸的预测;S3、生成检测框并消除重复检测,得到缺陷检测结果。

Description

一种基于光场相关性融合的高光表面缺陷检测方法
技术领域
本发明涉及计算机视觉与数字视频处理领域,特别涉及一种基于光场相关性融合的高光表面缺陷检测方法。
背景技术
机器视觉缺陷检测是以光学传感器捕获的图像作为输入,通过计算机视觉方法提取物体表面图像特征,进而对其物理缺陷进行识别的技术。与传统人工识别相比,该技术检测精度高、速度快,在工业质检领域具有广阔的应用前景。然而,传统图像识别和立体视觉技术大多依赖于图像特征点与纹理信息,面对无纹理的金属物体时往往无能为力;基于结构光的检测技术能够重建物体表面的三维信息,但这类系统造价高昂,处理高反射镜面物体时数据失真严重,精度较低。基于传统视觉传感器的方法在检测微小缺陷时鲁棒性差,虚检、漏检较多,处理表面结构复杂的物体时需多次多角度成像,效率低下;光场成像技术通过特殊的光路结构设计同时捕获包含空间维和角度维的四维光线信息,实现了单曝光多角度立体成像,但光场数据维度高,处理复杂,将光场成像技术应用于工业检测应用的相关研究尚处于起步阶段,因此研发一种高效且稳定的高光物体表面缺陷检测方法对于精密机械加工等行业具有重要意义。
发明内容
鉴于此,本发明提出一种基于光场相关性融合的高光表面缺陷检测方法,以实现高光物体表面缺陷高效且稳定的检测。
根据本发明的一方面,提出一种基于光场相关性融合的高光表面缺陷检测方法,包括如下步骤:S1、对结构光场缺陷检测系统捕获的实时结构光场视频流计算时域特征和频域特征,并将所述时域特征和所述频域特征加权融合;S2、基于融合后特征值在相邻微透镜上的分布回归得到缺陷中心和缺陷尺寸的预测;S3、生成检测框并消除重复检测,得到缺陷检测结果。
进一步地,步骤S1具体包括:对所述结构光场视频流,连续处理其中相邻的两帧图像,处理方式为,对每帧图像,根据预标定的结果将其分割成一系列微透镜图像;对每一微透镜中心位置对应的相邻两帧微透镜图像计算时域特征和频域特征并进行加权融合,得到每一微透镜下的特征值。
进一步地,步骤S1中计算所述时域特征的步骤包括:计算相邻两帧微透镜图像的残差图像,并统计所述残差图像中灰度分布的统计特征信息;其中,所述统计特征信息包括均值、方差或更高阶的矩特征。
进一步地,步骤S1中计算所述频域特征的步骤包括:计算单帧微透镜图像的二维傅里叶变换,并在傅里叶变换域提取距离平移后的频谱中心相同距离的能量分布。
进一步地,所述能量分布的计算公式为:
其中,D代表提取得到的在原始输入条纹频率附近的能量分布,F[I]代表微透镜图像I的二维傅里叶变换,fx、fy是微透镜图像I的水平和竖直方向的频率分量,f0是原始输入条纹的空间频率。
进一步地,步骤S2具体包括:
在经步骤S1获得每一微透镜下的特征值后,遍历所有微透镜,选择特征值大于周围六个最近邻微透镜特征值的微透镜作为目标对象,采用线性模型建模该目标对象的特征值与到缺陷中心距离的关系,使用周围六个最近邻微透镜建立对于这一关系的观测,如下:
其中,A为观测矩阵,(xm,ym)是周围六个最近邻微透镜中第m个微透镜的中心坐标,m=1,2,…,n,n=6;ΔQ1=Q1-Q2,ΔQ2=Q2-Q3,依此类推,直至ΔQn=Qn-Q1,Q=x,y,C;Cm是第m个微透镜的特征值;(x,y)是最终预测的缺陷中心坐标;α和β是所述线性模型的参数系数,包含缺陷尺寸信息;T表示矩阵的转置。
进一步地,步骤S3包括:根据光场相机微透镜中心与实际观测位置的对应关系在渲染图中生成检测框,消除重复检测并得到最终缺陷检测结果。
进一步地,步骤S3中生成检测框的步骤具体包括:在步骤S2中通过A和b计算得到t*后,根据t*的第三项计算α,然后根据t*的第四项及α计算β;以(x,y)为中心,以hββ为边长绘制检测框,其中hβ是与特征值归一化及光场相机不同微透镜视场交叠范围有关的参数,结合具体光场相机调试确定。
进一步地,步骤S3中消除重复检测的步骤包括:遍历所有已经生成的检测框,合并其中具有交叠区域的检测框,直至不再具有交叠检测框,将最终的检测框绘制在图像上,输出缺陷检测结果。
根据本发明的另一方面,还提出一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时能实现前述基于光场相关性融合的高光表面缺陷检测方法的步骤。
本发明提出的基于光场相关性融合的高光表面缺陷检测方法,利用光场视频在空域和时域上的相关性进行缺陷检测,并联合时域残差特征和频域能量方向性分布特征构建特征描述子,实现了微透镜下结构光场图像缺陷特征的高效提取,同时,利用光场空域相关性从多视角出发同时观测缺陷并预测其位置和大小,实现了对高光表面缺陷的多视角高效检测。综上,与现有方法相比,本发明的方法能够有效提升结构光方法对于高光物体表面缺陷的检测效率和检测准确度。
附图说明
图1是本发明实施例基于光场相关性融合的高光表面缺陷检测方法的流程图。
具体实施方式
下面结合附图和具体的实施方式对本发明作进一步说明。
本发明实施例提出一种基于光场相关性融合的高光表面缺陷检测方法,请参考图1,该方法包括步骤S1~S3:
步骤S1、对结构光场缺陷检测系统捕获的实时结构光场视频流计算时域特征和频域特征,并将时域特征和频域特征进行加权融合。
在一些实施例中,所述结构光场缺陷检测系统是指包含显示编制好的指定图案(如黑白条纹、正弦条纹等)的结构光源、具有高光表面的待测工件以及光场相机的成像系统,系统具备反射式光路,图案经高光表面反射后被光场相机捕获。
对于光场相机实时采集得到的结构光场图像视频流,本步骤将连续处理其中相邻的两帧,根据预标定的结果将原始图像分割成一系列微透镜图像,对每一微透镜中心位置对应的相邻两帧微透镜图像计算时域特征、频域特征并进行加权融合,得到每一微透镜下的特征值。“预标定”指拍摄白色背景得到光场相机白图像,并进一步根据微透镜图像边界计算得到微透镜中心位置和微透镜图像半径的过程;“分割”的具体方式是根据预标定得到的微透镜中心位置将原始图像分割成一系列以这些中心位置为圆心,以微透镜图像半径为半径的圆形图像,即为微透镜图像。
对于每个微透镜而言,与该微透镜中心位置对应的相邻两帧微透镜图像的时域特征的计算方法是,计算两帧微透镜图像的残差图像,统计残差图像中灰度分布的统计特征信息。统计特征信息包括但不限于均值、方差、更高阶的矩特征或者它们的线性组合,只要该统计量能够反应残差图像亮度与缺陷存在性的关系,均应被视为统计特征信息。
以计算两帧微透镜图像的残差图像中灰度分布的MSE(均方误差)为例,计算公式为:
在该示例中,残差图像的均方误差Ct即代表相邻两帧微透镜图像It和It+1的时域特征。应当理解的是,此处计算MSE作为时域特征只是一种示例性的实施方式,除此之外,也可以计算残差图像的其他统计特征信息如残差图像中灰度分布的均值或者更高阶的矩特征,再或者,均值和均方误差的线性组合。
在式(1)中,M、N分别表示微透镜图像的长与宽,i、j分别表示微透镜图像像素的第i行、第j列。
频域特征的计算方法是,计算单一微透镜图像的二维傅里叶变换,在傅里叶变换域提取距离平移后的频谱中心相同距离的能量分布,计算公式为:
其中,D表示提取得到的在原始输入条纹频率附近的能量分布,F[·]表示二维傅里叶变换,I是微透镜图像,f0是输入条纹的空间频率,(fx,fy)是图像I的水平和竖直方向的频率分量。在无缺陷的区域,D中的能量密集地分布在输入条纹的空间频率附近;而缺陷存在时,这一分布将受到影响,可通过D的统计特征信息来描述该特征分布,统计特征信息定义同前。同样,以方差为例,计算公式为:
其中,CF表示频域特征,P表示参与统计平均的频域特征对应的采样点总数,Dz表示第z个频域采样点的频率幅值,表示全部频域采样点的频率幅值均值。
然后,对时域特征与频域特征进行线性加权融合:
C=ktCt+kFCF (4)
其中,Ct为时域特征的值,CF为频域特征的值,kt为时域特征的融合系数,kF为频域特征的融合系数,kt与kF通过对数据集采样监督学习的方式获取,具体包括:首先制作一系列具有不同缺陷类型和不同缺陷尺寸的标准样品,设定kt与kF的初始值为1,使用基于梯度下降的寻优方法,向着对全体数据集分类的准确率和召回率更高的方向迭代调整两个融合系数,直至优化问题收敛,得到最优值。
对于每一个微透镜,都可按照前述的过程获取相应的特征值C。
步骤S2、基于融合后特征值在相邻微透镜上的分布回归得到缺陷中心和缺陷尺寸的预测。
具体地,在生成每一微透镜下的特征值后,遍历所有微透镜,选择特征值大于周围六个最近邻微透镜特征值的微透镜作为目标对象,采用线性模型建模该目标对象的特征值与到缺陷中心距离的关系,使用周围六个最近邻微透镜建立对于这一关系的观测,如下:
其中,A为观测矩阵,(xm,ym)是周围六个最近邻微透镜中第m个微透镜的中心坐标,m=1,2,…,n,n=6;ΔQ1=Q1-Q2,ΔQ2=Q2-Q3,依此类推,直至ΔQn=Qn-Q1,Q=x,y,C;Cm是第m个微透镜的特征值;(x,y)是最终预测的缺陷中心坐标;α和β是所述线性模型的参数系数,包含缺陷尺寸信息;T表示矩阵的转置。
步骤S3、根据光场相机微透镜中心与实际观测位置的对应关系在渲染图中生成检测框,消除重复检测并得到最终缺陷检测结果。
具体地,在步骤S2中通过矩阵A和b计算得到t*(矩阵t*是一个中间变量)后,即t*中的每一个矩阵元素为已知,因此可以根据矩阵t*的第三项计算得到α的值,然后再根据t*的第四项及α计算得到β的值;然后,以(x,y)为中心,以hββ为边长绘制检测框,其中hβ是与特征值归一化及光场相机不同微透镜视场交叠范围有关的参数,结合具体光场相机调试确定,调试过程:取一件具有较大缺陷尺寸(例如缺陷在视野中可覆盖7个以上相邻微透镜)的样品,使用步骤S3的方法对不同值的hβ计算最终交叠后的检测框,人工选取交叠后检测框与实际缺陷位置匹配最佳时的hβ
最后,遍历所有已经生成的检测框,合并其中具有交叠区域的检测框,合并至不再具有交叠检测框,将最终的检测框绘制在图像上,输出缺陷检测结果。
本发明另一实施例还提出一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时能实现前述实施例基于光场相关性融合的高光表面缺陷检测方法的步骤。基于这样的理解,本发明的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明实施例的方法的步骤。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的技术人员来说,在不脱离本发明构思的前提下,还可以做出若干等同替代或明显变型,而且性能或用途相同,都应当视为属于本发明的保护范围。

Claims (10)

1.一种基于光场相关性融合的高光表面缺陷检测方法,其特征在于,包括如下步骤:
S1、对结构光场缺陷检测系统捕获的实时结构光场视频流计算时域特征和频域特征,并将所述时域特征和所述频域特征加权融合;
S2、基于融合后特征值在相邻微透镜上的分布回归得到缺陷中心和缺陷尺寸的预测;
S3、生成检测框并消除重复检测,得到缺陷检测结果。
2.如权利要求1所述的基于光场相关性融合的高光表面缺陷检测方法,其特征在于,步骤S1具体包括:
对所述结构光场视频流,连续处理其中相邻的两帧图像,处理方式为,对每帧图像,根据预标定的结果将其分割成一系列微透镜图像;
对每一微透镜中心位置对应的相邻两帧微透镜图像计算时域特征和频域特征并进行加权融合,得到每一微透镜下的特征值。
3.如权利要求1或2所述的基于光场相关性融合的高光表面缺陷检测方法,其特征在于,步骤S1中计算所述时域特征的步骤包括:
计算相邻两帧微透镜图像的残差图像,并统计所述残差图像中灰度分布的统计特征信息;其中,所述统计特征信息包括均值、方差或更高阶的矩特征。
4.如权利要求1所述的基于光场相关性融合的高光表面缺陷检测方法,其特征在于,步骤S1中计算所述频域特征的步骤包括:
计算单帧微透镜图像的二维傅里叶变换,并在傅里叶变换域提取距离平移后的频谱中心相同距离的能量分布。
5.如权利要求4所述的基于光场相关性融合的高光表面缺陷检测方法,其特征在于,所述能量分布的计算公式为:
其中,D代表提取得到的在原始输入条纹频率附近的能量分布,F[I]代表微透镜图像I的二维傅里叶变换,fx、fy是微透镜图像I的水平和竖直方向的频率分量,f0是原始输入条纹的空间频率。
6.如权利要求1所述的基于光场相关性融合的高光表面缺陷检测方法,其特征在于,步骤S2具体包括:
在经步骤S1获得每一微透镜下的特征值后,遍历所有微透镜,选择特征值大于周围六个最近邻微透镜特征值的微透镜作为目标对象,采用线性模型建模该目标对象的特征值与到缺陷中心距离的关系,使用周围六个最近邻微透镜建立对于这一关系的观测,如下:
其中,A为观测矩阵,(xm,ym)是周围六个最近邻微透镜中第m个微透镜的中心坐标,m=1,2,…,n,n=6;ΔQ1=Q1-Q2,ΔQ2=Q2-Q3,依此类推,直至ΔQn=Qn-Q1,Q=x,y,C;Cm是第m个微透镜的特征值;(x,y)是最终预测的缺陷中心坐标;α和β是所述线性模型的参数系数,包含缺陷尺寸信息;T表示矩阵的转置。
7.如权利要求6所述的基于光场相关性融合的高光表面缺陷检测方法,其特征在于,步骤S3包括:
根据光场相机微透镜中心与实际观测位置的对应关系在渲染图中生成检测框,消除重复检测并得到最终缺陷检测结果。
8.如权利要求6或7所述的基于光场相关性融合的高光表面缺陷检测方法,其特征在于,步骤S3中生成检测框的步骤具体包括:
在步骤S2中通过A和b计算得到t*后,根据t*的第三项计算α,然后根据t*的第四项及α计算β;
以(x,y)为中心,以hββ为边长绘制检测框,其中hβ是与特征值归一化及光场相机不同微透镜视场交叠范围有关的参数,结合具体光场相机调试确定。
9.如权利要求8所述的基于光场相关性融合的高光表面缺陷检测方法,其特征在于,步骤S3中消除重复检测的步骤包括:
遍历所有已经生成的检测框,合并其中具有交叠区域的检测框,直至不再具有交叠检测框,将最终的检测框绘制在图像上,输出缺陷检测结果。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时能实现权利要求1~9任一项所述基于光场相关性融合的高光表面缺陷检测方法的步骤。
CN202311399194.2A 2023-10-26 2023-10-26 一种基于光场相关性融合的高光表面缺陷检测方法 Pending CN117392453A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311399194.2A CN117392453A (zh) 2023-10-26 2023-10-26 一种基于光场相关性融合的高光表面缺陷检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311399194.2A CN117392453A (zh) 2023-10-26 2023-10-26 一种基于光场相关性融合的高光表面缺陷检测方法

Publications (1)

Publication Number Publication Date
CN117392453A true CN117392453A (zh) 2024-01-12

Family

ID=89469835

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311399194.2A Pending CN117392453A (zh) 2023-10-26 2023-10-26 一种基于光场相关性融合的高光表面缺陷检测方法

Country Status (1)

Country Link
CN (1) CN117392453A (zh)

Similar Documents

Publication Publication Date Title
JP6855587B2 (ja) 視点から距離情報を取得するための装置及び方法
CN112116576B (zh) 基于偏振结构光成像和改进的缺陷检测方法
CN113205593B (zh) 一种基于点云自适应修复的高反光表面结构光场三维重建方法
CN109883391B (zh) 基于微透镜阵列数字成像的单目测距方法
CN111353997B (zh) 一种基于条纹投影的实时三维面型缺陷检测方法
JP2005315596A (ja) 画像検査方法及び装置
WO2022126870A1 (en) Three-dimensional imaging method and method based on light field camera and three-dimensional imaging measuring production line
CN113406111B (zh) 一种基于结构光场视频流的缺陷检测方法和装置
CN113393439A (zh) 一种基于深度学习的锻件缺陷检测方法
WO2018120168A1 (zh) 一种视觉检测方法及系统
Liu et al. Real-time 3D surface measurement in additive manufacturing using deep learning
CN116958419A (zh) 一种基于波前编码的双目立体视觉三维重建系统和方法
CN114280075A (zh) 一种管类零件表面缺陷在线视觉检测系统及检测方法
CN113808019A (zh) 一种非接触测量系统及方法
Marchello et al. Cultural Heritage Digital Preservation through Ai-Driven Robotics
Eastwood et al. Autonomous close-range photogrammetry using machine learning
Zhao et al. Binocular vision measurement for large-scale weakly textured ship hull plates using feature points encoding method
CN117392453A (zh) 一种基于光场相关性融合的高光表面缺陷检测方法
CN108537831B (zh) 对增材制造工件进行ct成像的方法及装置
Buat et al. Active chromatic depth from defocus for industrial inspection
CN112782176A (zh) 一种产品外观检测方法及装置
CN107610170B (zh) 多目图像重聚焦的深度获取方法及系统
Kim et al. Development of Structured Light 3D Scanner Based on Image Processing
Svalina et al. Possibilities of evaluating the dimensional acceptability of workpieces using computer vision
RU2760845C1 (ru) Способ обнаружения и определения характеристик целей на основе регистрации и обработки хода лучей от объектов в наблюдаемом пространстве и устройство для его реализации

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination