CN109001902B - 基于图像融合的显微镜聚焦方法 - Google Patents

基于图像融合的显微镜聚焦方法 Download PDF

Info

Publication number
CN109001902B
CN109001902B CN201811028727.5A CN201811028727A CN109001902B CN 109001902 B CN109001902 B CN 109001902B CN 201811028727 A CN201811028727 A CN 201811028727A CN 109001902 B CN109001902 B CN 109001902B
Authority
CN
China
Prior art keywords
image
plane
depth
platform
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811028727.5A
Other languages
English (en)
Other versions
CN109001902A (zh
Inventor
何勇军
卢祎
张雪媛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin University of Science and Technology
Original Assignee
Harbin University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin University of Science and Technology filed Critical Harbin University of Science and Technology
Priority to CN201811028727.5A priority Critical patent/CN109001902B/zh
Publication of CN109001902A publication Critical patent/CN109001902A/zh
Application granted granted Critical
Publication of CN109001902B publication Critical patent/CN109001902B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/24Base structure
    • G02B21/241Devices for focusing
    • G06T5/73
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • G06T2207/10061Microscopic image from scanning electron microscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

一种显微镜聚焦方法,本发明涉及显微镜聚焦方法。本发明的目的是为了解决因载物平台不平整引发的聚焦之后一张图片上一部分区域清晰,一部分区域不清晰的问题。为解决这个问题,本发明提出新的显微镜聚焦方法:使用平台前,通过测量并学习载物平台的平整度作为平台参数;使用平台时,根据不同的平整度参考之前学习的平台参数,使用不同的策略进行图像采集并融合。采用多图像融合的方式,将同一视野下处于多个焦平面的清晰图像融合到一张图片上。实验表明,通过融合不同深度的清晰图像明显提高了图像质量。本发明应用于显微镜聚焦领域。

Description

基于图像融合的显微镜聚焦方法
技术领域
本发明涉及显微镜聚焦方法。
背景技术
近年来宫颈癌高发,已经成为威胁妇女生命的社会问题。在宫颈癌诊断方面,传统方法是采集人体宫颈脱落细胞制片,然后染色并置于显微镜下观察发现病变细胞后做出诊断;随着技术发展,显微镜自动阅片技术发展起来,采集标本后放置显微镜下自动扫描识别并分析异常细胞,这种技术增加了病理医生的诊断效率,同时提高了医生诊断的准确度。
使用显微镜自动阅片技术的前提是可以获得清晰的细胞图像,用于细胞的识别与分析;由于载玻片上的细胞可能不是散落在同一个焦平面下的,并且显微镜对细胞进行高倍放大,载物台移动时任何细微的偏差都会导致镜头下的图像模糊,所以自动聚焦在自动阅片系统中起着关键性的作用。
目前聚焦效率较好的是使用变步爬山搜索策略加清晰度评价函数的方法,但是这种聚焦方法仅能应用于载物平台绝对平整的理想条件下使用,载物平台稍有不理想都会导致聚焦后的图像上一部分清晰,一部分不清晰的问题,图1是理想载物平台模型,图2是实际载物平台模型;问题的原因是物镜与载玻片没有构成成像最清楚的垂直角度,有一部分细胞不在焦平面上,不在焦平面上的细胞显示模糊,图3是非平整平台三维结构图,其中椭圆p是物镜在载玻片上的映射,虚线椭圆q是真实焦平面,高度差h为焦平面的偏移量;针对这个问题,发明基于图像融合的聚焦方法,在使用平台前先学习平台各个位置的平整度作为平台参数,使用平台时根据不同的位置对应的平整度调整聚焦策略;这种方法不仅能获得效果更好的图像,而且其普遍适用性较高;因此本发明中的方法的提出具有重要意义。
发明内容
本发明的目的是为了解决载物平台平整度不理想造成聚焦后的图片一部分不清晰的问题。
上述发明目的主要通过以下技术方案实现:
步骤一、建立平台三维空间模型。
使用平台前,首先使用变步爬山法配合灰度非零值统计法(GZV)和低灰度值统计法(LGV)两个聚焦评价函数,以盖玻片的中心为原点,环绕原点取三个较均匀的位置聚焦并记录坐标点,求三个坐标点的z轴坐标的均值代替三个点的原z坐标,新的三个点可以确定一个平面作为零平面,并且此平面垂直于物镜;再以载玻片中心为原点,蛇形扫描的方式扫描整个载玻片的有效区域,扫描路径如图4,并记录在每一个视野位置的三维坐标;扫描完成后将所有的点在零平面上还原出来,得到载物平台在三维空间中的位置模型。
变步爬山法的步长有三种:
第一种情况是距离焦点很远但是隐约看见图像区域,采用较大步长S1寻找焦点。
第二种情况是距离焦点较远并能看见模糊图像,采用较小步长S2寻找焦点。
第三种情况是在焦点附近,视野图像较模糊,采用小步长S3寻找焦点;其清晰度评价函数形式如公式(1):
Figure GDA0003071686770000024
)
其中,GZV(x)为灰度非零值统计法函数,LGV(x)为低灰度值统计法,M是门限步长;灰度非零值统计法是统计灰度直方图中出现的像素个数不为零的个数作为聚焦的标准,具体如式(2):
Figure GDA0003071686770000021
其中G(i)表示灰度值为i的像素点个数。
低灰度值统计法是选取一个阈值T,划分出一个有效的区域作为观察区域,在图像清晰度变化时,对应区域面积的变化可以作为评价清晰的标准,公式如(3)-(4):
Figure GDA0003071686770000022
Figure GDA0003071686770000023
其中m,n是图像的长和宽,f1(i,j)是对应坐标像素点的灰度值,T为阈值(T=80)。
步骤二、划分处理区域。
平台三维模型中,将具有同一斜度的区域作为一个处理区域,利用这种规则将整个有效载物平台全部视野分为若干处理区域;具体做法是:首先将载物台的三维模型在x,y坐标系上分成四块区域,在每一块区域上找一个z坐标最大的点p1,和三个z坐标最小的点p2,p3,p4,判断这三个点的位置关系,如果三个点在一条直线,这条直线与最高点可以确定一个平面,平面公式计算参数如式(5)-(8),最终平面方程式为公式(9),说明这块区域只有一个斜度,并求出法向量如式(10),再求平面的法向量和z轴方向上向量(如式(11))的夹角,即为平面斜度角如式(12)。
Figure GDA0003071686770000034
Figure GDA0003071686770000035
Figure GDA0003071686770000036
Figure GDA0003071686770000037
其中A,B,C,D为平面方程参数,最终平面方程:
Ax+By+Cz+D=0 (9)
平面方程的法向量:
Figure GDA0003071686770000031
构造z轴方向上的向量:
Figure GDA0003071686770000032
求两向量夹角,即为平面倾斜角θ:
Figure GDA0003071686770000033
此外情况,三个坐标小的点必围成一个三角形,如果最高点在三角形里,此时需要求出三个面,以及倾斜角度;否则三个最小点中最相邻的两点分别与最高点可以建立平面,同理求出倾斜角度θ。记录每一个斜面区域的位置,以便使用此平台时直接根据斜面方程求出焦点z轴坐标,找到焦点位置,再根据下面的步骤求出来的参数分割并融合处理。
步骤三、确定取图深度。
计算每一个处理区域的斜度,通过斜度确定取图个数(也可称取图深度);将深度作为以后使用此平台的参数,在使用平台时,不同的处理区域使用对应的焦点、深度和分块数,深度选取如式(13);实验测得,相邻深度之间距离为4个单位长度为最佳。
Figure GDA0003071686770000041
其中,S为拍摄照片个数。
步骤四、确定分块数。
利用当前视野所对应的深度,在焦点位置附近取与深度对应的图片个数,并将这些图片参考与深度相对应的块数K进行分割,参数K选取如式(14)。
Figure GDA0003071686770000042
其中,S为深度,K为分割块数。
步骤五、取每一位置最清晰的图片块,并融合。
使用平台时,首先将物镜移动至当前视野对应的处理域的平面上,再根据处理域的参数对当前视野取不同深度S的图片,并将这些图片切割K块,对比同一位置小块的灰度值,取最清晰的小块碎片融合,恢复成完整视野的图像,得到当前视野清晰图像;图像融合过程如图5,step为步长,picturel为同一视野焦点附近某一深度的图片,picture2为同一视野焦点附近另一深度的图片,假设当前平台参数S=5,K=6,对比相同位置的图片块的清晰度,分别取最清晰的融合在一起,得到清晰图像;但是图片拼接相切的地方可能会由于图片深度选取的差异,导致相切的地方会有清晰度变化,实际在切割图片的时候会加一个重叠区,在融合过程中,将重叠区的灰度值加权平均,使得最终完整图片看起来更完整;再使用同样方法扫描下一个视野,直至扫描完成规定的全部视野。
附图说明
图1是理想载物平台模型;
图2是实际载物平台模型;
图3是非平整平台三维结构图;
图4是显微镜扫描路径;
图5是图像融合过程;
图6是算法流程图;
具体实施方法
具体实施方式:本实施方式是显微镜聚焦方法,具体是按照以下步骤制备的:
步骤一、运行程序;
步骤二、以载玻片的中心为原点,并在有效区域内,均匀选取三个位置(三个位置保证不在同一直线上),使用变步爬山法配合灰度非零值统计法和低灰度值统计法两个聚焦评价函数聚焦,记录三个位置的焦点坐标,求这三个点z轴坐标的均值并分别代替三个点的z轴坐标,三个点确定一个平面,求的平面的方程作为零平面;
步骤二、使用变步爬山法配合灰度非零值统计法和低灰度值统计法两个聚焦评价函数扫描整个有效区域,并记录每个焦点的坐标,在零平面上还原真实载玻片的三维结构;
步骤三、将载物台的三维模型在以载玻片中心为原点,沿x,y坐标轴上分成四块区域,在每一块区域上找一个z坐标最大的点p1,和三个z坐标最小的点p2,p3,p4,判断这三个点的位置关系,如果三个点在一条直线,这条直线与最高点可以确定一个平面,说明这块区域只有一个斜度,那么利用求空间平面的方法求出平面方程(15)-(19)并求出法向量如式(20),再求平面的法向量和z轴方向上向量(如式(21))的夹角即为平面斜度角,如式(22)。
Figure GDA0003071686770000054
Figure GDA0003071686770000055
Figure GDA0003071686770000056
Figure GDA0003071686770000057
其中,所求A,B,C,D为平面方程参数。
Ax+By+Cz+D=0 (19)
Figure GDA0003071686770000051
Figure GDA0003071686770000052
Figure GDA0003071686770000053
此外情况,三个坐标小的点必围成一个三角形,如果最高点在三角形里,此时需要求出三个面,以及倾斜角度;否则三个最小点中最相邻的两点分别与最高点可以建立平面,同理求出倾斜角度θ。
步骤四、计算每一个处理块的斜度,通过斜度确定取图个数如式(23)(也可称取图深度)。将深度作为以后使用此平台的参数;相邻深度之间距离为4个单位长度。
Figure GDA0003071686770000061
其中,S为拍摄照片个数。
步骤五、利用当前视野所对应的深度,在焦点位置附近取与深度对应的图片个数如式(24),并将这些图片参考与深度相对应的块数K进行分割。
Figure GDA0003071686770000062
其中,S为深度,K为分割块数。
步骤六、记录每个处理域的参数,在使用平台时,首先将物镜移动至当前视野对应处理域上,根据当前处理域参数S、K获取焦点附近不同深度的图片并切割,对比同一位置小块的灰度值,取清晰的小块融合;融合过程中,将相邻小块的重叠区的灰度值加权平均;这样恢复成完整视野的图像,得到当前视野清晰图像;再完成下一个视野的聚焦。
实施例:
本实施例,基于多深度拍摄图片融合的显微镜聚焦方法具体是按照一下步骤制备的:
此发明应用到我们自订研发的“癌细胞自动检测系统”中,该系统由PC机、全自动显微镜、全高清摄像机、以及软件组成。
该系统中的自动扫描部分应用的是上述的发明“显微镜聚焦方法”,首先使用者先将准备好的带有组织样本的载玻片放置在载物台上,调节适当光照并启动软件进行扫描,具体步骤如下:
S1、扫描载玻片有效区域,并记录每一个焦点的三维坐标,绘制平台模型。
S2、将载物台的二维模型在x,y坐标系上分成四块区域,在每一块区域上找一个z坐标最大的点p1,和三个z坐标最小的点p2,p3,p4,判断这三个点的位置关系,根据位置关系,取p1与另外相邻的点构成一个平面,计算平面方程以及法向量:
Figure GDA0003071686770000075
Figure GDA0003071686770000076
Figure GDA0003071686770000077
Figure GDA0003071686770000078
其中,所求A,B,C,D为平面方程参数。
求得平面方程:
Ax+By+Cz+D=0
平面方程的法向量:
Figure GDA0003071686770000071
构造z轴方向上的向量:
Figure GDA0003071686770000072
求两向量夹角,即为平面倾斜角θ:
Figure GDA0003071686770000073
S3、计算每一个处理块的斜度θ,通过斜度确定取图个数(也可称取图深度);将深度作为以后使用此平台的参数;相邻深度之间距离为4个单位长度。
Figure GDA0003071686770000074
其中,S为拍摄照片个数。
S4、利用当前视野所对应的深度,在焦点位置附近取与深度对应的图片个数,并将这些图片参考与深度相对应的块数K进行分割;将每一处理域的S和K作为这台显微镜的平台的参数,后续对显微镜的使用都是基于此参数的。
Figure GDA0003071686770000081
其中,S为深度,K为分割块数。
S5、使用平台时,首先将物镜移动至当前视野对应处理域上,根据当前处理域参数S、K获取焦点附近不同深度的图片并切割,对比同一位置小块的灰度值,取清晰的小块融合,恢复成完整视野的图像,得到当前视野清晰图像;图像融合过程如图5,step为步长,picturel为同一视野焦点附近某一深度的图片,picture2为同一视野焦点附近另一深度的图片,假设当前平台参数S=5,K=6,对比相同位置的图片块的清晰度,分别取最清晰的块融合在一起;融合过程中,将相邻小块的重叠区的灰度值加权平均,得到清晰图像;再使用同样方法扫描下一个视野,直至扫描完成规定的全部视野。
算法总流程图,如图6所示。
在不背离本发明精神及其实质的情况下,本领域研究人员可根据本发明做出相应的变形,但这些相应的变形都应属于本发明所附的权利要求的保护范围。

Claims (3)

1.基于图像融合的显微镜聚焦方法,其特征在于,包含步骤如下:
S1、建立载物台三维模型;
S2、划分处理区域;
S3、确定取图深度;
S4、确定分块数;
S5、取每一位置最清晰的图片块,并融合;
所述步骤S1包括:扫描载玻片有效区域,并记录每一个焦点的三维坐标,绘制载物台三维模型;所述步骤S2包括:将载物台的三维模型在x,y坐标系上分成四块区域,在每一块区域上找一个z坐标最大的点p1,和三个z坐标最小的点p2,p3,p4,判断这三个点的位置关系,如果三个点在一条直线,这条直线与最高点可以确定一个平面,计算平面方程如公式(1)-(5),以及法向量如式(6):
Figure FDA0003071686760000011
Figure FDA0003071686760000012
Figure FDA0003071686760000013
Figure FDA0003071686760000014
其中,所求A,B,C,D为平面方程参数;
求得平面方程:
Ax+By+Cz+D=0 (5)平面方程的法向量:
Figure FDA0003071686760000015
利用平面法向量和构造z轴方向上的向量如式(7),计算两向量的夹角,即为平面倾斜角θ;计算角θ如式(8):
Figure FDA0003071686760000016
Figure FDA0003071686760000017
其中
Figure FDA0003071686760000018
是z轴方向上的向量;此外情况,三个坐标小的点必围成一个三角形,如果最高点在三角形里,此时需要求出三个面,以及倾斜角度;否则三个最小点中最相邻的两点分别与最高点可以建立平面,同理求出倾斜角度θ;记录每一个斜面区域的位置,以便使用此平台时直接根据斜面方程求出焦点z轴坐标,找到焦点位置,再根据下面的步骤求出来的参数分割并融合处理;
所述步骤S5包括:对比同一位置不同深度的图片块的清晰度,取每一位置最清晰的小块碎片进行融合;融合过程中,将相邻小块的重叠区的灰度值加权平均;恢复成完整视野的图像,得到当前视野清晰图像。
2.如权利要求1所述的基于图像融合的显微镜聚焦方法,其特征在于,步骤S3包括:计算每一个处理域的斜度θ,单位是角度;通过斜度确定取图个数,也称取图深度,如式(9);将深度作为以后使用此平台的参数;相邻深度之间距离为4个单位长度;
Figure FDA0003071686760000021
其中,S为拍摄照片个数。
3.如权利要求1所述的基于图像融合的显微镜聚焦方法,其特征在于,所述步骤S4包括:利用当前视野所对应的深度,在焦点位置附近取与深度对应的图片个数,如式(10),并将这些图片参考与深度相对应的块数K进行分割;将S和K作为这台显微镜的平台的参数,后续对显微镜的使用都是基于此参数的;
Figure FDA0003071686760000022
其中,S为深度,K为分割块数。
CN201811028727.5A 2018-09-05 2018-09-05 基于图像融合的显微镜聚焦方法 Active CN109001902B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811028727.5A CN109001902B (zh) 2018-09-05 2018-09-05 基于图像融合的显微镜聚焦方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811028727.5A CN109001902B (zh) 2018-09-05 2018-09-05 基于图像融合的显微镜聚焦方法

Publications (2)

Publication Number Publication Date
CN109001902A CN109001902A (zh) 2018-12-14
CN109001902B true CN109001902B (zh) 2021-07-16

Family

ID=64591073

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811028727.5A Active CN109001902B (zh) 2018-09-05 2018-09-05 基于图像融合的显微镜聚焦方法

Country Status (1)

Country Link
CN (1) CN109001902B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110927158B (zh) * 2019-10-31 2022-07-05 湖南爱威医疗科技有限公司 图像采集方法和装置、显微镜系统、计算机可读存储介质
CN111735768B (zh) * 2020-07-31 2020-12-08 武汉精立电子技术有限公司 一种Micro LED屏幕的显微成像方法及装置
CN112415733B (zh) * 2020-12-11 2024-01-09 平湖莱顿光学仪器制造有限公司 控制显微镜拍摄试样图像的方法、系统、设备及介质
CN113256717B (zh) * 2021-05-08 2022-01-21 华南师范大学 一种细胞涂片辅助分析方法和系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101630061A (zh) * 2009-08-17 2010-01-20 公安部物证鉴定中心 工具痕迹光学共聚焦三维数据采集系统及其采集方法
JP2010181782A (ja) * 2009-02-09 2010-08-19 Mitsutoyo Corp オートフォーカス装置
EP2378341A1 (de) * 2010-04-15 2011-10-19 Mmi Ag Verfahren zur kollisionsfreien Positionierung eines Mikromanipulationswerkzeugs
CN103163638A (zh) * 2011-12-09 2013-06-19 姚伯元 基于样品测定面平面方程的显微镜自动对焦方法
CN104730702A (zh) * 2015-03-16 2015-06-24 苏州创继生物科技有限公司 显微扫描平台、拍摄方法以及工作区域平面度校准方法
CN105334612A (zh) * 2015-12-18 2016-02-17 苏州创继生物科技有限公司 显微扫描平台xy平面的平面度校准方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7330574B2 (en) * 2003-05-08 2008-02-12 Ometrix, Inc. Best-focus estimation by lateral scanning

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010181782A (ja) * 2009-02-09 2010-08-19 Mitsutoyo Corp オートフォーカス装置
CN101630061A (zh) * 2009-08-17 2010-01-20 公安部物证鉴定中心 工具痕迹光学共聚焦三维数据采集系统及其采集方法
EP2378341A1 (de) * 2010-04-15 2011-10-19 Mmi Ag Verfahren zur kollisionsfreien Positionierung eines Mikromanipulationswerkzeugs
CN103163638A (zh) * 2011-12-09 2013-06-19 姚伯元 基于样品测定面平面方程的显微镜自动对焦方法
CN104730702A (zh) * 2015-03-16 2015-06-24 苏州创继生物科技有限公司 显微扫描平台、拍摄方法以及工作区域平面度校准方法
CN105334612A (zh) * 2015-12-18 2016-02-17 苏州创继生物科技有限公司 显微扫描平台xy平面的平面度校准方法

Also Published As

Publication number Publication date
CN109001902A (zh) 2018-12-14

Similar Documents

Publication Publication Date Title
CN109001902B (zh) 基于图像融合的显微镜聚焦方法
JP5154392B2 (ja) 撮像装置
Helmli et al. Adaptive shape from focus with an error estimation in light microscopy
JP6414050B2 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
KR101891364B1 (ko) 현미경 이미징에서의 빠른 오토-포커스
JP6363863B2 (ja) 情報処理装置および情報処理方法
CN109064505B (zh) 一种基于滑动窗口张量提取的深度估计方法
CN109883391B (zh) 基于微透镜阵列数字成像的单目测距方法
JP2014207110A (ja) 観察装置および観察方法
JP2021073489A (ja) 生物試料の向上された被写界深度の合成2d画像を生成するシステム
JP7378219B2 (ja) 撮像装置、画像処理装置、制御方法、及びプログラム
JP2016024052A (ja) 3次元計測システム、3次元計測方法及びプログラム
KR20170141202A (ko) 화상 처리 장치 및 화상 처리 방법
CN111474103A (zh) 一种骨髓细胞载玻片自动聚焦扫描方法及系统
Jiang et al. Blind deblurring for microscopic pathology images using deep learning networks
US20230206416A1 (en) Computer-implemented method for quality control of a digital image of a sample
JP3860540B2 (ja) エントロピーフィルタ及び該フィルタを用いた領域抽出法
JP5149984B2 (ja) 撮像装置
CN115393187A (zh) 一种高自由度的微观图像拼接融合方法及系统
Verhoeven Focusing on out-of-focus: assessing defocus estimation algorithms for the benefit of automated image masking
CN115330684A (zh) 基于双目视觉与线结构光的水下构筑物表观缺陷检测方法
CN114387387A (zh) 高反射率表面彩色三维重建方法、系统、终端及介质
JP2014149381A (ja) 画像取得装置および画像取得方法
JP5209137B2 (ja) 撮像装置
JP5648366B2 (ja) 顕微鏡制御装置及び領域判定方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant