CN117132646A - 基于深度学习的分裂相自动对焦系统 - Google Patents
基于深度学习的分裂相自动对焦系统 Download PDFInfo
- Publication number
- CN117132646A CN117132646A CN202311399491.7A CN202311399491A CN117132646A CN 117132646 A CN117132646 A CN 117132646A CN 202311399491 A CN202311399491 A CN 202311399491A CN 117132646 A CN117132646 A CN 117132646A
- Authority
- CN
- China
- Prior art keywords
- image
- power mirror
- focusing
- split
- phase
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 27
- 238000000034 method Methods 0.000 claims abstract description 18
- 238000012545 processing Methods 0.000 claims abstract description 8
- 230000000694 effects Effects 0.000 claims abstract description 7
- 238000004364 calculation method Methods 0.000 claims abstract description 6
- 238000013136 deep learning model Methods 0.000 claims abstract description 4
- 238000001514 detection method Methods 0.000 claims description 16
- 238000012549 training Methods 0.000 claims description 11
- 230000000007 visual effect Effects 0.000 claims description 6
- 238000002372 labelling Methods 0.000 claims description 4
- 230000003287 optical effect Effects 0.000 claims description 4
- 210000000349 chromosome Anatomy 0.000 abstract description 2
- 239000000523 sample Substances 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 210000004027 cell Anatomy 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 210000001519 tissue Anatomy 0.000 description 2
- 210000004381 amniotic fluid Anatomy 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000012472 biological sample Substances 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000003834 intracellular effect Effects 0.000 description 1
- 238000000399 optical microscopy Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 210000005259 peripheral blood Anatomy 0.000 description 1
- 239000011886 peripheral blood Substances 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/36—Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
- G02B21/365—Control or image processing arrangements for digital or video microscopes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/28—Systems for automatic generation of focusing signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/766—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/695—Preprocessing, e.g. image segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/698—Matching; Classification
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Optics & Photonics (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Microscoopes, Condenser (AREA)
- Automatic Focus Adjustment (AREA)
Abstract
本发明提供一种基于深度学习的分裂相自动对焦系统,主要应用于低倍镜染色体分裂相扫描对焦拍摄,包括:图像采集模块,用于采集低倍镜和高倍镜下的显微图像;图像处理计算模块,用于将采集来的显微图像,输入到训练好的深度学习模型预测出最佳对焦参数;机械移动模块,用于将样品移动到预测的最佳对焦参数位置;图像存储模块,用于拍摄保存最清晰对焦图像;即对焦完成后进行图像采集与存储的流程;用户模块,用于提供图像浏览和相关操作界面。本发明推动了显微图像的自动化获得,使显微镜的应用更加便利高效,效果更佳,具有重要的技术进步意义。
Description
技术领域
本发明涉及医学人工智能技术领域,尤其涉及一种基于深度学习的分裂相自动对焦系统。
背景技术
在生物医学研究中,光学显微镜是一种非常重要的观察和分析细胞及组织的工具。为了获得清晰的显微图像,需要精确调节光学系统的焦平面与样本平面重合,这需要有经验的操作者通过反复调节完成。而对一些细胞内结构,如染色体在分裂期的图像,传统的自动对焦系统效果并不理想。
随着深度学习技术的发展,诸如卷积神经网络等能够对复杂图像进行特征提取和分析的算法得到大力提升。这为利用深度学习来进行复杂图像的对焦点预测以及自动对焦提供了可能。与规则方法相比,深度学习可以自主学习样本的特征,对复杂细胞和组织结构的图像也能给出较优的对焦点预测。
另一方面,显微镜系统的辅助设备,如精确电机驱动的XY移动台、Z轴定位装置等硬件性能也得到改进。这为根据预测结果自动控制光学路径的硬件基础。因此,深度学习与显微镜自动化系统的发展为使用人工智能实现自动对焦提供了技术基础。
现有的自动对焦系统存在依赖规则难以适应复杂样本、定位困难、对焦速度慢等问题。因此开发一种新的基于深度学习的自动对焦显微镜系统,实现无人参与下快速精确对焦显微成像,将大大增强显微技术的易用性和效率,具有重要的研究意义和应用前景。
目前,自动对焦技术主要有以下两类:
(1)基于图像处理的方法:计算整幅图像的清晰度,搜索最佳对焦点。代表性技术有Sobel边缘检测法、灰度idency法等。
(2)基于结构光的方法:使用额外的激光系统,根据其在样本上的反射来确定距离。典型技术如激光雷达等。
上述现有技术存在以下问题:
(1)依赖规则和经验,难以适应样本的复杂性;
(2)计算量大,对焦速度较慢(传统方法是在一个预定的Z轴范围内等间距拍摄多张图片,比如在50-70μm区间内拍摄25);
(3)定位和搜索范围设定不当时容易漏判(比如在50-70μm区间内不存在最佳对焦面);
(4)需要额外的光学装置,系统复杂等。
现有自动对焦技术效果和效率有限,无法满足对复杂生物样本高效、精确对焦的需求。这需要一种新的对焦方法来克服上述问题,以提高显微图像的获得。
发明内容
本发明的目的在于提供一种基于深度学习的分裂相自动对焦系统,该系统直接在高倍镜下识别定位,预测出分裂相的偏离位置x、y,以及对焦距离z,避免了移动误差;本发明通过两张对焦图以及两张图之间的对焦距离,得到最佳的对焦参数,从而节省对焦时间,以及提高对焦精度,不会因为设置的范围问题导致丢失最佳对焦平面。
本申请提供了一种基于深度学习的分裂相自动对焦系统,包括:
图像采集模块,用于采集低倍镜和高倍镜下的显微图像;
具体来说,显示从放置样本开始,调整镜头,进行Z轴扫描,获取不同位置图像等图像采集流程;
图像处理计算模块,用于将采集来的显微图像,输入到训练好的深度学习模型预测出最佳对焦参数;
具体来说,展示获取图像后进入深度学习网络,网络输出对焦参数,进行参数解析的图像处理流程;
机械移动模块,用于将样品移动到预测的最佳对焦参数位置;
具体来说,根据图像处理结果,精确移动对焦平面到视野中心,调节Z轴到预测焦距,实现对焦闭环的控制流程;
图像存储模块,用于拍摄保存最清晰对焦图像;即对焦完成后进行图像采集与存储的流程;
用户模块,用于提供图像浏览和相关操作界面;
所述的分裂相自动对焦系统的实施过程如下:首先,低倍镜拍摄全景图输入到深度学习检测模型,找到分裂相位置,并移动镜头组对准分裂相,再切换到高倍镜,Z轴移动到预设初位置Z0,拍摄第一张高倍镜图像,在Z轴向下移动一定距离到Z1,拍摄第二张高倍镜图像,将两图像及其Z移动距离输入深度学习回归模型,预测最佳对焦平面z和x、y坐标;根据预测的对焦平面z和x、y坐标,机械系统移动镜头到预测的最佳对焦位置,拍摄保存最清晰对焦图像。
进一步地,所述的图像采集模块包括显微镜本体模块和数字相机,所述显微镜本体模块采用光学显微镜,可切换不同倍数物镜,进行样品成像;所述数字相机用于拍摄低倍镜和高倍镜下的显微图像。
进一步地,所述的深度学习检测模型采用低倍镜检测模型,所述低倍镜检测模型用于检测在低倍镜图中分裂相的位置;
所述的深度学习回归模型采用高倍镜回归模型,所述高倍镜回归模型用于回归对焦平面和高倍镜中分裂相位置。
进一步地,所述分裂相自动对焦系统的具体实施步骤如下:
切换到低倍镜,拍摄全景图,输入到低倍镜检测模型找到分裂相位置;
机械系统移动镜头组对准分裂相,切换到高倍镜;可以避免传统方法依赖低倍镜定位,容易出现移动过程中分裂相漂移、偏离视野,无法进行对焦,图像不清晰等的问题,本发明直接在高倍镜下识别定位,避免了移动误差,确保图像清晰;
Z轴移动到预设初位置Z0,拍摄第一张高倍镜图像;
Z轴向下移动一定距离到Z1,拍摄第二张高倍镜图像;
将两图像及其Z移动距离输入高倍镜回归模型,预测最佳对焦平面z和x、y坐标;本发明通过两张对焦图以及两张图之间的对焦距离,得到最佳的对焦参数,从而节省对焦时间和提高对焦精度,不会因为设置的范围问题导致丢失最佳对焦平面;
机械系统移动样品到预测的最佳对焦位置;
拍摄保存最清晰对焦图像;
用户可以浏览获得的高分辨率对焦图像。
进一步地,所述的低倍镜检测模型的训练步骤为:
(1)收集多种类型样品的低倍镜图像;
(2)由专业人员标注图像中的分裂相位置和质量;
(3)标注数据输入低倍镜检测模型进行训练,使其能够定位不同样本的分裂相;
(4)得到训练好的模型,可用于自动定位最佳的分裂相。
进一步地,所述的高倍镜回归模型训练步骤为:
(1)收集同一视野不同对焦平面高倍镜图像及其 Z 轴距离;
(2)标注最佳对焦面距离和对应的分裂相中心坐标;
(3)不同对焦面图像及距离作为输入,最佳距离和坐标作为标签进行回归模型训练;
(4)得到训练好的模型,可预测高倍镜下最佳对焦参数。
进一步地,所述的机械移动模块采用精密的电动驱动器,实现镜头和样品的X、Y、Z方向移动。
进一步地,所述的图像存储模块对采集图像进行数字化存储。
本发明的有益效果:
1、实现了无人参与下的全自动对焦和成像操作,大幅简化了显微镜的使用难度;
2、基于深度学习的对焦参数预测更加准确和智能,适应不同样本;
3、直接在高倍镜下进行预测,避免了低倍到高倍的定位偏移,使得分裂相能在成像视野中心位置;
4、可以直接预测最佳对焦面位置,避免经验设置的范围限制;
5、计算速度快,对焦时间大大缩短,效率显著提升;减少了大量不必要的多次拍照,降低了图像存储和处理需求,
6、允许连续优化和改进算法模型,对焦效果持续进步;
7、扩大了自动对焦技术的应用范围,可广泛应用于生物医学等领域;
8、显著改进了显微镜对焦与成像的效率和效果,提升了研究工作的产出;
9、为各类显微观察和分析提供了强大的技术支持,促进相关领域技术进步;
综上,该发明推动了显微图像的自动化获得,使显微镜的应用更加便利高效,效果更佳,具有重要的技术进步意义。
附图说明
为了能更进一步了解本发明的特征以及技术内容,请参阅以下有关本发明的详细说明与附图,然而附图仅提供参考与说明用,并非用来对本发明加以限制。
图1为本发明的系统模块结构图;
图2为发明的操作流程图;
图3为发明的分裂相自动对焦流程图;
图4为本发明实施例输入的第一张高倍镜图像;
图5为本发明实施例输入的第二张高倍镜图像;
图6为本发明实施例输出的高分辨率对焦图像。
具体实施方式
为更进一步阐述本发明所采取的技术手段及其效果,以下结合本发明的优选实施例及其附图进行详细描述。
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在本申请的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“长度”、“宽度”、“厚度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本申请和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本申请的限制。此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个特征。在本申请的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
在本申请中,“示例性”一词用来表示“用作例子、例证或说明”。本申请中被描述为“示例性”的任何实施例不一定被解释为比其他实施例更优选或更具优势。为了使本领域任何技术人员能够实现和使用本申请,给出了以下描述。在以下描述中,为了解释的目的而列出了细节。应当明白的是,本领域普通技术人员可以认识到,在不使用这些特定细节的情况下也可以实现本申请。在其他实例中,不会对公知的结构和过程进行详细阐述,以避免不必要的细节使本申请的描述变得晦涩。因此,本申请并非旨在限于所示的实施例,而是与符合本申请所公开的原理和特征的最广范围相一致。
实施例
请参阅图1-6,本发明提供一种基于深度学习的分裂相自动对焦系统,包括:
图像采集模块,用于采集低倍镜和高倍镜下的显微图像;
图像处理计算模块,用于将采集来的显微图像,输入到训练好的深度学习模型预测出最佳对焦参数;
机械移动模块,用于将样品移动到预测的最佳对焦参数位置;
图像存储模块,用于拍摄保存最清晰对焦图像;即对焦完成后进行图像采集与存储的流程;
用户模块,用于提供图像浏览和相关操作界面。
具体实施步骤如下:
S1、切换到低倍镜,拍摄全景图,输入到低倍镜检测模型找到分裂相位置;
S2、机械系统移动镜头组对准分裂相,切换到高倍镜;
S3、Z轴移动到预设初位置Z0,拍摄第一张高倍镜图像;
S4、Z轴向下移动一定距离到Z1,拍摄第二张高倍镜图像;
S5、将两图像及其Z移动距离输入高倍镜回归模型,预测最佳对焦平面z和x、y坐标;
S6、机械系统移动镜头到预测的最佳对焦位置;
S7、拍摄保存最清晰对焦图像;
S8、用户可以浏览获得的高分辨率对焦图像。
其中,低倍镜检测模型训练步骤如下:
(1)收集多种类型样品(外周血、羊水等)的低倍镜图像;
(2)由专业人员标注图像中的分裂相位置和质量;
(3)标注数据输入检测模型进行训练,使其能够定位不同样本的分裂相;
(4)得到训练好的模型,可用于自动定位最佳的分裂相。
高倍镜回归模型训练如下:
(1)收集同一视野不同对焦平面高倍镜图像及其 Z 轴距离;
(2)标注最佳对焦面距离和对应的分裂相中心坐标;
(3)不同对焦面图像及距离作为输入,最佳距离和坐标作为标签进行回归模型训练;
(4)得到训练好的模型,可预测高倍镜下最佳对焦参数。
以上所述的本发明实施方式并不构成对本发明保护范围的限定。
Claims (8)
1.一种基于深度学习的分裂相自动对焦系统,其特征在于,包括:
图像采集模块,用于采集低倍镜和高倍镜下的显微图像;
图像处理计算模块,用于将采集来的显微图像,输入到训练好的深度学习模型预测出最佳对焦参数;
机械移动模块,用于将样品移动到预测的最佳对焦参数位置;
图像存储模块,用于拍摄保存最清晰对焦图像;
用户模块,用于提供图像浏览和相关操作界面;
所述的分裂相自动对焦系统的实施过程如下:首先,低倍镜拍摄全景图输入到深度学习检测模型,找到分裂相位置,并移动镜头组对准分裂相,再切换到高倍镜,Z轴移动到预设初位置Z0,拍摄第一张高倍镜图像,在Z轴向下移动一定距离到Z1,拍摄第二张高倍镜图像,将两图像及其Z移动距离输入深度学习回归模型,预测最佳对焦平面z和x、y坐标;根据预测的对焦平面z和x、y坐标,机械系统移动镜头到预测的最佳对焦位置,拍摄保存最清晰对焦图像。
2.如权利要求1所述的一种基于深度学习的分裂相自动对焦系统,其特征在于,所述的图像采集模块包括显微镜本体模块和数字相机,所述显微镜本体模块采用光学显微镜,可切换不同倍数物镜,进行样品成像;所述数字相机用于拍摄低倍镜和高倍镜下的显微图像。
3.如权利要求1所述的一种基于深度学习的分裂相自动对焦系统,其特征在于,所述的深度学习检测模型采用低倍镜检测模型,所述低倍镜检测模型用于检测在低倍镜图中分裂相的位置;
所述的深度学习回归模型采用高倍镜回归模型,所述高倍镜回归模型用于回归对焦平面和高倍镜中分裂相位置。
4.如权利要求3所述的一种基于深度学习的分裂相自动对焦系统,其特征在于,所述分裂相自动对焦系统的具体实施步骤如下:
切换到低倍镜,拍摄全景图,输入到低倍镜检测模型找到分裂相位置;
机械系统移动镜头组对准分裂相,切换到高倍镜;
Z轴移动到预设初位置Z0,拍摄第一张高倍镜图像;
Z轴向下移动一定距离到Z1,拍摄第二张高倍镜图像;
将两图像及其Z移动距离输入高倍镜回归模型,预测最佳对焦平面z和x、y坐标;
机械系统移动样品到预测的最佳对焦位置;
拍摄保存最清晰对焦图像;
用户可以浏览获得的高分辨率对焦图像。
5.如权利要求3所述的一种基于深度学习的分裂相自动对焦系统,其特征在于,所述的低倍镜检测模型的训练步骤为:
(1)收集多种类型样品的低倍镜图像;
(2)由专业人员标注图像中的分裂相位置和质量;
(3)标注数据输入低倍镜检测模型进行训练,使其能够定位不同样本的分裂相;
(4)得到训练好的模型,可用于自动定位最佳的分裂相。
6.如权利要求3所述的一种基于深度学习的分裂相自动对焦系统,其特征在于,所述的高倍镜回归模型训练步骤为:
(1)收集同一视野不同对焦平面高倍镜图像及其 Z 轴距离;
(2)标注最佳对焦面距离和对应的分裂相中心坐标;
(3)不同对焦面图像及距离作为输入,最佳距离和坐标作为标签进行回归模型训练;
(4)得到训练好的模型,可预测高倍镜下最佳对焦参数。
7.如权利要求1所述的一种基于深度学习的分裂相自动对焦系统,其特征在于,所述的机械移动模块采用精密的电动驱动器,实现镜头和样品的X、Y、Z方向移动。
8.如权利要求1所述的一种基于深度学习的分裂相自动对焦系统,其特征在于,所述的图像存储模块对采集图像进行数字化存储。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311399491.7A CN117132646B (zh) | 2023-10-26 | 2023-10-26 | 基于深度学习的分裂相自动对焦系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311399491.7A CN117132646B (zh) | 2023-10-26 | 2023-10-26 | 基于深度学习的分裂相自动对焦系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117132646A true CN117132646A (zh) | 2023-11-28 |
CN117132646B CN117132646B (zh) | 2024-01-05 |
Family
ID=88854973
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311399491.7A Active CN117132646B (zh) | 2023-10-26 | 2023-10-26 | 基于深度学习的分裂相自动对焦系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117132646B (zh) |
Citations (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0854557A (ja) * | 1994-08-09 | 1996-02-27 | Nikon Corp | カメラのオートフォーカス装置 |
WO2002063367A1 (en) * | 2001-02-02 | 2002-08-15 | Cellomics, Inc. | Method for estimating the best initial focus position |
US20100177187A1 (en) * | 2007-03-08 | 2010-07-15 | Sven Hedlund | Method for determining an in-focus position and a vision inspection system |
CN108111768A (zh) * | 2018-01-31 | 2018-06-01 | 广东欧珀移动通信有限公司 | 控制对焦的方法、装置、电子设备及计算机可读存储介质 |
CN110531484A (zh) * | 2019-07-24 | 2019-12-03 | 中国地质大学(武汉) | 一种对焦过程模型可设定的显微镜自动对焦方法 |
US20200074653A1 (en) * | 2018-08-31 | 2020-03-05 | Kun Duan | Active image depth prediction |
CN111007661A (zh) * | 2019-12-02 | 2020-04-14 | 湖南国科智瞳科技有限公司 | 一种基于深度学习的显微图像自动聚焦方法及装置 |
CN112037185A (zh) * | 2020-08-21 | 2020-12-04 | 湖南自兴智慧医疗科技有限公司 | 染色体分裂相图像筛选方法、装置及终端设备 |
WO2020259474A1 (zh) * | 2019-06-28 | 2020-12-30 | Oppo广东移动通信有限公司 | 追焦方法、装置、终端设备、计算机可读存储介质 |
CN112333379A (zh) * | 2020-09-17 | 2021-02-05 | 北京迈格威科技有限公司 | 图像对焦方法、装置及图像采集设备 |
US20210042575A1 (en) * | 2019-08-08 | 2021-02-11 | Nvidia Corporation | Domain Restriction of Neural Networks Through Synthetic Data Pre-Training |
WO2021136050A1 (zh) * | 2019-12-31 | 2021-07-08 | 华为技术有限公司 | 一种图像拍摄方法及相关装置 |
US20210319537A1 (en) * | 2020-04-10 | 2021-10-14 | Canon Kabushiki Kaisha | Image processing method, image processing apparatus, image processing system, and memory medium |
US20220028116A1 (en) * | 2018-11-20 | 2022-01-27 | Leica Microsystems Cms Gmbh | Learning autofocus |
US20220046180A1 (en) * | 2020-08-07 | 2022-02-10 | Nanotronics Imaging, Inc. | Deep Learning Model for Auto-Focusing Microscope Systems |
US20220284611A1 (en) * | 2021-03-08 | 2022-09-08 | Toyota Research Institute, Inc. | Range detection using machine learning combined with camera focus |
US20220368877A1 (en) * | 2021-05-13 | 2022-11-17 | Canon Kabushiki Kaisha | Image processing method, image processing apparatus, storage medium, manufacturing method of learned model, and image processing system |
US20220375042A1 (en) * | 2020-11-13 | 2022-11-24 | Google Llc | Defocus Blur Removal and Depth Estimation Using Dual-Pixel Image Data |
CN115496761A (zh) * | 2022-11-17 | 2022-12-20 | 湖南自兴智慧医疗科技有限公司 | 基于ae的低倍镜分裂相筛图方法、系统及存储介质 |
US20230085827A1 (en) * | 2020-03-20 | 2023-03-23 | The Regents Of The University Of California | Single-shot autofocusing of microscopy images using deep learning |
CN116149041A (zh) * | 2023-02-20 | 2023-05-23 | 华中科技大学无锡研究院 | 一种基于深度学习的裂像自动对焦方法 |
CN116309192A (zh) * | 2023-05-22 | 2023-06-23 | 深圳赛陆医疗科技有限公司 | 基因测序图像对焦矫正方法及装置、设备、存储介质 |
CN116612092A (zh) * | 2023-05-25 | 2023-08-18 | 浙江农林大学 | 一种基于改进的MobileViT网络的显微镜图像清晰度评价方法 |
CN116931247A (zh) * | 2023-06-16 | 2023-10-24 | 宁波永新光学股份有限公司 | 一种面向多区域切片扫描的快速对焦方法 |
-
2023
- 2023-10-26 CN CN202311399491.7A patent/CN117132646B/zh active Active
Patent Citations (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0854557A (ja) * | 1994-08-09 | 1996-02-27 | Nikon Corp | カメラのオートフォーカス装置 |
WO2002063367A1 (en) * | 2001-02-02 | 2002-08-15 | Cellomics, Inc. | Method for estimating the best initial focus position |
US20100177187A1 (en) * | 2007-03-08 | 2010-07-15 | Sven Hedlund | Method for determining an in-focus position and a vision inspection system |
CN108111768A (zh) * | 2018-01-31 | 2018-06-01 | 广东欧珀移动通信有限公司 | 控制对焦的方法、装置、电子设备及计算机可读存储介质 |
US20200074653A1 (en) * | 2018-08-31 | 2020-03-05 | Kun Duan | Active image depth prediction |
US20220028116A1 (en) * | 2018-11-20 | 2022-01-27 | Leica Microsystems Cms Gmbh | Learning autofocus |
WO2020259474A1 (zh) * | 2019-06-28 | 2020-12-30 | Oppo广东移动通信有限公司 | 追焦方法、装置、终端设备、计算机可读存储介质 |
CN110531484A (zh) * | 2019-07-24 | 2019-12-03 | 中国地质大学(武汉) | 一种对焦过程模型可设定的显微镜自动对焦方法 |
US20210042575A1 (en) * | 2019-08-08 | 2021-02-11 | Nvidia Corporation | Domain Restriction of Neural Networks Through Synthetic Data Pre-Training |
CN111007661A (zh) * | 2019-12-02 | 2020-04-14 | 湖南国科智瞳科技有限公司 | 一种基于深度学习的显微图像自动聚焦方法及装置 |
WO2021136050A1 (zh) * | 2019-12-31 | 2021-07-08 | 华为技术有限公司 | 一种图像拍摄方法及相关装置 |
US20230085827A1 (en) * | 2020-03-20 | 2023-03-23 | The Regents Of The University Of California | Single-shot autofocusing of microscopy images using deep learning |
US20210319537A1 (en) * | 2020-04-10 | 2021-10-14 | Canon Kabushiki Kaisha | Image processing method, image processing apparatus, image processing system, and memory medium |
US20220046180A1 (en) * | 2020-08-07 | 2022-02-10 | Nanotronics Imaging, Inc. | Deep Learning Model for Auto-Focusing Microscope Systems |
CN112037185A (zh) * | 2020-08-21 | 2020-12-04 | 湖南自兴智慧医疗科技有限公司 | 染色体分裂相图像筛选方法、装置及终端设备 |
CN112333379A (zh) * | 2020-09-17 | 2021-02-05 | 北京迈格威科技有限公司 | 图像对焦方法、装置及图像采集设备 |
US20220375042A1 (en) * | 2020-11-13 | 2022-11-24 | Google Llc | Defocus Blur Removal and Depth Estimation Using Dual-Pixel Image Data |
US20220284611A1 (en) * | 2021-03-08 | 2022-09-08 | Toyota Research Institute, Inc. | Range detection using machine learning combined with camera focus |
US20220368877A1 (en) * | 2021-05-13 | 2022-11-17 | Canon Kabushiki Kaisha | Image processing method, image processing apparatus, storage medium, manufacturing method of learned model, and image processing system |
CN115496761A (zh) * | 2022-11-17 | 2022-12-20 | 湖南自兴智慧医疗科技有限公司 | 基于ae的低倍镜分裂相筛图方法、系统及存储介质 |
CN116149041A (zh) * | 2023-02-20 | 2023-05-23 | 华中科技大学无锡研究院 | 一种基于深度学习的裂像自动对焦方法 |
CN116309192A (zh) * | 2023-05-22 | 2023-06-23 | 深圳赛陆医疗科技有限公司 | 基因测序图像对焦矫正方法及装置、设备、存储介质 |
CN116612092A (zh) * | 2023-05-25 | 2023-08-18 | 浙江农林大学 | 一种基于改进的MobileViT网络的显微镜图像清晰度评价方法 |
CN116931247A (zh) * | 2023-06-16 | 2023-10-24 | 宁波永新光学股份有限公司 | 一种面向多区域切片扫描的快速对焦方法 |
Non-Patent Citations (3)
Title |
---|
CHARLES HERRMANN 等: ""Learning to Autofocus"", 《ARXIV.ORG》, pages 1 - 23 * |
TATHAGATO RAI DASTIDAR 等: "Automated focus distance estimation for digital microscopy using deep convolutional neural networks", 《IEEE》, pages 1 - 8 * |
金哲彦;徐之海;冯华君;李奇;: "基于对焦清晰度的双分辨相机变焦算法研究", 红外与激光工程, no. 05, pages 125 - 133 * |
Also Published As
Publication number | Publication date |
---|---|
CN117132646B (zh) | 2024-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109085695B (zh) | 一种用于平面样本快速对焦拍照的方法 | |
US11813759B2 (en) | Intelligent micromanipulation system based on machine vision | |
WO2021057422A1 (zh) | 显微镜系统、智能医疗设备、自动对焦方法和存储介质 | |
CN109873948A (zh) | 一种光学显微镜智能自动聚焦方法、设备及存储设备 | |
CN105785561B (zh) | 一种数字显微镜及其聚焦方法 | |
CN109272575B (zh) | 一种提高数字切片扫描仪建模速度的方法 | |
US10812701B2 (en) | High-speed tag lens assisted 3D metrology and extended depth-of-field imaging | |
CN112507969A (zh) | 显微图像细胞自动定位方法 | |
CN114785959B (zh) | 荧光显微镜的自动聚焦方法、装置、存储介质及电子设备 | |
CN113777769B (zh) | 一种显微仪器自动调焦方法、装置、智能终端及存储介质 | |
CN111505816A (zh) | 高通量电子显微镜成像方法及系统 | |
CN117170081A (zh) | 一种基于图像清晰度识别的自动对焦方法 | |
JP3631304B2 (ja) | 顕微鏡の自動焦点整合装置 | |
CN117132646B (zh) | 基于深度学习的分裂相自动对焦系统 | |
EP3223054A1 (en) | Microscope system and specimen observation method | |
CN117233921A (zh) | 一种用于荧光成像设备的自动对焦方法 | |
CN114967093B (zh) | 一种基于显微高光谱成像平台的自动对焦方法及系统 | |
CN205920270U (zh) | 用于高速显微扫描的动态对焦装置 | |
CN114815211A (zh) | 一种基于图像处理的显微镜自动对焦方法及系统 | |
CN112887604A (zh) | 一种干细胞图像采集方法、装置、系统及介质 | |
CN104935798A (zh) | 一种精密数控实验动物图像采集装置 | |
CN218630340U (zh) | 用于便携式显微扫描仪的载物平台 | |
CN218824959U (zh) | 显微镜玻片自动扫描拍照系统 | |
CN110716301B (zh) | 一种用于显微视觉系统的自动对焦装置及方法 | |
CN213633978U (zh) | 用于样本检测设备的显微镜机构 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |