CN117576121A - 一种显微镜扫描区域自动分割方法、系统、设备及介质 - Google Patents
一种显微镜扫描区域自动分割方法、系统、设备及介质 Download PDFInfo
- Publication number
- CN117576121A CN117576121A CN202311705156.5A CN202311705156A CN117576121A CN 117576121 A CN117576121 A CN 117576121A CN 202311705156 A CN202311705156 A CN 202311705156A CN 117576121 A CN117576121 A CN 117576121A
- Authority
- CN
- China
- Prior art keywords
- target area
- area
- image
- target
- scanned
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000011218 segmentation Effects 0.000 title claims abstract description 31
- 238000007781 pre-processing Methods 0.000 claims abstract description 20
- 238000012549 training Methods 0.000 claims description 20
- 238000012360 testing method Methods 0.000 claims description 14
- 238000001914 filtration Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 9
- 238000012937 correction Methods 0.000 claims description 6
- 239000011521 glass Substances 0.000 claims description 2
- 230000004044 response Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 7
- 239000000523 sample Substances 0.000 description 23
- 230000008569 process Effects 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 4
- 239000000090 biomarker Substances 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000012472 biological sample Substances 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10056—Microscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及一种显微镜扫描区域自动分割方法、系统、设备及介质,属于医学图像处理技术领域。其中,方法包括:获取显微镜扫描平台上的样本玻片的玻片图像;对所述玻片图像进行图像预处理;将所述预处理后的玻片图像输入至预先训练的图像识别模型中,识别得到第一目标区域;将所述预处理后的玻片图像进行阈值分割,得到第二目标区域;根据所述第一目标区域和所述第二目标区域,确定待扫描区域。本申请能够有效地区分待扫描区域与背景区域,提高了扫描效率和精度。
Description
技术领域
本申请涉及医学图像处理技术领域,尤其是涉及一种显微镜扫描区域自动分割方法、系统、设备及介质。
背景技术
在现代医学研究和诊断中,显微镜扫描技术扮演着至关重要的角色。显微镜下的样本通常被制成玻片,以便进行细节观察和图像记录。但是,在显微镜扫描过程中存在一个效率问题:样本的关键区域通常只占玻片的一小部分,如果系统扫描了整个玻片,将导致扫描时间显著增加,并生成大量非关键区域图像数据,从而不必要地增加了数据存储与处理的负担。
目前,常见的技术方案通常采用两种方法:自动识别目标区域或手动标记目标区域。其中,自动识别方法通常需要依赖大量的先验数据来训练算法识别特定的目标特征,但是由于生物样本的多样性和复杂性,自动识别系统可能无法准确发现所有目标区域,或者不能全面覆盖目标区域,导致潜在的信息遗漏;而手动标记目标区域虽然可以提高识别的准确性,但过程繁琐且效率低下,较为依赖操作者的专业知识与经验。
发明内容
为了提高扫描效率和准确性,本申请提供了一种显微镜扫描区域自动分割方法、系统、设备及介质。
第一方面,本申请提供一种显微镜扫描区域自动分割方法,采用如下的技术方案:
一种显微镜扫描区域自动分割方法,所述方法包括:
获取显微镜扫描平台上的样本玻片的玻片图像;
对所述玻片图像进行图像预处理;
将所述预处理后的玻片图像输入至预先训练的图像识别模型中,识别得到第一目标区域;
将所述预处理后的玻片图像进行阈值分割,得到第二目标区域;
根据所述第一目标区域和所述第二目标区域,确定待扫描区域。
通过采用上述技术方案,在得到显微镜扫描平台上的样本玻片的玻片图像后,通过图像预处理步骤提升图像质量,再结合模型识别和阈值分割两种方式所得到的目标区域结果确定待扫描区域,通过确保最终待扫描的区域包括所有相关的目标区域结果,减少了自动识别的误差造成目标区域获取不准确或信息遗漏的情况,能够有效地区分待扫描区域与背景区域,提高了扫描效率和精度。
可选的,图像预处理的步骤包括图像增强、噪声滤波和色彩校正。
可选的,所述方法还包括对所述图像识别模型进行训练的步骤,所述训练的步骤包括:
获取样本数据集;其中,所述样本数据集包括多个预先标注有目标区域的样本图像数据;
将所述样本数据集进行预处理,并划分为训练集和测试集;
将所述训练集输入至预先构建的算法模型中进行训练,得到图像识别模型;
基于所述测试集对所述图像识别模型进行测试,并对所述图像识别模型的参数进行校正,得到训练后的图像识别模型。
通过采用上述技术方案,基于预先标注有目标区域的样本图像数据对算法模型进行训练,利用未参加建模的测试集数据对所建模型进行测试,以了解模型的分类性能和泛化能力,从而便于对图像识别模型进行参数校正,即可得到最优的图像识别模型,从而提高了目标区域识别的准确性。
可选的,根据所述第一目标区域和所述第二目标区域,确定待扫描区域的步骤包括:
将所述第一目标区域和所述第二目标区域进行对比,判断所述第一目标区域是否完全覆盖所述第二目标区域;若是,则将所述第一目标区域作为待扫描区域。
通过采用上述技术方案,对第一目标区域和第二目标区域进行比较,当第一目标区域完全覆盖第二目标区域时,则采用第一目标区域作为最终待扫描区域以确保覆盖全部的目标区域,从而保证不丢失任何潜在的目标区域。
可选的,判断所述第一目标区域是否完全覆盖所述第二目标区域的步骤之后,还包括:
响应于所述第一目标区域未完全覆盖所述第二目标区域的判断结果,将所述第二目标区域中未与所述第一目标区域重叠的各个区域作为第三目标区域;
将各个所述第三目标区域分别与所述第一目标区域进行颜色特征比较,得到各个所述第三目标区域与第一目标区域的颜色特征差异值;
将所述颜色特征差异值小于预设差异阈值的第三目标区域合并至所述第一目标区域并作为待扫描区域。
通过采用上述技术方案,当第一目标区域未完全覆盖第二目标区域时,则表示模型识别结果所划分的背景区域中可能存在未被模型识别到的潜在目标区域,因此,将第二目标区域中未与第一目标区域重叠的各个区域作为第三目标区域,并将各个第三目标区域分别与第一目标区域进行颜色特征比较,当颜色特征差异值小于该预设差异阈值时,则认为该第三目标区域与第一目标区域足够相似,应当保留合并;当颜色特征差异值大于或等于该预设差异阈值时,则直接剔除;通过对第一目标区域进行潜在区域的合并,以确保最终扫描的区域既包括所有相关的目标区域,又尽可能剔除无关的背景区域,从而减小误差,进一步提高了扫描效率和准确性。
可选的,将各个所述第三目标区域分别与所述第一目标区域进行颜色特征比较,得到各个所述第三目标区域对应的颜色特征差异值的步骤包括:
获取所述第一目标区域和各个所述第三目标区域的颜色特征均值;
基于预设颜色特征权重,根据所述第一目标区域与各个所述第三目标区域的颜色特征均值分别计算加权欧式距离,得到各个所述第三目标区域对应的颜色特征差异值。
通过采用上述技术方案,在背景与目标颜色特征相差显著时,可以有效地分割并识别出潜在目标区域,提高处理效率和准确性。
可选的,将所述颜色特征差异值小于预设差异阈值的第三目标区域合并至所述第一目标区域并作为待扫描区域的步骤包括:
分别判断各个所述第三目标区域与第一目标区域的颜色特征差异值是否小于预设差异阈值,若是,则将所述颜色特征差异值小于预设差异阈值的第三目标区域进行滤波处理;
将滤波处理后的所述第三目标区域合并至所述第一目标区域并作为待扫描区域。
通过采用上述技术方案,在得到与第一目标区域较为相似的第三目标区域时,由于该第三目标区域为阈值分割得到,因此图像中可能包含噪声,例如由于样本制备不当引起的污点或划痕,通过消除这些噪声有助于提高扫描区域的准确性。
第二方面,本申请提供一种显微镜扫描区域自动分割系统,采用如下的技术方案:
一种显微镜扫描区域自动分割系统,所述系统包括:
图像获取模块,用于获取显微镜扫描平台上的样本玻片的玻片图像;
图像预处理模块,用于对所述玻片图像进行图像预处理;
图像识别模块,用于将所述预处理后的玻片图像输入至预先训练的图像识别模型中,识别得到第一目标区域;
阈值分割模块,用于将所述预处理后的玻片图像进行阈值分割,得到第二目标区域;
待扫描区域确定模块,用于根据所述第一目标区域和所述第二目标区域,确定待扫描区域。
通过采用上述技术方案,结合模型识别和阈值分割两种方式所得到的目标区域结果确定待扫描区域,通过确保最终待扫描的区域包括所有相关的目标区域结果,减少了自动识别的误差造成目标区域获取不准确或信息遗漏的情况,能够有效地区分待扫描区域与背景区域,提高了扫描效率和精度。
第三方面,本申请提供一种计算机设备,采用如下的技术方案:
一种计算机设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如第一方面所述的方法。
第四方面,本申请提供一种计算机可读存储介质,采用如下的技术方案:
一种计算机可读存储介质,存储有能够被处理器加载并执行如第一方面中任一种方法的计算机程序。
综上所述,本申请包括以下有益技术效果:在得到显微镜扫描平台上的样本玻片的玻片图像后,通过图像预处理步骤提升图像质量,再结合模型识别和阈值分割两种方式所得到的目标区域结果确定待扫描区域,通过确保最终待扫描的区域包括所有相关的目标区域结果,减少了自动识别的误差造成目标区域获取不准确或信息遗漏的情况,能够有效地区分待扫描区域与背景区域,提高了扫描效率和精度。
附图说明
图1是本申请其中一个实施例的显微镜扫描区域自动分割方法的第一流程示意图。
图2是本申请其中一个实施例的显微镜扫描区域自动分割方法的第二流程示意图。
图3是本申请其中一个实施例的显微镜扫描区域自动分割方法的第三流程示意图。
图4是本申请其中一个实施例的显微镜扫描区域自动分割方法的第四流程示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图1-4及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
本申请实施例公开一种显微镜扫描区域自动分割方法。
参照图1,一种显微镜扫描区域自动分割方法,方法包括:
步骤S101,获取显微镜扫描平台上的样本玻片的玻片图像;
其中,在显微镜扫描平台上安装全景相机,通过分辨率适当的全景相机,确保能够覆盖整个玻片区域,并且可以方便地进行焦距调整以适应不同大小的玻片;通过拍摄整个玻片的全貌,获取足够的图像数据以供后续分析;
步骤S102,对玻片图像进行图像预处理;
其中,通过图像预处理步骤提升图像质量,从而能够减少后续步骤的复杂性。
在一些实施例中,图像预处理步骤包括图像增强、噪声滤波和色彩校正中的任意一种或多种。其中,应用图像增强技术,如直方图均衡化或对比度增强,以改善图像的可视化效果;执行噪声滤波算法,例如高斯模糊或中值滤波,来减少图像中的随机噪声;进行色彩校正,调整图像的色调和亮度,使得目标区域与背景之间的对比度更加明显。
步骤S103,将预处理后的玻片图像输入至预先训练的图像识别模型中,识别得到第一目标区域;
其中,可通过开发或使用图像分析软件,集成机器学习或深度学习模型,训练系统识别特定的生物标记或结构特征,以确定感兴趣区域的位置,并输出这些目标区域的坐标,通过将模型输出的相对坐标转换为实际的图像坐标即可得到目标区域及其他的背景区域;
步骤S104,将预处理后的玻片图像进行阈值分割,得到第二目标区域;
可以理解的是,通过预先设定特征阈值,当图像上的像素特征满足该预设特征阈值时,即可确定为目标区域,以便于将图像中的目标区域和背景区域分离,从而区分出对于后续扫描分析较为重要的区域。并且,根据图像的特点和需求,可以选择不同类型的阈值设置方法,以实现对图像的有效分割。
在一些实施例中,可应用阈值分割算法,如Otsu阈值,动态调整阈值以适应不同的图像对比度,并自动选择阈值以区分目标区域和背景。
具体地,对于Otsu阈值分割算法中确定灰度特征阈值的详细步骤进行举例说明:将彩色图像转换为灰度图像,通过计算灰度直方图,得到了图像中各个灰度级别的像素点数量;然后,遍历所有可能的阈值,对每个阈值计算类内方差和类间方差,最终选择使类间方差最大的阈值作为最佳阈值,该最佳阈值即可被用来分割图像,将目标区域和背景分离,以便后续的分析处理;
另外,除了上述举例的灰度值外,还可以设置其他类型的阈值,例如基于颜色通道的阈值、基于纹理特征的阈值等等。
其中,基于颜色通道的阈值:对于彩色图像,可以分别提取RGB颜色通道或者其他颜色空间(如HSV、Lab等)的通道,然后针对每个通道设置不同的阈值;基于纹理特征的阈值:对于纹理丰富的图像,可以基于纹理特征来设置阈值,通过使用纹理特征提取算法(如LBP、GLCM等)来获取图像的纹理信息,然后根据纹理特征的统计值或者其他特征来设置阈值。
步骤S105,根据第一目标区域和第二目标区域,确定待扫描区域。
上述实施方式中,在得到显微镜扫描平台上的样本玻片的玻片图像后,通过图像预处理步骤提升图像质量,再结合模型识别和阈值分割两种方式所得到的目标区域结果确定待扫描区域,通过确保最终待扫描的区域包括所有相关的目标区域结果,减少了自动识别的误差造成目标区域获取不准确或信息遗漏的情况,能够有效地区分待扫描区域与背景区域,提高了扫描效率和精度。
参照图2,作为步骤S103中的图像识别模型的一种实施方式,方法还包括对图像识别模型进行训练的步骤,训练的步骤包括:
步骤S201,获取样本数据集;其中,样本数据集包括多个预先标注有目标区域的样本图像数据;
具体地,预先收集足够多的预先标注的样本图像数据,这些图像包含了特定的生物标记或结构特征;其中,标注即对每张图像上的目标区域进行手动标记,例如对图像上特定的生物标记或结构特征绘制矩形边界框;
步骤S202,将样本数据集进行预处理,并划分为训练集和测试集;
其中,可通过对图像进行标准化处理,使输入数据的分布更加一致;还可应用数据增强技术(如旋转、缩放、剪切、亮度调整等),以提高模型的泛化能力。通过按照一定比例划分为训练集和测试集,能够为模型训练和模型测试提供数据支持;
步骤S203,将训练集输入至预先构建的算法模型中进行训练,得到图像识别模型;
在本申请的其中一个实施例中,算法模型可采用卷积神经网络(CNN)模型,通过预先配置学习率、优化器、损失函数等训练参数,利用预先标注的训练集训练模型,通过反向传播算法调整网络权重;
步骤S204,基于测试集对图像识别模型进行测试,并对图像识别模型的参数进行校正,得到训练后的图像识别模型。
具体地,可通过一些评估指标来衡量模型性能,进而对模型参数进行优化校正,提高识别准确性和泛化能力;其中,测试指标包括但不限于准确率、精确率和召回率。
上述实施方式中,基于预先标注有目标区域的样本图像数据对算法模型进行训练,利用未参加建模的测试集数据对所建模型进行测试,以了解模型的分类性能和泛化能力,从而便于对图像识别模型进行参数校正,即可得到最优的图像识别模型,从而提高了目标区域识别的准确性。
参照图3,作为步骤S105的一种实施方式,根据第一目标区域和第二目标区域,确定待扫描区域的步骤包括:
步骤S301,将第一目标区域和第二目标区域进行对比;
步骤S302,判断第一目标区域是否完全覆盖第二目标区域;若是,则跳转至步骤S303;
步骤S303,将第一目标区域作为待扫描区域。
可以理解的是,完全覆盖即第二目标区域完全位于第一目标区域内,或第二目标区域与第一目标区域完全相同。
上述实施方式中,对第一目标区域和第二目标区域进行比较,当第一目标区域完全覆盖第二目标区域时,则采用第一目标区域作为最终待扫描区域以确保覆盖全部的目标区域,从而保证不丢失任何潜在的目标区域。
参照图3,作为步骤S302进一步的实施方式,判断第一目标区域是否完全覆盖第二目标区域的步骤之后,还包括:
若第一目标区域未完全覆盖第二目标区域,则跳转至步骤S304;
步骤S304,将第二目标区域中未与第一目标区域重叠的各个区域作为第三目标区域;
其中,未完全覆盖即第二目标区域中存在部分区域未与第一目标区域重叠,该未重叠的部分区域即作为第三目标区域,该第三目标区域即可能为未被模型识别到的潜在目标区域;
步骤S305,将各个第三目标区域分别与第一目标区域进行颜色特征比较,得到各个第三目标区域与第一目标区域的颜色特征差异值;
可以理解的是,对于第一目标区域外分割出的每个第三目标区域,计算其颜色特征,并结合一定的权重机制与第一目标区域进行差异值比较,通过设定一定的判定标准来决定哪些区域应保留合并,哪些区域应直接剔除。
步骤S306,将颜色特征差异值小于预设差异阈值的第三目标区域合并至第一目标区域并作为待扫描区域。
其中,预设差异阈值可根据历史经验或实验数据预先确定。
上述实施方式中,当第一目标区域未完全覆盖第二目标区域时,则表示模型识别结果所划分的背景区域中可能存在未被模型识别到的潜在目标区域,因此,将第二目标区域中未与第一目标区域重叠的各个区域作为第三目标区域,并将各个第三目标区域分别与第一目标区域进行颜色特征比较,当颜色特征差异值小于该预设差异阈值时,则认为该第三目标区域与第一目标区域足够相似,应当保留合并;当颜色特征差异值大于或等于该预设差异阈值时,则直接剔除;通过对第一目标区域进行潜在区域的合并,以确保最终扫描的区域既包括所有相关的目标区域,又尽可能剔除无关的背景区域,从而减小误差,进一步提高了扫描效率和准确性。
需要说明的是,当图像识别模型无法根据玻片图像识别得到第一目标区域时,则直接将第二目标区域作为待扫描区域即可。
参照图4,作为步骤S305的一种实施方式,将各个第三目标区域分别与第一目标区域进行颜色特征比较,得到各个第三目标区域对应的颜色特征差异值的步骤包括:
步骤S401,获取第一目标区域和各个第三目标区域的颜色特征均值;
其中,可预先选择决定使用的颜色空间类型(如RGB、HSV、LAB等等);例如,以RGB为例,对于每个区域,计算区域中每个像素的R、G、B值并求平均数,即可得到该区域对应的颜色特征均值。
可以理解的是,不同的颜色空间可以捕捉到颜色特性的不同方面,例如,RGB强调了颜色的原始组成,而HSV则强调了颜色的感知特征(色调、饱和度和亮度)。通过选择特定的颜色空间,从而能够针对特定应用和需求来优化颜色特征提取过程。
步骤S402,基于预设颜色特征权重,根据第一目标区域与各个第三目标区域的颜色特征均值分别计算加权欧式距离,得到各个第三目标区域对应的颜色特征差异值。
其中,对于预设颜色特征权重,可根据目标区域的颜色特征的重要性,赋予每个颜色特征一个权重,例如以RGB为例,如果红色R对于区分目标和背景非常关键,可以设置R的权重为0.5,绿色G和蓝色B相对不那么重要,可能设为G的权重为0.25,B的权重为0.25。
需要说明的是,通过对不同颜色特征赋予不同的权重,以允许系统侧重于最能区分目标和背景的颜色特征,提高了颜色分析的灵敏度和准确度。该加权方案特别适用于本申请中在面对复杂场景时进行精细的颜色分割。
可以理解的是,通过第一目标区域与第三目标区域的颜色特征均值计算加权欧式距离并将计算结果作为颜色特征差异值,即可结合权重对两者的颜色特征差异进行度量,从而允许对不同区域的颜色进行客观、数值化的比较,便于后续处理和决策。
具体地,计算加权欧式距离的公式为:
d=\sqrt{W_R\cdot(mean_{R1}-mean_{R2})^2+W_G\cdot(mean_{G1}-mean_{G2})^2+W_B\cdot(mean_{B1}-mean_{B2})^2};
其中,\sqrt{}表示平方根运算,W_R、W_G、W_B是分配给红色、绿色、蓝色的权重,表示每个颜色通道的重要性,\cdot表示乘法运算,mean_{R1}-mean_{R2}、mean_{G1}-mean_{G2}和mean_{B1}-mean_{B2}分别表示第一目标区域和第三目标区域之间的红色、绿色、蓝色的颜色特征均值的差值。
上述实施方式中,在背景与目标颜色特征相差显著时,可以有效地分割并识别出潜在目标区域,提高处理效率和准确性。
作为步骤S306的一种实施方式,将颜色特征差异值小于预设差异阈值的第三目标区域合并至第一目标区域并作为待扫描区域的步骤具体包括:
分别判断各个第三目标区域与第一目标区域的颜色特征差异值是否小于预设差异阈值,若是,则将颜色特征差异值小于预设差异阈值的第三目标区域进行滤波处理,将滤波处理后的第三目标区域合并至第一目标区域并作为待扫描区域。
在一些实施例中,滤波处理可使用形态学滤波器,如开运算或闭运算,来消除小于一定尺寸的噪声点。
上述实施方式中,在得到与第一目标区域较为相似的第三目标区域时,由于该第三目标区域为阈值分割得到,因此图像中可能包含噪声,例如由于样本制备不当引起的污点或划痕,通过消除这些噪声有助于提高扫描区域的准确性。
本申请实施例还公开一种显微镜扫描区域自动分割系统。
一种显微镜扫描区域自动分割系统,系统包括:
图像获取模块,用于获取显微镜扫描平台上的样本玻片的玻片图像;
图像预处理模块,用于对玻片图像进行图像预处理;
图像识别模块,用于将预处理后的玻片图像输入至预先训练的图像识别模型中,识别得到第一目标区域;
阈值分割模块,用于将预处理后的玻片图像进行阈值分割,得到第二目标区域;
待扫描区域确定模块,用于根据第一目标区域和第二目标区域,确定待扫描区域。
上述实施方式中,结合模型识别和阈值分割两种方式所得到的目标区域结果确定待扫描区域,通过确保最终待扫描的区域包括所有相关的目标区域结果,减少了自动识别的误差造成目标区域获取不准确或信息遗漏的情况,能够有效地区分待扫描区域与背景区域,提高了扫描效率和精度。
本申请实施例的扫描区域自动分割系统能够实现上述扫描区域自动分割方法的任一种方法,且扫描区域自动分割系统中各个模块的具体工作过程可参考上述方法实施例中的对应过程。
在本申请所提供的几个实施例中,应该理解到,所提供的方法和系统,可以通过其它的方式实现。例如,以上所描述的系统实施例仅仅是示意性的;例如,某个模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。
本申请实施例还公开一种计算机设备。
计算机设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现如上述的显微镜扫描区域自动分割方法。
本申请实施例还公开一种计算机可读存储介质。
计算机可读存储介质,存储有能够被处理器加载并执行如上述的显微镜扫描区域自动分割方法中任一种方法的计算机程序。
其中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用;计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
需要说明的是,在上述实施例中,对各个实施例的描述各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
以上均为本申请的较佳实施例,并非依此限制本申请的保护范围,本说明书(包括摘要和附图)中公开的任一特征,除非特别叙述,均可被其他等效或者具有类似目的的替代特征加以替换。即,除非特别叙述,每个特征只是一系列等效或类似特征中的一个例子而已。
Claims (10)
1.一种显微镜扫描区域自动分割方法,其特征在于,所述方法包括:
获取显微镜扫描平台上的样本玻片的玻片图像;
对所述玻片图像进行图像预处理;
将所述预处理后的玻片图像输入至预先训练的图像识别模型中,识别得到第一目标区域;
将所述预处理后的玻片图像进行阈值分割,得到第二目标区域;
根据所述第一目标区域和所述第二目标区域,确定待扫描区域。
2.根据权利要求1所述的一种显微镜扫描区域自动分割方法,其特征在于,所述图像预处理的步骤包括图像增强、噪声滤波和色彩校正。
3.根据权利要求1所述的一种显微镜扫描区域自动分割方法,其特征在于,所述方法还包括对所述图像识别模型进行训练的步骤,所述训练的步骤包括:
获取样本数据集;其中,所述样本数据集包括多个预先标注有目标区域的样本图像数据;
将所述样本数据集进行预处理,并划分为训练集和测试集;
将所述训练集输入至预先构建的算法模型中进行训练,得到图像识别模型;
基于所述测试集对所述图像识别模型进行测试,并对所述图像识别模型的参数进行校正,得到训练后的图像识别模型。
4.根据权利要求1到3任一所述的一种显微镜扫描区域自动分割方法,其特征在于,所述根据所述第一目标区域和所述第二目标区域,确定待扫描区域的步骤包括:
将所述第一目标区域和所述第二目标区域进行对比,判断所述第一目标区域是否完全覆盖所述第二目标区域;若是,则将所述第一目标区域作为待扫描区域。
5.根据权利要求4所述的一种显微镜扫描区域自动分割方法,其特征在于,所述判断所述第一目标区域是否完全覆盖所述第二目标区域的步骤之后,还包括:
响应于所述第一目标区域未完全覆盖所述第二目标区域的判断结果,将所述第二目标区域中未与所述第一目标区域重叠的各个区域作为第三目标区域;
将各个所述第三目标区域分别与所述第一目标区域进行颜色特征比较,得到各个所述第三目标区域与第一目标区域的颜色特征差异值;
将所述颜色特征差异值小于预设差异阈值的第三目标区域合并至所述第一目标区域并作为待扫描区域。
6.根据权利要求5所述的一种显微镜扫描区域自动分割方法,其特征在于,所述将各个所述第三目标区域分别与所述第一目标区域进行颜色特征比较,得到各个所述第三目标区域对应的颜色特征差异值的步骤包括:
获取所述第一目标区域和各个所述第三目标区域的颜色特征均值;
基于预设颜色特征权重,根据所述第一目标区域与各个所述第三目标区域的颜色特征均值分别计算加权欧式距离,得到各个所述第三目标区域对应的颜色特征差异值。
7.根据权利要求5所述的一种显微镜扫描区域自动分割方法,其特征在于,所述将所述颜色特征差异值小于预设差异阈值的第三目标区域合并至所述第一目标区域并作为待扫描区域的步骤包括:
分别判断各个所述第三目标区域与第一目标区域的颜色特征差异值是否小于预设差异阈值,若是,则将所述颜色特征差异值小于预设差异阈值的第三目标区域进行滤波处理;
将滤波处理后的所述第三目标区域合并至所述第一目标区域并作为待扫描区域。
8.一种显微镜扫描区域自动分割系统,其特征在于,所述系统包括:
图像获取模块,用于获取显微镜扫描平台上的样本玻片的玻片图像;
图像预处理模块,用于对所述玻片图像进行图像预处理;
图像识别模块,用于将所述预处理后的玻片图像输入至预先训练的图像识别模型中,识别得到第一目标区域;
阈值分割模块,用于将所述预处理后的玻片图像进行阈值分割,得到第二目标区域;
待扫描区域确定模块,用于根据所述第一目标区域和所述第二目标区域,确定待扫描区域。
9.一种计算机设备,其特征在于,包括:存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1到7任意一种所述方法。
10.一种计算机设备,其特征在于:包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序时实现如权利要求1到7任意一项所述方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311705156.5A CN117576121A (zh) | 2023-12-12 | 2023-12-12 | 一种显微镜扫描区域自动分割方法、系统、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311705156.5A CN117576121A (zh) | 2023-12-12 | 2023-12-12 | 一种显微镜扫描区域自动分割方法、系统、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117576121A true CN117576121A (zh) | 2024-02-20 |
Family
ID=89860836
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311705156.5A Pending CN117576121A (zh) | 2023-12-12 | 2023-12-12 | 一种显微镜扫描区域自动分割方法、系统、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117576121A (zh) |
-
2023
- 2023-12-12 CN CN202311705156.5A patent/CN117576121A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10565479B1 (en) | Identifying and excluding blurred areas of images of stained tissue to improve cancer scoring | |
JP6086949B2 (ja) | 色原体分離に基づく画像解析の方法 | |
US11462032B2 (en) | Stain normalization for automated whole-slide image classification | |
JP4529172B2 (ja) | デジタル画像における赤目領域の検出方法及び装置 | |
CN110084150B (zh) | 一种基于深度学习的白细胞自动分类方法及系统 | |
CN110853006B (zh) | 一种使用扫描仪获取的数字病理图像质量评价的方法 | |
US10395091B2 (en) | Image processing apparatus, image processing method, and storage medium identifying cell candidate area | |
US20180053299A1 (en) | Method of Detecting Tissue Area of Interest in Digital Pathology Imaging by Executing Computer-Executable Instructions Stored on a Non-Transitory Computer-Readable Medium | |
CN107256410B (zh) | 眼底图像分类方法及装置 | |
AU2012242996A1 (en) | Method for preparing quantitative video-microscopy and associated system | |
CN115082451A (zh) | 一种基于图像处理的不锈钢汤勺缺陷检测方法 | |
CN117576121A (zh) | 一种显微镜扫描区域自动分割方法、系统、设备及介质 | |
Palokangas et al. | Segmentation of folds in tissue section images | |
CN114972240A (zh) | 一种数字病理学图像缺失组织的自动检测及量化方法 | |
CN112801112B (zh) | 一种图像二值化处理方法、装置、介质及设备 | |
CN116012314A (zh) | 基于机器视觉的谷糙分界线识别方法、装置、设备及介质 | |
CN116612331A (zh) | 基于图像处理的图片质量自动检测方法、装置及存储介质 | |
KR20220082277A (ko) | 골수가 도말된 슬라이드 샘플 이미지의 셀 존 결정 방법 및 셀 존의 고배율 촬상 방법 | |
CN115908323A (zh) | 一种基于机器视觉的产品表面异常的智能检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |