CN117575993B - 一种基于深度学习的滴度值的处理方法及系统 - Google Patents

一种基于深度学习的滴度值的处理方法及系统 Download PDF

Info

Publication number
CN117575993B
CN117575993B CN202311372626.0A CN202311372626A CN117575993B CN 117575993 B CN117575993 B CN 117575993B CN 202311372626 A CN202311372626 A CN 202311372626A CN 117575993 B CN117575993 B CN 117575993B
Authority
CN
China
Prior art keywords
image
circular target
circular
titer
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311372626.0A
Other languages
English (en)
Other versions
CN117575993A (zh
Inventor
林彤
韩燕�
尹跃平
杨寅
金嘉轩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Dermatology and Skin Disease Hospital of CAMS
Original Assignee
Institute of Dermatology and Skin Disease Hospital of CAMS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Dermatology and Skin Disease Hospital of CAMS filed Critical Institute of Dermatology and Skin Disease Hospital of CAMS
Priority to CN202311372626.0A priority Critical patent/CN117575993B/zh
Publication of CN117575993A publication Critical patent/CN117575993A/zh
Application granted granted Critical
Publication of CN117575993B publication Critical patent/CN117575993B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习的滴度值的处理方法及系统,属于机器学习领域,包括:获取非梅毒螺旋体血清学试验结果的第一图像;对检验图像进行清晰度判断,输出第二图像;采用卷积神经网络对第二图像进行圆形目标检测,输出圆形目标的中心坐标和半径;根据检测到的圆形目标的中心坐标和半径对第二图像进行分割,提取圆形目标区域;根据预设排序规则,对提取的圆形目标区域进行排序;采用卷积神经网络对排序后的圆形目标区域进行分类,输出阴阳结果;计算阴阳结果对应的滴度值。针对现有技术中存在的检测结果的自动化处理效率低的问题,本申请通过整合机器学习和深度学习技术,特征提取、模型训练和图卷积神经网络等方法,提高血清学试验结果自动化处理的效率。

Description

一种基于深度学习的滴度值的处理方法及系统
技术领域
本发明涉及机器学习领域,更具体地说涉及一种基于深度学习的滴度值的处理方法及系统,用于非梅毒螺旋体血清学试验结果的自动处理。
背景技术
在临床医学检验中,对于梅毒螺旋体的血清学检测是一项重要的诊断手段。传统的非梅毒螺旋体血清学阴阳及滴度判读方法通常依赖检测人员对图像进行观察和判断,存在主观误差和效率低下的问题。
非梅毒螺旋体血清学试验是一项重要的免疫学检验。该检验通过读取血清与不同抗原反应后形成的环形沉积来判断阳性。但人工判读阅片效率低下,不同操作人员结果存在变异。
中国专利申请,申请号CN201910078013.3,公开日2019年6月7日,公开了一种基于机器学习和深度学习的ANA荧光片自动识别方法,属于机器学习与深度学习技术领域,解决现有技术中通过人工判断ANA荧光片,对人员要求高,容易出现误判的问题。本发明基于机器学习模型,通过数据集计算得到滴度模型;基于深度学习模型,通过数据集计算得到核型模型;读取待识别的ANA荧光片,即待识别的图片,将待识别的图片进行特征提取,得到提取的多个特征值;将多个特征输入滴度模型,得到预测的滴度;将待识别的图片输入核型模型,得到预测的核型;根据预测的滴度与预测的核型得到识别结果。但是该方案至少存在如下技术问题:深度学习模型通常需要大规模的数据集进行训练和计算,处理大规模的数据集可能需要较长的时间,进而影响到自动化处理的效率,因此检测结果的自动化处理效率有待提高。
发明内容
1.要解决的技术问题
针对现有技术中存在的检测结果的自动化处理效率低的问题,本发明提供了一种基于深度学习的滴度值的处理方法及系统,用于非梅毒螺旋体血清学试验结果的自动处理,通过整合机器学习和深度学习技术,包括特征提取、模型训练和图卷积神经网络等方法,提高血清学试验结果自动化处理的效率。
2.技术方案
本发明的目的通过以下技术方案实现。
本说明书实施例的一个方面提供一种基于深度学习的滴度值的处理方法,用于非梅毒螺旋体血清学试验结果的自动处理,包括:获取非梅毒螺旋体血清学试验结果的第一图像;对检验图像进行清晰度判断,输出第二图像;采用卷积神经网络对第二图像进行圆形目标检测,输出圆形目标的中心坐标和半径;根据检测到的圆形目标的中心坐标和半径对第二图像进行分割,提取圆形目标区域;根据预设排序规则,对提取的圆形目标区域进行排序;采用卷积神经网络对排序后的圆形目标区域进行分类,输出阴阳结果;计算阴阳结果对应的滴度值。
进一步地,对检验图像进行清晰度判断,输出第二图像的步骤包括:将输入的非梅毒螺旋体血清学试验结果的第一图像转换为灰度图;对灰度图进行边缘检测,计算边缘图像的方差和最大值;根据预设的方差阈值和最大值阈值,判断方差和最大值是否满足第二图像的要求;如果方差小于预设的方差阈值,且最大值小于预设的最大值阈值,则确认第一图像为第二图像,输出第二图像。
进一步地,采用卷积神经网络对第二图像进行圆形目标检测,输出圆形目标的中心坐标和半径的步骤包括:获取包含非梅毒螺旋体血清学试验图像的训练集,对训练集中的圆形目标进行标注,获取标注数据集;采用卷积神经网络作为检测模型,冻结检测模型的特征提取层,修改检测模型输出为中心坐标和半径;使用标注数据集训练检测模型;对输入的第二图像利用训练好的检测模型进行预测,输出圆形目标的中心坐标和半径。
进一步地,根据检测到的圆形目标的中心坐标和半径对第二图像进行分割,提取圆形目标区域的步骤包括:根据圆形目标的中心坐标和半径绘制出对应的圆形区域;利用二值化处理,将圆形区域设置为前景像素值为M1,其他区域设置为背景像素值为M2,得到二值图;对二值图进行形态学处理,去除噪声区域,得到精修二值图;根据精修二值图生成对应的掩模;将掩模与原始的第二图像进行按位与操作,提取出圆形目标区域。
进一步地,根据预设排序规则,对提取的圆形目标区域进行排序的步骤包括:计算检测并分割得到的每个圆形目标区域的中心坐标;根据相邻圆形目标区域中心坐标的纵向差值,判断圆形目标所在地行;比较同行圆形目标区域中心坐标的横向差值,判断各行内圆形目标的列;按行顺序,并在同行内按列顺序,生成圆形目标区域的排序索引;根据排序索引,重新排列圆形目标区域的顺序。
进一步地,采用卷积神经网络对排序后的圆形目标区域进行分类,输出阴阳结果的步骤包括:获取包含排序后的圆形目标区域的训练集,进行阴阳标签标注;采用预训练的轻量级卷积神经网络作为分类模型;冻结分类模型的特征提取层参数,修改分类模型的全连接层输出为二分类,代表阴阳结果;使用标注数据集微调分类模型,优化模型参数;对微调后的分类模型进行评估,计算预测概率pi;对排序后的圆形目标区域应用训练好的分类模型进行预测,输出对应的阴阳结果。
进一步地,预测概率pi通过如下公式计算:
其中,zi和zj分别为输入向量z中的第i和第j个元素;j为求和操作中遍历所有类别的索引变量;T为温度参数。
进一步地,计算阴阳结果对应的滴度值的步骤包括:输入每一个圆形目标区域的阴阳结果;设置每个样本的阴性圆形目标数N1、弱阳性圆形目标数N2和强阳性圆形目标数N3的计数器;遍历输入的每个圆形目标区域阴阳结果,根据阴阳结果更新对应的计数器;计算每个样本的圆形目标总数N,圆形目标总数为各计数器之和;判断计数器数值,根据非梅毒螺旋体血清学试验判读标准确定样本为阴性、弱阳性或强阳性,并计算对应的滴度值;输出判断得到的阴阳性结果和计算得到的滴度值。
进一步地,当阴性圆形目标数N1等于圆形目标总数N时,则判断非梅毒螺旋体血清学试验结果为阴性,且滴度值为Y1;当阴性圆形目标数N1不等于零且强阳性圆形目标数N3等于零时,则判断非梅毒螺旋体血清学试验结果为弱阳性,且滴度值为弱阳性圆形目标数N2除以圆形目标总数N;当强阳性圆形目标数N3不等于零时,则判断非梅毒螺旋体血清学试验结果为强阳性,且滴度值为Y2。
本说明书实施例的另一个方面还提供一种基于深度学习的滴度值的处理系统,用于非梅毒螺旋体血清学试验结果的自动处理,包括:图像清晰度判断模块,用于对输入的非梅毒螺旋体血清学试验图像进行清晰度判断;圆形目标检测模块,采用预训练卷积神经网络对清晰图像进行圆形目标检测;圆形目标分割模块,用于根据检测结果对清晰图像进行分割,提取圆形目标区域;圆形目标排序模块,用于对提取的圆形目标区域进行排序;圆形目标分类模块,采用预训练卷积神经网络对排序后的圆形目标区域进行分类,输出阴阳结果;滴度计算模块,用于根据阴阳结果计算对应的滴度值。
3.有益效果
相比于现有技术,本发明的优点在于:
(1)利用YOLOv5等目标检测模型实现圆形区域自动定位,应用图像处理方法自动分割提取圆形目标,借助卷积神经网络完成目标分类,提高了自动化处理的效率;
(2)拉普拉斯算子提取清晰图像,提高检测准确率,利用图像处理保证分割效果,预训练网络微调提升分类准确性,在保证自动化处理准确性的前提下提升效率;
(3)统计每个目标的分类结果,按规则计算不同类型目标数量,结合检验标准定量计算滴度值,自动转换分类结果为定量指标,为后续定量分析、评估提供基础,提高了自动化处理的效率。
附图说明
图1为本发明的一种基于深度学习的滴度值的处理方法的流程示意图;
图2为本发明的阴阳判别流程示意图;
图3为本发明的滴定预测流程示意图。
具体实施方式
下面结合说明书附图和具体的实施例,对本发明作详细描述。
图1为本发明的一种基于深度学习的滴度值的处理方法的流程示意图,如图1所示,一种基于深度学习的滴度值的处理方法包括如下技术步骤:
获取非梅毒螺旋体血清学的第一图像;该图像是进行血清学试验的初始输入图像。其中,非梅毒螺旋体血清学是一种用于检测梅毒(梅毒螺旋体感染)的血清学试验方法。梅毒是一种性传播疾病,由梅毒螺旋体(Treponema pallidum)感染引起。梅毒螺旋体感染人体后,宿主会产生抗类脂抗原的抗体,这种抗体在体外与一定比例的心磷脂、卵磷脂以及胆固醇混合物抗原溶液发生作用,产生絮状凝集现象,不同反应强度的凝集现象与抗体浓度成正相关,在一定程度上反映了梅毒感染的活动状态。非梅毒螺旋体血清学试验包括RPR(快速血浆反应素)、TRUST(甲苯胺红不加热血清学试验)和VDRL(性病研究实验室试验),目前国内主要使用的RPR和TRUST两种方法。在本申请中,获取非梅毒螺旋体血清学试验(RPR和TRUST)结果的第一图像即表示获取进行血清学试验的初始输入图像,这个图像通常是患者血清样本在实验过程中的用于结果判读的图像记录,用于后续的自动处理和滴度值计算。
采用预训练的卷积神经网络模型YOLOv5对二级图像进行圆形目标检测,输出检测到的每个圆形目标的中心坐标和半径。该步骤通过深度学习实现自动高效的目标定位;其中,YOLOv5(You Only Look Once v5)是一种基于卷积神经网络的目标检测模型,用于实现高效的对象定位和识别。在上述技术方案中,采用预训练的YOLOv5模型对第二图像进行圆形目标检测,以提高血清学试验结果的自动化处理效率和准确度。
YOLOv5是YOLO系列模型的一种,它使用了一种称为“one-stage”的目标检测方法。相比于传统的“two-stage”方法,YOLOv5能够在单个前向传播过程中同时实现目标检测和定位,大大提高了效率。它通过分割图像为多个网格单元,并在每个单元内预测目标的边界框和类别信息。通过这种方式,YOLOv5能够快速且准确地定位和识别图像中的圆形目标。在本方案中,采用YOLOv5作为圆形目标检测模型的骨架,冻结部分参数并修改输出层,使其能够输出检测到的每个圆形目标的中心坐标和半径。通过预先训练YOLOv5模型,并使用包含标注数据的训练集进行训练,该模型可以自动从第二图像中检测和提取圆形目标信息。这样可以减轻操作人员的工作量,实现自动化的血清学试验结果判读。使用YOLOv5的优势在于其高效性和准确性,它能够在短时间内检测出图像中的多个目标,并提供目标的位置和尺寸信息。相对于传统的手工设计特征和多阶段流程的方法,YOLOv5能够快速地进行目标检测,并在实时场景下表现出色。这进一步提高了血清学试验结果自动化处理的效率,并为后续步骤(如目标分割和分类)提供了准确的输入
采用预训练的卷积神经网络模型YOLOv5对二级图像进行圆形目标检测,输出检测到的每个圆形目标的中心坐标和半径。该步骤通过深度学习实现自动高效的目标定位;根据检测结果,利用图像处理方法(二值化、形态学等)自动分割提取每个圆形目标区域,为分类与计算准备区域输入;对提取的圆形目标区域根据坐标关系进行排序,使同一样本的目标区域顺序一致。该步骤确保后续分类输入的规范性;采用卷积神经网络对排序后的圆形目标区域进行分类,输出阴阳结果。通过针对血清学试验的圆形目标进行训练,该步骤可以对每个圆形目标进行分类,判断其阴性或阳性结果;计算阴阳结果对应的滴度值。根据分类结果,结合滴度值的计算规则或算法,计算出对应的滴度值。该滴度值提供了血清学试验结果的定量分析,可以用于做进一步的判断和评估。
综上,自动化目标定位:采用预训练的卷积神经网络模型YOLOv5对图像进行圆形目标检测,并输出目标的中心坐标和半径。这使得目标定位过程自动化,无需人工干预,大大提高了效率和准确性。自动化目标分割:通过图像处理方法(如二值化、形态学等),自动分割提取每个圆形目标区域。这样做可以将每个目标区域独立出来,为后续的分类和计算提供准备。规范性分类输入:通过对提取的圆形目标区域按照坐标关系进行排序,确保了同一样本的目标区域顺序一致。这样的分类输入更加规范,使得后续的分类算法能够准确判断每个目标的性质。准确的分类和判读,使用卷积神经网络对排序后的圆形目标区域进行分类,并输出阴阳结果。通过训练网络来适应血清学试验的特征,本申请能够准确地对每个目标进行分类,判断出阴性或阳性结果。滴度值的定量分析:根据分类结果,结合滴度值的计算规则或算法,计算出对应的滴度值。这个滴度值提供了血清学试验结果的定量分析,使得结果更具量化和指导意义。通过上述技术效果,本申请能够实现从血清学试验的原始图像到滴度值的自动化处理过程,大大提高了效率和准确性。它减少了人工干预的需求,减少了人为误差的风险,并为医生和研究人员提供了一个快速、可靠且定量的血清学试验结果分析工具。
其中,对检验图像进行清晰度判断,输出第二图像的步骤包括:将输入的非梅毒螺旋体血清学的第一图像转换为灰度图。将彩色图像转换为灰度图是为了简化后续的处理步骤,只关注图像的灰度信息。通过拉普拉斯算子对灰度图进行边缘检测,计算边缘图像的方差和最大值。拉普拉斯算子是一种常用的边缘检测算法,可以提取图像中的边缘信息。在这一步骤中,将应用拉普拉斯算子对灰度图像进行处理,得到边缘图像,并计算该边缘图像的方差和最大值。
具体地,将血清学的第一图像转换为灰度图像,将彩色图像转换为灰度图像可以减少后续处理步骤的复杂性。在目标检测和图像处理任务中,灰度图像通常足够提供有用的信息,而无需考虑彩色通道对结果的影响。这种简化有助于提高处理速度和减少计算资源的使用。血清学试验图像中的目标通常有特定的灰度分布和纹理特征。通过转换为灰度图像,可以专注于图像中灰度强度的变化,而无需处理彩色信息。这样可以增强图像中的目标对比度,使得后续的图像分析和处理更加准确和可靠。灰度图像的处理和特征提取可以作为自动化的预处理步骤,为后续的图像分析和目标检测提供准确的输入。在使用预训练的卷积神经网络模型YOLOv5进行圆形目标检测时,灰度图像的处理能够提供更好的图像质量和特征表达,进而提高目标检测的准确性和性能。
具体地,拉普拉斯算子是一种常用的边缘检测算法,可以提取图像中的边缘信息。在血清学试验中,目标的圆形边缘往往是重要的特征之一。通过应用拉普拉斯算子对灰度图像进行边缘检测,可以强调目标的边缘结构,为后续的目标定位和测量提供准确的依据。
更具体地,将输入的非梅毒螺旋体血清学图像I转换为灰度图像Ig;对灰度图像Ig运用拉普拉斯算子进行边缘检测,得到边缘图像E;拉普拉斯算子模板定义为:
计算边缘图像E的方差:方差公式为:
σ2=(1/N)*∑(Ei-μ)2
其中N为边缘图像像素总数,Ei为第i个像素值,μ为边缘图像所有像素的均值。
统计边缘图像E中的最大像素值max_value。将计算所得的方差和最大像素值max_value作为该图像的边缘特征,用于后续判断图像清晰度是否满足要求。根据预设的方差阈值和最大值阈值,与计算得到的方差和最大值进行对比,进而判断图像是否保留或过滤。该技术方案利用了拉普拉斯算子对图像进行边缘提取,通过特征值判断清晰度,可以有效过滤模糊图像,满足自动化处理的需求。根据预设的方差阈值和最大值阈值,判断方差和最大值是否满足第二图像的要求。根据具体需求,设定了方差阈值和最大值阈值,用于判断图像的清晰度是否达到要求。通过与预设的阈值进行比较,可以确定图像的清晰度程度;其中,方差阈值的设置技术方案,同最大值阈值的设置方案,在此不再赘述。
其中,最大值阈值的设置技术方案:收集包含不同清晰度级别的非梅毒螺旋体血清学试验结果图像,每个图像进行主观清晰度评分,评分标准为1至5分,分值越高表示图像越清晰。对每个图像采用拉普拉斯算子进行边缘检测,计算出边缘图像的最大像素值max_value。对每个图像的主观评分和最大像素值max_value进行统计分析,拟合出评分与最大像素值之间的映射关系。确定最低清晰度评分阈值,例如设置评分3分为门限,对应的最大像素值作为最大值阈值max_threshold。在实际应用中,对输入图像采用拉普拉斯算子边缘检测,计算最大像素值max_value。将max_value与最大值阈值max_threshold进行比较,如果max_value大于等于max_threshold,则判定图像清晰度达标,否则舍弃该图像。该最大值阈值设置方案,根据样本数据分析得到阈值参数,可以有效过滤模糊图像,确保输出图像清晰度,提高后续处理效果和判读准确率。
如果方差小于预设的方差阈值,且最大值小于预设的最大值阈值,则确认第一图像为第二图像,输出第二图像。在满足清晰度要求的情况下,将原始图像作为第二图像进行输出。本申请可以对输入的非梅毒螺旋体血清学图像进行清晰度判断,并输出第二图像。这样的清晰度判断可以有助于提高血清学试验结果的自动化处理效率。
具体地,在本实施例中,首先将输入的图像转换为灰度图,然后通过拉普拉斯算子进行边缘检测,计算边缘图像Img的方差Var和最大值Max,比较方差Var和最大值Max与预设的阈值A和B。如果满足条件Var<A和Max<B,则将该图像判定为清晰图像,执行下一步;若不满足条件Var<A或Max<B,则返回错误信息,要求重新输入清晰度满足要求的图像。当输入图像满足清晰度要求时,确认输入图像为第二图像,输出第二图像作为血清学试验检测结果,通过图像处理技术结合清晰度判断准则,实现了血清学试验检测结果的自动化处理。基于可量化的参数进行判断,减少主观误差的影响,自动化处理,减少人工操作,提高效率。
其中,通过采用卷积神经网络对第二图像进行圆形目标检测,输出圆形目标的中心坐标和半径,从而提高血清学试验检测结果的自动化处理效率,技术步骤包括:获取包含非梅毒螺旋体血清学试验图像的训练集,对训练集中的圆形目标进行标注,获取标注数据集;对训练集中的圆形目标进行标注,获取标注数据集。标注数据集包括圆形目标的边界框信息或者像素级的掩码信息。选择YOLOv5s作为检测模型网络骨架,相比大模型,YOLOv5s模型体积更小,计算资源需求更低,预测速度更快,更适合用于实时性要求较高的自动化处理系统中。这样可以减少单次判断的时间,提高系统吞吐量。冻结网络骨架的特征提取层参数,直接利用YOLOv5模型预训练的语义特征提取能力,避免从零开始训练特征提取器,降低了训练成本和时间,提高了模型调优效率。修改模型输出头为中心坐标与半径格式,可以直接适应圆形目标的特点,无需后处理调整输出格式,简化流程,减少操作,提升判断速度。YOLOv5s作为检测模型网络骨架,结合该领域预训练参数,检测效果优异,可以减少漏检、误检情况,降低失败重检样本比例,避免效率下降。
综上,该设计充分利用了YOLOv5系列模型的计算优势,通过冻结参数、调整输出、简化流程等方式,在保证检测效果的前提下,有效提升了非梅毒螺旋体血清学图像中圆形目标检测的自动化处理效率。
使用标注数据集训练检测模型;通过将训练集和标注信息输入模型,进行反向传播和参数更新,使模型能够学习圆形目标的特征和位置信息,迭代训练模型,优化模型参数,以提高圆形目标的检测准确度和泛化能力。
对输入的第二图像利用训练好的检测模型进行预测,输出圆形目标的中心坐标和半径;通过检测模型的预测结果,提取圆形目标的中心坐标和半径信息。
通过卷积神经网络的训练和预测,实现了对第二图像中圆形目标的自动检测,输出中心坐标和半径,基于深度学习的模型训练,提高准确性和泛化能力,可适用于不同形状和尺寸的圆形目标检测任务。
具体地,在本实施例中,收集1000张梅毒图像,其中600张为TRUST样本,400张为RPR样本;将图像按照6:2:2的比例划分为训练集、验证集和测试集;在训练集中,对每张图像中的圆形孔位进行脚本标注,并通过人工调整标注结果,生成标注数据集。
模型训练与评估,采用YOLOv5s作为检测模型的选择,作为本申请的基础。使用标注数据集对YOLOv5s模型进行训练,通过迭代优化模型参数,提高圆形孔位的检测准确度和泛化能力。对训练过程中的验证集进行评估,计算模型在验证集上的性能指标,如准确率、召回率和F1-score等。模型测试与性能评估,使用测试集对训练好的模型进行性能评估,统计模型的准确率和其他评测指标。测试模型的速度,记录模型在单张图片上检测所有圆形孔位的耗时。本实施例中,检测一张图像的所有圆圈耗时约为0.1秒。在大规模测试集上评估模型的性能和鲁棒性。
具体地,YOLOv5s采用了小型网络结构,具有更少的参数和计算量。它使用了轻型特征提取网络,减少了模型的复杂性,从而降低了推断时的计算负担。YOLOv5s使用了PyTorch深度学习框架,利用了其在底层的优化特性。PyTorch具有高效地图计算功能,能够实现较高的推断速度。YOLOv5s采用了一种称为Self-train的训练策略,通过使用较大规模的源数据集进行预训练,提高了模型对目标的感知能力。这使得模型在训练集轻量级微调后,可以在测试阶段实现较好的检测效果。YOLOv5s使用了特征级联的策略,将底层和高层特征进行融合,有助于提升对不同尺度目标的检测能力。这种特征级联的设计可以提高模型的召回率和精度。YOLOv5s通过采用轻量级网络结构、底层优化、目标感知的预训练以及特征级联等特性,提高了目标检测的效率。这使得YOLOv5s在保持较高检测精度的同时,在推断速度上具有竞争力。
采用YOLOv5s模型作为圆形孔位的检测器,在本实施例中,经过训练和优化,本申请的检测准确率高达99.6%,能够有效地检测出图像中的圆形孔位。本申请通过优化的模型架构和算法,实现了在0.1秒内检测一张图像的所有圆圈,适用于实时监测的场景。YOLOv5s模型相较于其他模型具有较小的参数量,便于模型的部署和推理。本方法替代了传统的图像处理方法,提高了圆形孔位的检测准确率和鲁棒性,同时具备较高的速度和部署便利性,从而提高了血清学试验检测结果的自动化处理效率。
其中,根据检测到的圆形目标的中心坐标和半径,对第二图像进行分割,提取圆形目标区域,以实现血清学试验检测结果的自动化处理,技术步骤包括:根据检测到的圆形目标的中心坐标和半径,绘制对应的圆形区域。将圆形区域划定为感兴趣的区域,用于提取圆形目标。对第二图像进行二值化处理,将圆形区域设置为前景,其他区域设置为背景。可以使用阈值分割或其他二值化方法,将圆形区域的像素值设置为M1,非圆形区域的像素值设置为M2,得到二值图。根据检测结果绘制圆形区域,避免重新计算目标位置,提高分割效率。在本实施例中,M1取值为1,M2取值为0。对二值图进行形态学处理,以去除噪声和平滑边界,得到精修二值图。可以使用腐蚀、膨胀、开运算或闭运算等形态学操作,调整二值图的结构,使圆形目标区域更加准确。采用二值化处理,将问题简化为提取前景和背景,降低分割难度,提高速度。合理设定阈值,可以有效提取圆形目标区域。
根据精修二值图生成对应的掩模。将精修二值图的前景区域提取出来,形成掩模,用于与原始图像进行按位与操作。其中根据精修二值图生成相应的掩模:首先,将精修后的二值图像加载到程序或库中。使用图像处理算法,如阈值分割、连通区域分析等方法,将二值图像中的前景区域提取出来。前景区域是表示目标或感兴趣区域的部分,通常会被标记为白色(值为1)。创建一个与原始图像大小相同的空白图像,将前景区域填充为白色(值为255),而背景区域则保持为黑色(值为0)。这样就生成了掩模图像,其中白色像素表示前景区域,黑色像素表示背景区域。
具体地,加载精修后的二值图像,直接利用图像处理结果,避免重新处理,提高效率;使用阈值分割等算法提取前景区域,可以准确获取目标区域,无需设计新的算法;创建空白图像作为掩模,大小与原图一致,以匹配后续操作需求;将提取的前景区域填充为255像素值,表示目标区域。背景填充为0像素值;这样生成的掩模直接区分前景背景,无需复杂设计;掩模中的255像素可以准确标记出原图中的目标区域信息;后续与原图按位与,可以直接提取出感兴趣的目标区域;该掩模生成设计简单有效,利用已有技术完成准确提取,避免重复处理,提高了过程效率;快速生成掩模又保证了提取效果,满足了自动化处理对处理速度与效果的需求;综上,该技术设置充分考虑了自动化处理系统的效率与效果需求,利用简单高效的技术手段生成精确的掩模,为后续提高判断效率提供支持。
将掩模与原始的第二图像进行按位与操作,提取出圆形目标区域。按位与操作的结果将保留掩模中前景区域对应的像素值,同时将其他区域设为0,从而提取出圆形目标的图像区域。其中,按位与操作指:将原始图像与生成的掩模进行按位与操作。按位与操作将保留原始图像中与掩模中对应位置都为白色的像素,而将其他位置的像素置为黑色。这样,可以实现只保留原始图像中与前景区域对应的部分,而将其他区域去除。可以使用图像处理库(如OpenCV)或编程语言中的图像处理函数来实现。
通过绘制圆形区域、二值化处理、形态学处理和按位与操作等步骤,实现了对第二图像中圆形目标区域的有效提取。形态学处理步骤可有效去除噪声和平滑边界,提高圆形目标区域的准确性。根据检测到的圆形目标的中心坐标和半径自动调整提取区域,适应不同尺寸和位置的圆形目标。用于血清学试验中对圆形目标区域的提取,如梅毒图像中的圆形孔位提取。通过本申请,可有效地从第二图像中提取出圆形目标区域。
具体地,在本实施例中,根据YOLOv5s检测返回的圆心坐标和半径,对圆形目标进行顺序排列和输入的圆圈索引匹配,以提高血清学试验结果的自动化处理效率,详细技术方案如下:通过比较相邻圆的半径差异来确定行数。代码将检查每两个相邻的圆之间的半径差异,如果这个差异超过了一个预定值(例如self.h_r),则增加行数。
具体地,预定值(也称为阈值)的设置是根据具体应用场景和需求来确定的。它决定了半径差异超过多少被认为是足够显著,从而增加行数。
具体设置预定值的过程可能需要一些试验和调整,以便达到最佳的效果。以下是一些可能的方法来确定预定值:观察数据,首先,仔细观察数据以了解圆的半径之间的差异。通过观察,可以大致判断出半径之间的典型差异范围,并用作预定值的初始估计。统计分析,如果有大量的圆的样本可用,可以对圆的半径差异进行统计分析。计算半径差异的平均值、标准差等统计指标,并结合数据的分布情况,选择一个合适的预定值作为阈值。试错法:可以尝试不同的预定值,并观察结果的准确性和符合预期的程度。根据结果进行调整,直到找到最佳的预定值。实验验证,根据具体应用场景,可以选择一些样本数据进行实验验证。根据实验结果来确定预定值的大小,以满足实际需求。
通过将总的圆数除以行数,确定每行有多少圆即列数。为确保圆的顺序是正确的,代码将圆按行进行分组,并在每个组内根据圆心的x坐标(即列)对它们进行排序。这样可以保证圆不仅在行间有序,同时在同一行内也是有序的。将所有排序后的行组合到一个结果数组中,以确保所有圆都按预期的顺序排列。这样就完成了圆形目标的顺序排列和输入的圆圈索引匹配。通过比较圆的半径差异确定行数,按行重新排序并根据圆心的x坐标对圆进行排序,实现了圆形目标的顺序排列和输入的圆圈索引匹配。通过自动化的算法,无需手动干预即可完成圆形目标的排列和索引匹配。优化的排列和匹配方法可以提高血清学试验结果的自动化处理效率,减少人工操作的时间和错误。用于血清学试验中对圆形目标的顺序排列和输入的圆圈索引匹配,如血清学试剂盘中的圆形孔位排列。通过本申请,可以快速而准确地对圆形目标进行排序,并与输入的圆圈索引进行匹配,为后续的检测结果分析和处理提供准确的数据支持。
其中,根据预设排序规则,对提取的圆形目标区域进行排序,以提高血清学试验检测结果的自动化处理效率。首先,对检测并分割得到的每个圆形目标区域,计算其中心坐标。通过分析图像或检测结果,确定每个圆形目标区域的中心点位置。根据相邻圆形目标区域中心坐标的纵向差值,判断圆形目标所在的行。比较每两个相邻圆形目标区域中心坐标的纵向差值,若该差值超过预设阈值,则认为它们位于不同的行。具体地,使用目标检测算法(如基于深度学习的目标检测算法,如YOLO、Faster R-CNN等)来检测圆形目标区域,并获取它们的中心坐标,对检测到的圆形目标区域根据中心坐标的纵坐标进行排序,遍历排序后的圆形目标区域,比较每两个相邻圆形目标区域中心坐标的纵向差值。若该差值超过预设阈值,将其视为位于不同的行。根据纵向差值超过预设阈值的次数,统计总共有多少行。
在同一行内,比较圆形目标区域中心坐标的横向差值,以判断各行内圆形目标的列。根据横向差值,将圆形目标区域按列进行排序,确保同一行内的圆形目标按照横向顺序排列。按行顺序,先对各行进行排序,然后在同一行内按列顺序,生成圆形目标区域的排序索引。根据每个圆形目标的行号和列号生成唯一的排序索引,以指示排序后的顺序。根据生成的排序索引,重新排列圆形目标区域的顺序。按照排序索引,将圆形目标区域按照预设的顺序进行重新排列,以实现目标区域的有序排列。
通过计算中心坐标、判断行和列、生成排序索引以及重新排列顺序等步骤,实现了基于预设排序规则的圆形目标区域排序。优化的排序方法可以提高血清学检测结果的自动化处理效率,用于血清学检测中对圆形目标区域的排序,例如血清学试剂盘中的圆形孔位排列。通过本申请,可以快速而准确地对圆形目标区域进行排序。
圆形目标区域排序技术方案如下:检测每个圆形目标,获取其中心坐标(x,y);计算所有目标区域中心点之间的纵向差值Δy=|y1-y2|;设置纵向差值阈值,如50像素;比较Δy与阈值,Δy>阈值则确定两目标在不同行;统计纵向差值Δy>阈值的次数,即为总行数m;在同一行内,计算横向差值Δx=|x1-x2|;根据Δx从小到大排序,得到同行中的目标横向顺序;为每个目标生成行号(1m)和列号(1n);按行号从小到大,同行号内按列号从小到大,生成唯一排序索引;根据排序索引,调整每个目标区域的顺序;最终得到按行和列排序的目标区域集合,便于后续处理;本申请充分利用中心坐标信息,设置合理阈值参数,通过排序索引重排目标顺序,实现有效排序。该排序过程计算量小、实现简单,可以提高自动化处理流程的效率。
具体地,在本实施例中,基于HSV颜色空间和阈值处理技术,HSV代表Hue(色调)、Saturation(饱和度)和Value(亮度)。HSV色彩空间也称作HSB色彩空间,它是一种常用的颜色表达方式。其中:Hue表示色彩的类型,如红色、黄色等,取值范围为0-360°。Saturation表示颜色鲜艳程度,取值范围为0-100%。值越高颜色越鲜明。Value表示颜色明暗度,取值范围为0-100%。值越高颜色越明亮。与RGB色彩空间相比,HSV空间更符合人对颜色的主观视觉感受,因此在图像处理和计算机视觉领域较为广泛使用。将RGB图像转换到HSV空间,可以方便地基于色调、饱和度等特征来分析处理图像。通过检测蓝色区域、查找轮廓并计算外接圆,以及掩膜合并操作,实现对圆形区域的自动化检测与提取,详细技术方案如下:将原始图像从RGB色彩空间转换为HSV色彩空间。HSV色彩空间由色调(Hue)、饱和度(Saturation)和明度(Value)三个分量组成,更适合于颜色分析与处理。根据事先定义的蓝色阈值范围,在HSV图像中进行阈值处理,筛选出蓝色区域。通过调整阈值范围,可根据实际需求对蓝色区域的检测进行优化。使用cv2.findContours(X)函数对阈值处理后的图像进行轮廓查找。该函数能够检测图像中的所有轮廓,并返回每个轮廓的点集。从查找到的轮廓中,找到最大的轮廓。最大轮廓通常对应于目标区域,这里即圆形区域。计算最大轮廓的外接圆。通过利用cv2.minEnclosingCircle(X)函数,可以得到最大轮廓的外接圆心坐标和半径信息。创建一个与原始图像尺寸相同的掩膜图像,将圆形区域内的像素设置为白色(255),其余区域设为黑色(0)。然后,使用按位与操作将原始图像与掩膜进行合并,仅保留圆形区域内的像素。通过HSV颜色空间转换、蓝色区域检测、轮廓查找、外接圆计算以及掩膜合并等步骤,实现了对圆形区域的自动化检测与提取。基于HSV颜色空间和轮廓提取的方法能够较准确地检测和提取圆形区域。
图2为本发明的阴阳判别流程示意图,如图2所示,采用卷积神经网络对排序后的圆形目标区域进行分类,输出阴阳结果的步骤包括:
获取包含排序后的圆形目标区域的训练集,并进行阴阳标签的标注。确保数据集包含足够多的表示阴阳结果的样本以进行有效的分类训练。选择一个预训练的轻量级卷积神经网络作为分类模型。预训练的模型通常具有良好的特征提取能力,并能加快整个分类模型的训练过程。圆形目标区域排序技术方案如上,不再赘述;使用标注的数据集对分类模型进行微调,优化模型的参数。通过在标注数据集上进行训练,模型能够学习区分不同阴阳结果的特征表示。对微调后的分类模型进行评估,计算分类精度指标,以确定分类模型的性能。可以使用交叉验证或独立测试集来评估分类的准确性和泛化能力。对排序后的圆形目标区域应用训练好的分类模型进行预测,输出对应的阴阳判断结果。根据分类模型的输出,将每个圆形目标区域判定为阴性或阳性。通过采用卷积神经网络对排序后的圆形目标区域进行分类,实现了对血清学试验结果的自动化处理。卷积神经网络具有强大的特征提取和分类能力,能够准确地判断圆形目标区域的阴阳结果。
使用基于知识蒸馏方法开发的TRUST和RPR样本梅毒分类模型,并说明了其在提高血清学试验结果自动化处理效率方面的应用。以下是具体步骤和技术特征:
知识蒸馏是一种模型压缩技术,可以将一个大型的教师模型的知识转移到一个小型的学生模型中。其核心思想是使用在大数据集上预训练的教师模型来指导学生模型训练,从而提升学生模型的性能。本发明提出一种基于知识蒸馏的分类精度指标计算方法,对微调后的分类模型进行评估,计算预测概率pi,预测概率pi通过如下公式计算:
其中,zi和zj分别为输入向量z中的第i和第j个元素;j为求和操作中遍历所有类别的索引变量;T为温度参数,本申请通过知识蒸馏的思想,使用软标签(预测概率)而不是硬标签来计算指标,可以更全面地评估模型的分类性能;通过调整温度参数T,可以平衡不同类别预测概率的值,进一步提升指标的区分度;相比直接使用分类准确率,该指标可以提供更多的细粒度信息,有助于模型性能的分析和优化。
其中,原始的分类精度指标pi是T=1的特例。本发明通过调整参数T,可以平滑输出概率分布,增加负标签的信息对模型训练的影响,从而在小数据集上提高模型性能。基于知识蒸馏思想,可以有效利用教师模型知识,提升学生模型在小数据集上的性能;通过调整温度T,可以平滑输出概率分布,增强模型训练效果;本申请对训练时间要求较低,适用于性能较弱的显卡环境。
在本实施例中,TRUST样本梅毒分类模型:数据集收集,收集2500张梅毒孔位图像作为训练数据,其中1200张为阳性,1300张为阴性。数据集划分,按照6:2:2的比例将数据集划分为训练集、验证集和测试集,用于模型训练、参数调优和性能评估。模型训练与脚本分类,使用基于知识蒸馏方法,利用教师模型的指导,对训练集中每张图像中的圆圈进行脚本分类,将其分为阴性和阳性两类。RPR样本梅毒分类模型:数据集收集,收集1000张梅毒孔位图像作为训练数据,其中450张为阳性,550张为阴性。数据集划分,按照6:2:2的比例将数据集划分为训练集、验证集和测试集,用于模型训练、参数调优和性能评估。模型训练与脚本分类,使用基于知识蒸馏方法,利用教师模型的指导,对训练集中每张图像中的圆圈进行脚本分类,将其分为阴性和阳性两类。
结合技术特征的应用TRUST样本梅毒分类模型和RPR样本梅毒分类模型均采用了基于知识蒸馏方法,在提高血清学试验检测结果自动化处理效率方面具备优势。TRUST样本具有更多的数据量和更好的检测效果,因此在临床检测中更为常用。通过合理的数据集选择、模型训练和优化,可以提高分类性能和自动化处理效果。
图3为本发明的滴定预测流程示意图,如图3所示,对输入的原图进行yolov5s目标检测模型检测,获得样板中所有圆圈的数量和位置;根据检测到的圆圈位置,对原图进行分割,分割出12个或8个圆圈区域;进行索引匹配,筛选出医生指定的圆圈目标,并按位置排序;对圆圈区域进行掩膜处理,排除圆圈外的干扰因素;对每个圆圈区域进行二分类,判断为阴性或阳性;创建阴性(N1)、弱阳性(N2)、强阳性(N3)3个计数器,遍历判别结果,更新对应计数器;根据计数器值判定滴度水平,输出预测的滴度值。对阴性、1:1滴度结果进行二次验证,输出最终预测结果。
本申请利用计数器统计目标数量,根据判读规则计算滴度,过程简单清晰。避免复杂算法,加快计算速度,提高了自动化处理的效率。其中,输入每个圆形目标区域的分类阴阳结果,避免重新进行区域提取和分类,提高计算效率。设置多个计数器统计不同类型目标数量,简化后续统计判断逻辑,加快运算速度。遍历结果更新计数器,利用程序控制代替人工统计,降低计算时间,提升效率。求和计算总目标数,根据预设阴阳性判断规则,快速判定检验结果类型。避免复杂算法,提高判断速度。结合标准方程计算滴度值,根据输入的计数结果,直接输出定量分析指标。给定输入,利用计数器统计和判定规则,可以快速自动完成定性定量分析,避免人工判读,缩短判断用时。流程简洁可靠,易于优化和并行加速,有利于进一步提升吞吐量,增强自动处理系统的整体效率。该模块设计充分考虑了效率需求,通过合理设置条件,简化流程,实现快速准确的阴阳性判断与滴度计算,从而提高了非梅毒螺旋体血清学试验结果的自动化处理效率。
具体地,当阴性圆形目标数N1等于圆形目标总数N时,则判断非梅毒螺旋体血清学试验结果为阴性,且滴度值为Y1;N1等于N时,判定为阴性。因为当全部目标判定为阴性时,说明样本整体上不含抗体,属于阴性结果,设置滴度值为Y1以表示阴性。在本实施例中,Y1取值为0。自动化的目标检测和定位方法(如采用YOLOv5模型)能够高效地处理图像中的多个目标,同时获取每个目标的中心坐标和半径。这样可以在较短的时间内处理大量的血清学图像,并进行快速准确的阴性判读。将滴度值Y1设置为0,用于表示阴性结果。这种统一的结果表示方法简化了结果解读和后续数据分析的步骤。同时,它也提供了一种标准化的结果输出方式,方便进一步的数据处理和统计分析。
当阴性圆形目标数N1不等于零且强阳性圆形目标数N3等于零时,则判断非梅毒螺旋体血清学试验结果为弱阳性,且滴度值为弱阳性圆形目标数N2除以圆形目标总数N;N1不等于0且N3等于0时,判定为弱阳性。这意味着存在阴性反应但没有强阳性反应,根据标准属于弱阳性。滴度值为N2/N,即弱阳性目标数占总数的比例,表示弱阳性程度。通过滴度值N2/N,可以量化血清学试验结果中弱阳性的程度。这样,医生或研究人员可以根据滴度值的大小来进一步分析和解读结果,从而更好地评估患者的感染程度或疾病状态。弱阳性结果的判定和滴度值提供了更详细的信息,超出了简单的阳性或阴性之间的二元判定。这种量化结果有助于提供更全面的数据,支持医生在临床决策或研究分析中做出更准确的判断。
当强阳性圆形目标数N3不等于零时,则判断非梅毒螺旋体血清学试验结果为强阳性,且滴度值为Y2。N3不等于0时,判定为强阳性。存在强阳性反应即判定为阳性,不再区分强阳性程度,滴度统一设置为Y2表示最强阳性。在本实施例中Y2的取值为1。当强阳性圆形目标数不为零时,即存在强阳性反应时,可以准确判定血清学试验结果为阳性。这避免了将强阳性结果误判为弱阳性、阴性或其他类别的情况。采用固定的滴度值Y2作为强阳性的统一表示,不再区分强阳性程度。这种一致的结果表示方法可以简化结果解读和后续数据处理的步骤,提供一种标准化的阳性结果输出方式,方便进一步的数据分析和统计处理。将滴度值设置为最强阳性标识(本实施例中为1)可以更明确地表示强阳性反应的强度。
具体地,在本实施例中,在梅毒分类流程中,通过detect_batch_deit函数进行预测:在初始化步骤中,定义了两个类名,分别为yin和yang。然后,针对输入的图像路径下的每个图像文件,创建了一个映射,将文件名映射到其对应的图像内容。根据传入的sort_method参数,对图像进行排序。当sort_method为1时,按照文件名中的最后一个数字排序;当sort_method为2时,按照文件名中的第一个数字排序。首先检查是否存在save_path,如果不存在,则创建该路径。然后,删除该路径下的所有现有文件,为新的输出结果腾出空间。图像处理循环:针对image_maps中的每个图像,进行以下操作:使用模型对图像进行推理,得到预测结果。使用detect_batch_deit函数进行推理操作。将预测标签添加到yinyang_result列表中,用于记录每张图像的预测结果。将预测结果可视化到图像上,并保存到指定路径,以便后续分析和参考。返回结果函数通过返回yinyang_result列表,提供了每张图像的预测标签。这些标签可以用于后续的自动化处理和处理。通过使用detect_batch_deit函数进行图像预测和自动化处理,可以大大提高血清学试验检测结果的判断效率。该函数结合了初始化、图像排序、保存路径处理和图像处理循环等步骤,以快速、准确地对图像进行预测并生成结果。
在本实施例中,DeiT_meidu梅毒分类模型检测结果:
(1)TRUST样本:
一次检测结果:阳性212个圆圈,准确率95.75%;阴性200个圆圈,准确率95.5%。
一次检测结果:阳性212个圆圈,准确率95.75%;阴性200个圆圈,准确率95.5%。
(2)RPR样本:
一次检测结果:阳性75个圆圈,准确率90.66%;阴性77个圆圈,准确率84.42%。
二次检测结果:阳性35个圆圈,准确率82.86%;阴性25个圆圈,准确率80.0%。
相较于金标准,TRUST样本的阴阳识别准确率在93%至96%之间,滴度判读准确率在90%至92%之间。RPR样本的阴阳识别准确率在86%至89%之间,滴度判读准确率在85%至86%之间。
DeiT_meidu梅毒分类模型具有高效的运算效率。平均检测一张图像中含有多个样本的情况只需0.6秒,而有经验的检验人员及医生判读同一图像中的单个样本平均耗时超过3秒。通过算法的快速运算,能够提高检测的速度和效率。DeiT_meidu梅毒分类模型遵循检测-分割-预处理-分类-判别的流程,使得血清学试验检测的判读流程更加简便。结合小程序的可视化界面,医生可以方便地使用该模型进行判读操作,提高工作效率。通过DeiT_meidu梅毒分类模型建立统一的判别标准,可以有效避免检测人员主观性对检测结果的影响。该模型通过算法方式进行判断,降低了个体经验和主观判断对血清学试验检测结果的干扰,有利于医生的临床分析和决策。
通过DeiT_meidu梅毒分类模型的应用,可以显著提高血清学试验检测结果的自动化处理效率。该模型具备高效的运算能力,简便的判读流程以及消除主观性影响的优势。
以上示意性地对本发明创造及其实施方式进行了描述,该描述没有限制性,在不背离本发明的精神或者基本特征的情况下,能够以其他的具体形式实现本发明。附图中所示的也只是本发明创造的实施方式之一,实际的结构并不局限于此,权利要求中的任何附图标记不应限制所涉及的权利要求。所以,如果本领域的普通技术人员受其启示,在不脱离本创造宗旨的情况下,不经创造性地设计出与该技术方案相似的结构方式及实施例,均应属于本专利的保护范围。此外,包括一词不排除其他元件或步骤,在元件前的一个一词不排除包括多个该元件。产品权利要求中陈述的多个元件也可以由一个元件通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。

Claims (8)

1.一种基于深度学习的滴度值的处理方法,用于非梅毒螺旋体血清学试验结果的自动处理,包括:
获取非梅毒螺旋体血清学试验结果的第一图像;
对检验图像进行清晰度判断,输出第二图像;
采用卷积神经网络对第二图像进行圆形目标检测,输出圆形目标的中心坐标和半径;
根据检测到的圆形目标的中心坐标和半径对第二图像进行分割,提取圆形目标区域;
根据预设排序规则,对提取的圆形目标区域进行排序;
采用卷积神经网络对排序后的圆形目标区域进行分类,输出阴阳结果;
计算阴阳结果对应的滴度值;
采用卷积神经网络对第二图像进行圆形目标检测,输出圆形目标的中心坐标和半径的步骤包括:
获取包含非梅毒螺旋体血清学试验图像的训练集,对训练集中的圆形目标进行标注,获取标注数据集;
采用卷积神经网络作为检测模型,冻结检测模型的特征提取层,修改检测模型输出为中心坐标和半径;
使用标注数据集训练检测模型;
对输入的第二图像利用训练好的检测模型进行预测,输出圆形目标的中心坐标和半径。
2.根据权利要求1所述的基于深度学习的滴度值的处理方法,其特征在于:
对检验图像进行清晰度判断,输出第二图像的步骤包括:
将输入的非梅毒螺旋体血清学试验结果的第一图像转换为灰度图;
对灰度图进行边缘检测,计算边缘图像的方差和最大值;
根据预设的方差阈值和最大值阈值,判断方差和最大值是否满足第二图像的要求;
如果方差小于预设的方差阈值,且最大值小于预设的最大值阈值,则确认第一图像为第二图像,输出第二图像。
3.根据权利要求1所述的基于深度学习的滴度值的处理方法,其特征在于:
根据检测到的圆形目标的中心坐标和半径对第二图像进行分割,提取圆形目标区域的步骤包括:
根据圆形目标的中心坐标和半径绘制出对应的圆形区域;
利用二值化处理,将圆形区域设置为前景像素值为M1,其他区域设置为背景像素值为M2,得到二值图;
对二值图进行形态学处理,去除噪声区域,得到精修二值图;
根据精修二值图生成对应的掩模;
将掩模与原始的第二图像进行按位与操作,提取出圆形目标区域。
4.根据权利要求1所述的基于深度学习的滴度值的处理方法,其特征在于:
根据预设排序规则,对提取的圆形目标区域进行排序的步骤包括:
计算检测并分割得到的每个圆形目标区域的中心坐标;
根据相邻圆形目标区域中心坐标的纵向差值,判断圆形目标所在地行;
比较同行圆形目标区域中心坐标的横向差值,判断各行内圆形目标的列;
按行顺序,并在同行内按列顺序,生成圆形目标区域的排序索引;
根据排序索引,重新排列圆形目标区域的顺序。
5.根据权利要求1所述的基于深度学习的滴度值的处理方法,其特征在于:
采用卷积神经网络对排序后的圆形目标区域进行分类,输出阴阳结果的步骤包括:
获取包含排序后的圆形目标区域的训练集,进行阴阳标签标注;
采用预训练的轻量级卷积神经网络作为分类模型;
冻结分类模型的特征提取层参数,修改分类模型的全连接层输出为二分类,代表阴阳结果;
使用标注数据集微调分类模型,优化模型参数;
对微调后的分类模型进行评估,计算预测概率pi;
对排序后的圆形目标区域应用训练好的分类模型进行预测,输出对应的阴阳结果。
6.根据权利要求1所述的基于深度学习的滴度值的处理方法,其特征在于:
计算阴阳结果对应的滴度值的步骤包括:
输入每一个圆形目标区域的阴阳结果;
设置每个样本的阴性圆形目标数N1、弱阳性圆形目标数N2和强阳性圆形目标数N3的计数器;
遍历输入的每个圆形目标区域阴阳结果,根据阴阳结果更新对应的计数器;
计算每个样本的圆形目标总数N,圆形目标总数为各计数器之和;
判断计数器数值,根据非梅毒螺旋体血清学试验判读标准确定样本为阴性、弱阳性或强阳性,并计算对应的滴度值;
输出判断得到的阴阳性结果和计算得到的滴度值。
7.根据权利要求6所述的基于深度学习的滴度值的处理方法,其特征在于:
当阴性圆形目标数N1等于圆形目标总数N时,则判断非梅毒螺旋体血清学试验结果为阴性,且滴度值为Y1;
当阴性圆形目标数N1不等于零且强阳性圆形目标数N3等于零时,则判断非梅毒螺旋体血清学试验结果为弱阳性,且滴度值为弱阳性圆形目标数N2除以圆形目标总数N;
当强阳性圆形目标数N3不等于零时,则判断非梅毒螺旋体血清学试验结果为强阳性,且滴度值为Y2。
8.一种基于深度学习的滴度值的处理系统,用于非梅毒螺旋体血清学试验结果的自动处理,包括:
图像清晰度判断模块,用于对输入的非梅毒螺旋体血清学试验图像进行清晰度判断;
圆形目标检测模块,采用预训练卷积神经网络对清晰图像进行圆形目标检测;
圆形目标分割模块,用于根据检测结果对清晰图像进行分割,提取圆形目标区域;
圆形目标排序模块,用于对提取的圆形目标区域进行排序;
圆形目标分类模块,采用预训练卷积神经网络对排序后的圆形目标区域进行分类,输出阴阳结果;
滴度计算模块,用于根据阴阳结果计算对应的滴度值;
其中,采用预训练卷积神经网络对清晰图像进行圆形目标检测包括:
获取包含非梅毒螺旋体血清学试验图像的训练集,对训练集中的圆形目标进行标注,获取标注数据集;
采用卷积神经网络作为检测模型,冻结检测模型的特征提取层,修改检测模型输出为中心坐标和半径;
使用标注数据集训练检测模型;
对输入的第二图像利用训练好的检测模型进行预测,输出圆形目标的中心坐标和半径。
CN202311372626.0A 2023-10-20 2023-10-20 一种基于深度学习的滴度值的处理方法及系统 Active CN117575993B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311372626.0A CN117575993B (zh) 2023-10-20 2023-10-20 一种基于深度学习的滴度值的处理方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311372626.0A CN117575993B (zh) 2023-10-20 2023-10-20 一种基于深度学习的滴度值的处理方法及系统

Publications (2)

Publication Number Publication Date
CN117575993A CN117575993A (zh) 2024-02-20
CN117575993B true CN117575993B (zh) 2024-05-21

Family

ID=89863328

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311372626.0A Active CN117575993B (zh) 2023-10-20 2023-10-20 一种基于深度学习的滴度值的处理方法及系统

Country Status (1)

Country Link
CN (1) CN117575993B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109858428A (zh) * 2019-01-28 2019-06-07 四川大学 基于机器学习和深度学习的ana荧光片自动识别方法
CN113902687A (zh) * 2021-09-18 2022-01-07 中国科学院心理研究所 确定抗体的阴阳性及滴度的方法、设备和介质
CN115176289A (zh) * 2019-12-20 2022-10-11 豪夫迈·罗氏有限公司 使用卷积神经网络的细胞系发育图像表征
CN115311216A (zh) * 2022-07-22 2022-11-08 广州金域医学检验中心有限公司 抗核抗体的荧光图片的判读方法及装置、设备及存储介质
CN116075835A (zh) * 2020-06-09 2023-05-05 淡马锡生命科学研究院有限公司 自动化疾病检测系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109858428A (zh) * 2019-01-28 2019-06-07 四川大学 基于机器学习和深度学习的ana荧光片自动识别方法
CN115176289A (zh) * 2019-12-20 2022-10-11 豪夫迈·罗氏有限公司 使用卷积神经网络的细胞系发育图像表征
CN116075835A (zh) * 2020-06-09 2023-05-05 淡马锡生命科学研究院有限公司 自动化疾病检测系统
CN113902687A (zh) * 2021-09-18 2022-01-07 中国科学院心理研究所 确定抗体的阴阳性及滴度的方法、设备和介质
CN115311216A (zh) * 2022-07-22 2022-11-08 广州金域医学检验中心有限公司 抗核抗体的荧光图片的判读方法及装置、设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
自身免疫病实验室诊断指标与技术的临床应用现状及进展;詹皓婷 等;临床检验杂志;20211031;第39卷(第10期);第725页-第730页 *

Also Published As

Publication number Publication date
CN117575993A (zh) 2024-02-20

Similar Documents

Publication Publication Date Title
US12100146B2 (en) Assessing risk of breast cancer recurrence
US5933519A (en) Cytological slide scoring apparatus
KR20190043135A (ko) 생물학적 입자의 분류 시스템 및 방법
CN111079620B (zh) 基于迁移学习的白细胞图像检测识别模型构建方法及应用
EP3140778B1 (en) Method and apparatus for image scoring and analysis
CN112703531A (zh) 生成组织图像的注释数据
AU2021349226C1 (en) Critical component detection using deep learning and attention
KR20200136004A (ko) 세포 샘플 내에서 적어도 하나의 기형을 가지는 세포를 검출하기 위한 방법
CN114782372B (zh) Dna荧光原位杂交bcr/abl融合状态检测方法、检测系统
US20150242676A1 (en) Method for the Supervised Classification of Cells Included in Microscopy Images
Angulo et al. Ontology-based lymphocyte population description using mathematical morphology on colour blood images
Rahman et al. Automatic identification of abnormal blood smear images using color and morphology variation of RBCS and central pallor
CN115359264A (zh) 一种密集型分布的粘连细胞深度学习识别方法
Albuquerque et al. Quality control in digital pathology: Automatic fragment detection and counting
CN117575993B (zh) 一种基于深度学习的滴度值的处理方法及系统
White et al. DevStaR: high-throughput quantification of C. elegans developmental stages
KR20230063147A (ko) 다단계 특징 분석을 사용한 전립선 조직의 효율적인 경량 cnn과 앙상블 머신 러닝 분류 방법 및 시스템
CN111401119A (zh) 细胞核的分类
Jayaraj Digital Pathology with Deep Learning for Diagnosis of Breast Cancer in Low-Resource Settings
US20220383618A1 (en) Apparatus and methods of training models of diagnostic analyzers
Teixeira et al. Brain Tumor Images Class-Based and Prompt-Based Detectors and Segmenter: Performance Evaluation of YOLO, SAM and Grounding DINO
Liang Genetic Programming for Supervised Figure-ground Image Segmentation
Qian et al. CellBoost: A pipeline for machine assisted annotation in neuroanatomy
Nikolskyy et al. New image pre-processing methods for tracking various biological objects movement
CN117524425A (zh) 乳腺癌组织病理图像有丝分裂细胞核检测方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant