CN117274294B - 一种同源染色体分割方法 - Google Patents

一种同源染色体分割方法 Download PDF

Info

Publication number
CN117274294B
CN117274294B CN202311201268.7A CN202311201268A CN117274294B CN 117274294 B CN117274294 B CN 117274294B CN 202311201268 A CN202311201268 A CN 202311201268A CN 117274294 B CN117274294 B CN 117274294B
Authority
CN
China
Prior art keywords
network
image
loss
frame
mask
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311201268.7A
Other languages
English (en)
Other versions
CN117274294A (zh
Inventor
李娜
牛兵
陈思远
朱春阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiaona Technology Suzhou Co ltd
Original Assignee
Xiaona Technology Suzhou Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiaona Technology Suzhou Co ltd filed Critical Xiaona Technology Suzhou Co ltd
Priority to CN202311201268.7A priority Critical patent/CN117274294B/zh
Publication of CN117274294A publication Critical patent/CN117274294A/zh
Application granted granted Critical
Publication of CN117274294B publication Critical patent/CN117274294B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种同源染色体分割方法,其特征在于,其包括一高召回率网络和一高准确率网络,所述高召回率网络和高准确率网络相互串联或并联以从输入的图像中分割并识别染色体图像,其中所述高召回率网络是进行高召回率训练得到的Mask R‑CNN网络,所述高准确率网络是进行高准确率训练得到的YOLOv7网络。本发明的优点是:两种算法并联或串联使用来实现对象检测和图像分割任务,与其他传统的图像分割方法相比,这种方法可以消除优化分割召回率所带来的准确率降低,能够更有效地处理图像中的对象和背景之间的复杂关系,从而获得更准确的分割结果。

Description

一种同源染色体分割方法
技术领域
本发明涉及人工智能领域,尤其涉及一种同源染色体分割方法。
背景技术
图像处理技术的发展可以追溯到计算机科学的早期阶段。20世纪60年代至70年代,研究人员开始尝试使用计算机对图像进行处理和分析。这些早期的方法主要基于数学和统计学原理,如傅里叶变换和滤波器设计等。
20世纪80年代,数字图像处理开始兴起。随着计算机硬件的进步和数字图像的普及,数字图像处理开始成为一个独立的研究领域。研究人员开始探索更多的图像处理算法和技术,如边缘检测、图像增强和分割等。
医学图像处理的应用:随着医学图像获取技术的进步,尤其是计算机断层扫描(CT)和磁共振成像(MR I)的广泛应用,医学图像处理成为图像处理领域的重要应用之一。医学图像处理的目标在于提取和分析医学图像中的有用信息,如病变检测、组织分割和三维重建等。
并行网络的应用:近年来,随着硬件技术的进步,特别是图形处理单元(GPU)的广泛应用,基于并行网络的图像处理方法得以快速发展。并行计算的优势可以加速图像处理算法的执行速度,特别是对于大规模的图像数据。
目前的同源染色体分割技术通常基于图像处理和机器学习方法。传统的图像处理方法,如阈值分割和边缘检测,虽然简单直观,但对于复杂的染色体图像,容易受到噪声和图像变化的影响,导致分割结果不准确。如今的机器学习方法,如基于深度学习的分割网络,能够自动学习特征,并在染色体分割中取得了一定的成功。这些方法需要大量的标注数据和复杂的训练过程,且对计算资源要求较高。
现有技术缺陷和不足:
传统图像处理方法容易受到噪声和图像变化的影响,导致分割结果不准确。
机器学习方法需要大量的标注数据和复杂的训练过程,限制了其在实际应用中的可行性。
染色体图像复杂多样,不同细胞和染色体之间存在形态差异,传统方法或机器学习方法难以适应不同场景和特殊染色体的分割。
染色体图像中可能存在遮挡、重叠、模糊等问题,影响分割的准确性和鲁棒性。
部分现有技术在处理大规模染色体图像时,计算复杂度较高,无法满足实时分割的需求。
发明内容
本发明的目的在于提供一种兼顾准确性和全面性的同源染色体分割方法。
为实现上述目的,本发明提供如下技术方案:一种同源染色体分割方法,其包括一高召回率网络和一高准确率网络,所述高召回率网络和高准确率网络相互串联或并联以从输入的图像中分割并识别染色体图像,其中所述高召回率网络是进行高召回率训练得到的Mask R-CNN网络,所述高准确率网络是进行高准确率训练得到的YOLOv7网络;所述YOLOv7网络的输入图像是进行过分割的单个或多个重叠的染色体图像;其中,所述Mask R-CNN网络和YOLOv7网络均使用引入注意力机制的动态卷积;所述动态卷积的计算公式为
其中,x为输入,y为输出,φ为激活函数,为聚合权重,/>为聚合偏置,为K个并行卷积核和偏置,πk(x)为注意力权重,随着输入数据x而变化,zk为注意力模块中的全连接层的第k个输出,τ为归一化函数softmax的温度变化,τ是一个超参数;J是注意力模块中的全连接层输出维度。
优选的,训练所述高召回率网络包括以下步骤:
11)在训练数据集中,给染色体和背景设置不同的权重,所述训练数据集的图像中包括N个样本、C个类别,样本包括1个单独的染色体或多个重叠的染色体;
12)计算所述高召回率网络的损失函数L:L=lcls+lmask+lbox;式中,lcls是全部样本的类别损失,lmask是全部样本的掩膜损失,lbox是全部样本的边界回归损失函数,其中,所述类别损失lcls,掩膜损失lmask均根据其类别的权重进行加权,且对于正样本的权重大于对于负样本的权重。
优选的,所述掩膜损失lmask的计算公式为:
其中,Nmask是真实类别为j的掩膜的所有像素点的数量,第j个类别的权重为wj,qmn为掩码位置(m,n)的实际值,为网络在位置(m,n)的预测值,pj为系数,当当前掩膜属于第j类时为1否则为0。
优选的,所述类别损失lcls的计算公式为:
其中,yi是独热编码,表示第i个样本的真实标签,yij表示第i个样本是否属于第j类,yij∈{0,1};pi是第i个目标的预测概率向量,pij是第i个样本属于类别j的概率,wj是第j个类别的权重。
优选的,所述边界回归损失函数lbox的计算公式是:
式中,i是RPN网络中每个锚框的索引,
ti={tx,ty,tw,th}表示RPN网络中锚框的预测坐标,RPN网络是区域生成网络、tx是锚框的中心点横坐标、ty是锚框的中心点纵坐标、tw是锚框的宽、th是锚框的高、Nreg是候选框的个数、R(x)是单个锚框的损失函数,是平滑l1损失函数;/>是与ti维度相同的向量,表示RPN网络中锚框的真实坐标;qi *是系数,前景时取1、背景时取0。
优选的,训练所述高准确率网络包括以下步骤:
21)训练数据集输入到所述高准确率网络,所述训练数据集的图像中包括N个样本、C个类别,样本包括1个单独的染色体或多个重叠的染色体;
22)计算所述高准确率网络的损失函数:
L=λconflconfclslclsboxlboxβFβ
式中,λconf、λcls、λbox和λβ为4个超参数,分别为置信度损失lconf、分类损失lcls、边框回归损失lbox、F-beta损失Fβ的权重;其中,F-beta损失Fβ的计算公式为:
式中,β是偏重参数,pi是第i个样本的预测值,yi是第i个样本的真实值。
优选的,所述置信度损失lconf的计算公式为:
,式中,Nconf是候选框的个数,是预测的第i个基本单元的第j个边框的目标置信度分数,/>是预测的第i个基本单元的第j个边框与之对应的目标框的IOU值(Intersection over Union:交并比);/>是示性函数,当预测框属于目标类别时为1否则为0;S2是基本单元的总数,B为基本单元上的边框数量。
优选的,所述分类损失lcls的计算公式为:
式中,Ci,j是第i个基本单元上的第j个边框的真实标签,
是第i个基本单元上的第j个边框的预测概率,
是示性函数,当预测框属于目标类别时为1否则为0;S2是基本单元的总数,B为基本单元上的边框数量。
优选的,所述边框回归损失lbox的计算公式为:
,式中,ti,j={tx,ty,tw,th,}是第i个基本单元上的第j个预测框的坐标,tx是预测框中心点的横坐标、ty是预测框中心点的纵坐标、tw是预测框的宽、th是预测框的高;是与ti,j维度相同的向量,表示锚框的真实坐标;do是目标框与预测框中心点的欧氏距离,dc是目标框的对角线距离;/>是示性函数,当预测框属于目标类别时为1否则为0;S2是基本单元的总数,B为基本单元上的边框数量;v是衡量长宽比一致性的参数,被定义为:
式中,tw是预测框的宽、th是预测框的高、是真实锚框的宽、/>是真实锚框的高。
优选的,训练所述高准确率网络所使用的所述训练数据集是通过以下步骤获取的:
S31、去噪:输入原始图,然后对原始图使用高斯卷积核进行高斯滤波以滤除噪声,其中,高斯卷积核为:
式中,σ是标准差,x是图像像素的横坐标,y是图像像素的纵坐标;
S32、计算梯度和图像方向:使用Sobel算子计算步骤S31滤波后的图像中每个像素点的梯度强度G和图像方向λ:
式中,Gx是梯度图像的横向梯度,Gy是梯度图像的纵向梯度,I是步骤S31滤波后的图像;
S33、非极大值抑制:对梯度图像进行非极大值抑制,以保留边缘的细节信息;对梯度图像中每个像素进行非极大值抑制的算法步骤是:
S33-1、将当前像素的梯度强度与沿正负梯度方向上的两个像素进行比较;
S33-2、如果当前像素的梯度强度与另外两个像素相比最大,则该像素点保留为边缘点,否则该像素点将被抑制;
S34、双阈值检测:对步骤S33中进行非极大值抑制后的图像通过高低阈值来滤波;如果边缘像素的梯度值高于高阈值,则将其标记为强边缘像素;如果边缘像素的梯度值小于高阈值并且大于低阈值,则将其标记为弱边缘像素;如果边缘像素的梯度值小于低阈值,则会被抑制;
S35、边缘跟踪:最后进行边缘跟踪,对高阈值的边缘像素点进行跟踪,以确定真正的边缘;
S36、图像分割:通过4邻域连通域分割算法对S35获得的边缘信息,对梯度图像进行分割:
S36-1、初始化:将图像中的所有像素都标记为未访问状态;
S36-2、遍历:遍历图像中的每个像素,对未访问且符合条件的像素进行访问,并将其周围的像素标记为已访问状态;
S36-3、连通域标记:对已访问的像素进行连通域标记,将同一连通域内的像素标记为同一标记;
S36-4、循环:重复以上步骤,直到所有像素都被访问;最终得到多个连通域,每个连通域包含一组相邻的像素,连通域即分割后的图像;
S37、人工标注:人工对分割后的图像进行染色体识别并进行标注,以得到所述训练数据集。
本发明的优点是:
1)两种算法并联或串联使用来实现对象检测和图像分割任务,与其他传统的图像分割方法相比,这种方法可以消除优化分割召回率所带来的准确率降低,能够更有效地处理图像中的对象和背景之间的复杂关系,从而获得更准确的分割结果;
2)引入动态卷积,动态卷积能够根据输入特征的上下文信息,自适应地调整卷积核的大小和形状。对于染色体而言,常规的固定卷积核可能无法捕捉到足够的上下文信息,导致分割结果不准确。而动态卷积可以根据目标的尺寸和形状动态调整卷积核的大小,增加感受野,更好地捕捉到目标的细节特征。
此外,动态卷积通过引入注意力机制等方式,能够对输入特征图进行非局部的上下文建模。在染色体分割任务中,背景干扰相对较多,而动态卷积可以通过自适应地学习卷积核权重,更关注目标区域并抑制背景噪声,提高分割的准确性。
附图说明
图1是本发明某一实施例的原理示意图;
图2是本发明另一实施例的原理示意图。
具体实施方式
下面结合具体实施方式对本专利的技术方案作进一步详细地说明。
在本发明的描述中,需要说明的是,术语“内”、“外”、“上”、“下”、“水平”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
如图1至图2所示,本发明的一种同源染色体分割方法,其包括一高召回率网络和一高准确率网络,高召回率网络和高准确率网络相互串联或并联以从输入的图像中分割并识别染色体图像。其中高召回率网络是进行高召回率训练得到的Mask R-CNN网络,高准确率网络是进行高准确率训练得到的YOLOv7网络。Mask R-CNN是一种成熟的实例分割算法,YOLOv7网络是一种成熟的目标检测算法。其中,Mask R-CNN网络和YOLOv7网络均使用引入注意力机制的动态卷积;动态卷积的计算公式为
其中,x为输入,y为输出,φ为激活函数,为聚合权重,/>为聚合偏置,为K个并行卷积核和偏置,πk(x)为注意力权重,随着输入数据x而变化,zk为注意力模块中的全连接层的第k个输出,τ为归一化函数softmax的温度变化,τ是一个超参数;J是注意力模块中的全连接层输出维度。归一化函数Softmax是一种数学函数,通常用于将一组任意实数转换为表示概率分布的实数。
染色体分割是一项非常具有挑战性的任务。人工标识染色体后,在模型训练期间,模型需要学习各种不同形态的染色体并用正确的方式进行分割,其需要更精准的算法和更多的训练数据,并结合人的先验知识,方可获得更高的准确性。本发明一种基于Mask R-CNN-RPN50神经网络和基于轮廓检测算法的两种同源染色体分割方法,通过两种分割方法串联或并联来兼顾准确性和鲁棒性。
第一条分支用以优化分割召回率(Recall),采用Mask R-CNN神经网络架构,用于对核型图同时进行对象检测和图像分割。
为了消除优化分割召回率所带来的准确率(Precision)降低,第二条分支着重优化分割准确度。
这两种算法可以并联或串联的方式使用来实现对象检测和图像分割任务,与其他传统的图像分割方法相比,这种方法能够更有效地处理图像中的对象和背景之间的复杂关系,从而获得更准确的分割结果。其中,两条分支采用如下方式进行训练:
一、训练高召回率网络包括以下步骤:
11)在训练数据集中,给染色体和背景设置不同的权重,训练数据集图像中包括N个样本、C个类别(也即染色体的类别),图像中包括多个单独的染色体或重叠的染色体;
12)计算高召回率网络的损失函数L:L=lcls+lmask+lbox;式中,lcls是全部样本的类别损失,lmask是全部样本的掩膜损失,lbox是全部样本的边界回归损失函数,其中,类别损失lcls、掩膜损失lmask中均根据其类别的权重进行加权,对于正样本的权重大于负样本的权重。
掩膜损失lmask的计算公式为:
其中,Nmask表示真实类别为j的掩膜的所有像素点的数量,第j个类别的权重为wj,qmn表示掩码位置(m,n)的实际值,为网络在位置(m,n)的预测值,pj表示当前掩膜属于第j类时为1否则为0。
类别损失lcls的计算公式为:
其中,yi是独热编码,表示第i个样本的真实标签,yij表示第i个样本是否属于第j类,yij∈{0,1};pi是第i个目标的预测概率向量,pij是第i个样本属于类别j的概率,wj是第j个类别的权重。通过设置类别的权重,可以使得高召回率网络更关注同类别的染色体,对该类别染色体具有更高的识别率。
边界回归损失函数lbox的计算公式是:
式中,i是RPN网络中每个锚框的索引,ti={tx,ty,tw,th}表示RPN网络中锚框的预测坐标,tx是锚框的中心点横坐标、ty是锚框的中心点纵坐标、tw是锚框的宽、th是锚框的高、Nreg是候选框的个数、R(x)是单个锚框的损失函数,表示平滑l1损失函数;/>是与ti维度相同的向量,表示RPN网络中锚框的真实坐标;qi *是系数,前景时取1、背景时取0,意味着只有前景才有回归损失。RPN网络是区域生成网络,RPN全称是Region ProposalNetwork,Region Proposal的中文意思是“区域选取”,也就是“提取候选框”的意思,所以RPN网络就是用来提取候选框的网络,其被广泛应用于目标检测。锚框是RPN网络中的围绕锚点形成的固定的目标参考框,锚点是RPN网络特征图上的像素点。
二、训练高准确率网络时,其输入图像是进行过分割的单个或多个重叠的染色体图像,以提高其识别的准确度,其包括以下步骤:
21)训练数据集输入到高准确率网络,训练数据集图像中包括N个样本、C个类别;
22)计算高准确率网络的损失函数:
L=λconflconfclslclsboxlboxβFβ,其中,
λconf、λcls、λbox和λβ为4个超参数,分别为置信度损失lconf、分类损失lcls、边框回归损失lbox、F-beta损失Fβ的权重;其中,
(一)F-beta损失Fβ的计算公式为:
式中,β是偏重参数,pi是第i个样本的预测值,yi是第i个样本的真实值。
F-beta损失Fβ是基于Fβscore提出来的一种损失函数:
其中β的值决定了对精度和召回率的重视程度。当β=1时,Fβscore等同于F1分数,平衡了精度和召回率的重要性。增大β的值会更加强调召回率,降低β的值则会更加重视精度。
将F-beta损失Fβ作为损失函数的一部分有以下几个好处:
1)考虑精度和召回率的平衡:F-beta损失Fβ综合了精度和召回率的信息,可以更好地平衡两者之间的关系。将F-beta损失Fβ作为损失函数的一部分,可以促使高准确率网络在训练过程中更好地考虑精度和召回率之间的权衡。
2)强调特定的评估指标:通过调整β的值,可以更加灵活地强调对精度或召回率的关注。当需要更加注重召回率时,可以增大β的值,从而使模型更加注重找到正例。反之,如果重视精度,则可以减小β的值,使模型更加注重准确预测正例。
(二)置信度损失lconf的计算公式为:
式中,Nconf是候选框的个数,表示预测的第i个基本单元的第j个边框的目标置信度分数,/>是预测的第i个基本单元的第j个边框与之对应的目标框的IOU值;/>为示性函数,当预测框属于目标类别时为1否则为0;S2为基本单元的总数,B为基本单元上的边框数量。YOLOv7网络会首先将输入的图形分割为S*S的网格,每个网格即为基本单元,S是自然数。
(三)分类损失lcls的计算公式为:
式中,Ci,j表示第i个基本单元上的第j个边框的真实标签,表示第i个基本单元上的第j个边框的预测概率;/>是示性函数,当预测框属于目标类别时为1否则为0;S2为基本单元的总数,B为基本单元上的边框数量。
(四)边框回归损失lbox的计算公式:
式中,ti,j={tx,ty,tw,th}表示第i个基本单元上的第j个预测框的坐标,tx是预测框中心点的横坐标、ty是预测框中心点的纵坐标、tw是预测框的宽、th是预测框的高;是与ti,j维度相同的向量,表示锚框的真实坐标;do表示目标框与预测框中心点的欧氏距离,dc为目标框的对角线距离;/>是示性函数,当预测框属于目标类别时为1否则为0;S2为基本单元的总数,B为基本单元上的边框数量;v是衡量长宽比一致性的参数,被定义为:
式中,tw是预测框的宽、th是预测框的高、是真实锚框的宽、/>是真实锚框的高。
其中,边框回归损失lbox还可以采用GIoU损失来计算:
式中,ti,j={tx,ty,tw,th},表示第i个基本单元上的第j个边框的坐标,是与ti,j维度相同的向量,表示锚框的真实坐标。do表示目标框与预测框中心点的欧氏距离,dc表示为目标框与预测框的最小外接矩阵的对角线距离。/>是示性函数,当边框属于第c个类别时为1否则为0。
三、训练所述高准确率网络所使用的训练数据集是通过以下步骤获取的:
S31、去噪:输入原始图,然后对原始图使用高斯卷积核进行高斯滤波以滤除噪声,其中,高斯卷积核为:
式中,σ是标准差,x是图像像素的横坐标,y是图像像素的纵坐标;
S32、计算梯度和图像方向:使用Sobel算子(索贝尔算子)计算步骤S31滤波后的图像中每个像素点的梯度强度G和方向θ:
式中,Gx是梯度图像的横向梯度,Gy是梯度图像的纵向梯度,I是步骤S31滤波后的图像;索贝尔算子是计算机视觉领域的一种重要处理方法,主要用于获得数字图像的一阶梯度,常见的应用是边缘检测。
S33、非极大值抑制:对梯度图像进行非极大值抑制,以保留边缘的细节信息;对梯度图像中每个像素进行非极大值抑制的算法步骤是:
S33-1、将当前像素的梯度强度与沿正负梯度方向上的两个像素进行比较;
S33-2、如果当前像素的梯度强度与另外两个像素相比最大,则该像素点保留为边缘点,否则该像素点将被抑制;
S34、双阈值检测:在施加非极大值抑制之后,剩余的像素可以更准确地表示梯度图像中的实际边缘,然而依然存在由于噪声和颜色变化引起的一些边缘像素,为了消除这些影响,选择双阈值来滤波。也即对步骤S33中进行非极大值抑制后的梯度图像通过高低阈值来滤波;如果边缘像素的梯度值高于高阈值,则将其标记为强边缘像素;如果边缘像素的梯度值小于高阈值并且大于低阈值,则将其标记为弱边缘像素;如果边缘像素的梯度值小于低阈值,则会被抑制;
S35、边缘跟踪:最后进行边缘跟踪,对高阈值的边缘像素点进行跟踪,以确定真正的边缘;
S36、图像分割:通过4邻域连通域分割算法对S35获得的边缘信息,对梯度图像进行分割:
S36-1、初始化:将梯度图像中的所有像素都标记为未访问状态;
S36-2、遍历:遍历梯度图像中的每个像素,对未访问且符合条件的像素进行访问,并将其周围的像素标记为已访问状态;
S36-3、连通域标记:对已访问的像素进行连通域标记,将同一连通域内的像素标记为同一标记;
S36-4、循环:重复以上步骤,直到所有像素都被访问;最终得到多个连通域,每个连通域包含一组相邻的像素,连通域即分割后的图像;
S37、人工标注:人工对分割后的图像进行染色体识别并进行标注,以得到训练数据集。
高召回率网络和高准确率网络并联时,需要对高召回率网络和高准确率网络输出的结果进行合并作业,本发明提供以下三种方法,可以根据需要选择使用:
1)加权平均:也即对高召回率网络和高准确率网络输出的结果进行加权平均:为每个网络的分割结果分配权重,并使用加权平均来得到最终的合并结果。权重的设置根据两个网络的分割效果来确定。较高权重的网络在合并结果中可能具有更大的影响力。具体而言,具体操作为:
a.首先,为每个网络确定权重。
b.对于每个像素位置,将两个网络的预测结果按照权重进行加权平均。高召回率网络和高准确率网络的权重分别为Netmask和Netyolo,而像素位置(i,j)上在两个网络的预测结果分别为pmask(i,j)和pyolo(i,j),那么最终的合并结果m(i,j)可以通过以下公式计算得到:
m(i,j)=(Netmask*pmask(i,j)+Netyolo*pyolo(i,j))/(Netmask+Netyolo)
c.重复上述步骤,对所有像素位置进行加权平均操作,得到最终的合并结果。
2.逻辑运算:对于像素级分割,将两个网络的预测结果进行逐像素的逻辑运算。
常用的逻辑运算有交集(AND)和并集(OR):
a.交集(AND):将两个网络的预测结果相应位置的像素进行逻辑与运算。只有当两个网络都将某个像素标记为前景时,最终的合并结果中才会将该像素标记为前景。这种方法可以增加合并结果的精确度,但可能会降低召回率。
b.并集(OR):将两个网络的预测结果相应位置的像素进行逻辑或运算。只要其中一个网络将某个像素标记为前景,最终的合并结果中就会将该像素标记为前景。这种方法可以增加合并结果的召回率,但可能会降低精确度。
3.基于阈值的组合:对于每个网络的分割结果,根据阈值将其二值化,然后根据逻辑运算来合并二值化结果。通过调整阈值,可以平衡高精度和高回归率之间的权衡。
具体操作如下:
a.针对每个网络的分割结果,选择一个适当的阈值。阈值根据任务需求进行调整,较高的阈值可能会增加精确度,而较低的阈值可能会增加召回率。
b.将每个网络的分割结果进行二值化处理,即将每个像素位置上的预测结果转换为二进制的前景或背景,根据所选的阈值进行划分。
c.对于二值化结果,根据逻辑运算来合并它们。如果选择交集,则只有在所有网络中都将某个像素位置标记为前景时,最终的合并结果中才会将该位置标记为前景。如果选择并集,则只要任何一个网络将某个像素位置标记为前景,最终的合并结果中就会将该位置标记为前景。
d.根据实际任务需求,反复调整阈值,并重新进行二值化和逻辑运算,以找到最佳的平衡点,使合并结果在精确度和召回率之间达到最优。
在实践中进行实验和调整,以找到最佳的合并策略。同时进行验证和测试以评估合并结果的性能和质量。
最后对合并的结果进一步操作,以进一步优化和改善分割结果的质量。应用形态学操作(如腐蚀、膨胀)来去除小的误检测或填充分割结果中的空洞。
高召回率网络和高准确率网络串联时,将高召回率网络的输出结果作为中间输出结果,并作为输入图像输入到高准确率网络中检测,从而输出最终输出结果。
本发明中的两个高召回率网络和高准确率网络并不局限于YOLOv7和Mask R-CNN,还可以使用其他的模型来替换。例如可以使用PP-YOLOE、YOLOv8代替YOLOv7,使用CondInst、BlendMask模型代替Mask R-CNN。这些模型同样可以结合本发明中设计的损失函数和动态卷积,来实现本发明的技术效果。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其它相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (8)

1.一种同源染色体分割方法,其特征在于,其包括一高召回率网络和一高准确率网络,所述高召回率网络和高准确率网络相互串联或并联以从输入的图像中分割并识别染色体图像,其中所述高召回率网络是进行高召回率训练得到的Mask R-CNN网络,所述高准确率网络是进行高准确率训练得到的YOLOv7网络;所述YOLOv7网络的输入图像是进行过分割的单个或多个重叠的染色体图像;其中,所述Mask R-CNN网络和YOLOv7网络均使用引入注意力机制的动态卷积;所述动态卷积的计算公式为
其中,x为输入,y为输出,φ为激活函数,为聚合权重,/>为聚合偏置,为K个并行卷积核和偏置,πk(x)为注意力权重,随着输入数据x而变化,zk为注意力模块中的全连接层的第k个输出,τ为归一化函数softmax的温度变化,τ是一个超参数;J是注意力模块中的全连接层输出维度;
训练所述高召回率网络包括以下步骤:
11)在训练数据集中,给染色体和背景设置不同的权重,所述训练数据集的图像中包括N个样本、C个类别,样本包括1个单独的染色体或多个重叠的染色体;
12)计算所述高召回率网络的损失函数
L:L=lcls+lmask+lbox;式中,lCls是全部样本的类别损失,lmask是全部样本的掩膜损失,lbox是全部样本的边界回归损失函数,其中,所述类别损失lcls、掩膜损失lmask中均根据其类别的权重进行加权,且对于正样本的权重大于对于负样本的权重;
训练所述高准确率网络包括以下步骤:
21)训练数据集输入到所述高准确率网络,所述训练数据集的图像中包括N个样本、C个类别,样本包括1个单独的染色体或多个重叠的染色体;
22)计算所述高准确率网络的损失函数:L=λconflconfclslclsboxlboxβFβ,式中,λconf、λcls、λbox和λβ为4个超参数,分别为置信度损失lconf、分类损失lcls、边框回归损失lbox、F-beta损失Fβ的权重;其中,F-beta损失Fβ的计算公式为:
式中,β是偏重参数,pi是第i个样本的预测值,yi是第i个样本的真实值。
2.根据权利要求1所述的一种同源染色体分割方法,其特征在于:所述掩膜损失lmask的计算公式为:
其中,Nmask表示真实类别为j的掩膜的所有像素点的数量,第j个类别的权重为wj,qmn表示掩码位置(m,n)的实际值,为网络在位置(m,n)的预测值;pj为系数,当当前掩膜属于第j类时为1否则为0。
3.根据权利要求1所述的一种同源染色体分割方法,其特征在于:所述类别损失lcls的计算公式为:
其中,yi是独热编码,表示第i个样本的真实标签,yij表示第i个样本是否属于第j类,yij∈{0,1};pi是第i个目标的预测概率向量,pij是第i个样本属于类别j的概率,wj是第j个类别的权重。
4.根据权利要求1所述的一种同源染色体分割方法,其特征在于:所述边界回归损失函数lbox的计算公式是:
式中,i是RPN网络中每个锚框的索引,ti={tx,ty,tw,th}表示RPN网络中锚框的预测坐标,RPN网络是区域生成网络、tx是锚框的中心点横坐标、ty是锚框的中心点纵坐标、tw是锚框的宽、th是锚框的高、Nreg是候选框的个数、R(x)是单个锚框的损失函数,是平滑l1损失函数;/>是与ti维度相同的向量,表示RPN网络中锚框的真实坐标;qi *是系数,前景时取1、背景时取0。
5.根据权利要求1所述的一种同源染色体分割方法,其特征在于:所述置信度损失lconf的计算公式为:
,式中,Nconf是候选框的个数,是预测的第i个基本单元的第j个边框的目标置信度分数,/>是预测的第i个基本单元的第j个边框与之对应的目标框的IOU值;/>是示性函数,当预测框属于目标类别时为1否则为0;S2是基本单元的总数,B为基本单元上的边框数量。
6.根据权利要求1所述的一种同源染色体分割方法,其特征在于:所述分类损失lcls的计算公式为:
式中,Ci,j是第i个基本单元上的第j个边框的真实标签,是第i个基本单元上的第j个边框的预测概率;/>是示性函数,当预测框属于目标类别时为1否则为0;S2为基本单元的总数,B为基本单元上的边框数量。
7.根据权利要求1所述的一种同源染色体分割方法,其特征在于:所述边框回归损失lbox的计算公式为:
式中,ti,j={tx,ty,tw,th}是第i个基本单元上的第j个预测框的坐标,tx是预测框中心点的横坐标、ty是预测框中心点的纵坐标、tw是预测框的宽、th是预测框的高;是与t维度相同的向量,表示锚框的真实坐标;do是目标框与预测框中心点的欧氏距离,dc是目标框的对角线距离;/>是示性函数,当预测框属于目标类别时为1否则为0;S2为基本单元的总数,B为基本单元上的边框数量;v是衡量长宽比一致性的参数,被定义为:
式中,是真实锚框的宽、/>是真实锚框的高。
8.根据权利要求1至7其中之一所述的一种同源染色体分割方法,其特征在于:训练所述高准确率网络所使用的所述训练数据集是通过以下步骤获取的:
S31、去噪:输入原始图,然后对原始图使用高斯卷积核进行高斯滤波以滤除噪声,其中,高斯卷积核为:
式中,σ是标准差,x是图像像素的横坐标,y是图像像素的纵坐标;
S32、计算梯度和图像方向:使用Sobel算子计算步骤S31滤波后的图像中每个像素点的梯度强度G和图像方向θ:
式中,Gx是梯度图像的横向梯度,Gy是梯度图像的纵向梯度,I是步骤S31滤波后的图像;
S33、非极大值抑制:对梯度图像进行非极大值抑制,以保留边缘的细节信息;对梯度图像中每个像素进行非极大值抑制的算法步骤是:
S33-1、将当前像素的梯度强度与沿正负梯度方向上的两个像素进行比较;
S33-2、如果当前像素的梯度强度与另外两个像素相比最大,则该像素点保留为边缘点,否则该像素点将被抑制;
S34、双阈值检测:对步骤S33中进行非极大值抑制后的图像通过高低阈值来滤波;如果边缘像素的梯度值高于高阈值,则将其标记为强边缘像素;如果边缘像素的梯度值小于高阈值并且大于低阈值,则将其标记为弱边缘像素;如果边缘像素的梯度值小于低阈值,则会被抑制;
S35、边缘跟踪:最后进行边缘跟踪,对高阈值的边缘像素点进行跟踪,以确定真正的边缘;
S36、图像分割:通过4邻域连通域分割算法对S35获得的边缘信息,对梯度图像进行分割:
S36-1、初始化:将图像中的所有像素都标记为未访问状态;
S36-2、遍历:遍历图像中的每个像素,对未访问且符合条件的像素进行访问,并将其周围的像素标记为已访问状态;
S36-3、连通域标记:对已访问的像素进行连通域标记,将同一连通域内的像素标记为同一标记;
S36-4、循环:重复以上步骤,直到所有像素都被访问;最终得到多个连通域,每个连通域包含一组相邻的像素,连通域即分割后的图像;
S37、人工标注:人工对分割后的图像进行染色体识别并进行标注,以得到所述训练数据集。
CN202311201268.7A 2023-09-18 2023-09-18 一种同源染色体分割方法 Active CN117274294B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311201268.7A CN117274294B (zh) 2023-09-18 2023-09-18 一种同源染色体分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311201268.7A CN117274294B (zh) 2023-09-18 2023-09-18 一种同源染色体分割方法

Publications (2)

Publication Number Publication Date
CN117274294A CN117274294A (zh) 2023-12-22
CN117274294B true CN117274294B (zh) 2024-06-04

Family

ID=89217076

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311201268.7A Active CN117274294B (zh) 2023-09-18 2023-09-18 一种同源染色体分割方法

Country Status (1)

Country Link
CN (1) CN117274294B (zh)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109300111A (zh) * 2018-08-27 2019-02-01 杭州德适生物科技有限公司 一种基于深度学习的染色体识别方法
CN110533684A (zh) * 2019-08-22 2019-12-03 杭州德适生物科技有限公司 一种染色体核型图像切割方法
CN112215847A (zh) * 2020-09-30 2021-01-12 武汉大学 基于对抗学习多尺度特征的重叠染色体自动分割方法
CN113658199A (zh) * 2021-09-02 2021-11-16 中国矿业大学 基于回归修正的染色体实例分割网络
CN113658150A (zh) * 2021-08-23 2021-11-16 西安交通大学 一种基于深度学习的染色体自动分割和分类方法
WO2022089221A1 (zh) * 2020-10-30 2022-05-05 苏州瑞派宁科技有限公司 医学图像分割方法、装置、设备、系统及计算机存储介质
CN115049686A (zh) * 2022-08-15 2022-09-13 湖南自兴智慧医疗科技有限公司 一种基于辅助信息的复杂染色体区域分割方法及装置
CN115082474A (zh) * 2022-08-22 2022-09-20 湖南自兴智慧医疗科技有限公司 一种基于同源同类染色体信息的染色体分割方法及装置
WO2022199143A1 (zh) * 2021-03-26 2022-09-29 南京邮电大学 一种基于u型网络的医学图像分割方法
CN115188413A (zh) * 2022-06-17 2022-10-14 广州智睿医疗科技有限公司 一种染色体核型分析模块
CN115564954A (zh) * 2022-10-17 2023-01-03 广东医科大学 一种染色体图像分割方法
CN115691678A (zh) * 2022-10-27 2023-02-03 中国科学院苏州生物医学工程技术研究所 基于注意力机制的深度学习染色体自动识别模型及系统
CN115760867A (zh) * 2022-11-30 2023-03-07 云南大学 一种基于改进U-Net网络的类器官分割方法及系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109146838A (zh) * 2018-06-20 2019-01-04 湖南自兴智慧医疗科技有限公司 一种基于几何特征与区域融合的g显带粘连染色体分割方法
EP3591572B1 (en) * 2018-07-06 2021-09-01 Tata Consultancy Services Limited Method and system for automatic chromosome classification
WO2021074694A1 (en) * 2019-10-17 2021-04-22 Metasystems Hard & Software Gmbh Methods for automated chromosome analysis
US11887358B2 (en) * 2020-06-10 2024-01-30 Ancestry.Com Operations Inc. Systems and methods for identifying and segmenting objects from images

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109300111A (zh) * 2018-08-27 2019-02-01 杭州德适生物科技有限公司 一种基于深度学习的染色体识别方法
CN110533684A (zh) * 2019-08-22 2019-12-03 杭州德适生物科技有限公司 一种染色体核型图像切割方法
CN115601374A (zh) * 2019-08-22 2023-01-13 杭州德适生物科技有限公司(Cn) 一种染色体图像分割方法
CN112215847A (zh) * 2020-09-30 2021-01-12 武汉大学 基于对抗学习多尺度特征的重叠染色体自动分割方法
WO2022089221A1 (zh) * 2020-10-30 2022-05-05 苏州瑞派宁科技有限公司 医学图像分割方法、装置、设备、系统及计算机存储介质
WO2022199143A1 (zh) * 2021-03-26 2022-09-29 南京邮电大学 一种基于u型网络的医学图像分割方法
CN113658150A (zh) * 2021-08-23 2021-11-16 西安交通大学 一种基于深度学习的染色体自动分割和分类方法
CN113658199A (zh) * 2021-09-02 2021-11-16 中国矿业大学 基于回归修正的染色体实例分割网络
CN115188413A (zh) * 2022-06-17 2022-10-14 广州智睿医疗科技有限公司 一种染色体核型分析模块
CN115049686A (zh) * 2022-08-15 2022-09-13 湖南自兴智慧医疗科技有限公司 一种基于辅助信息的复杂染色体区域分割方法及装置
CN115082474A (zh) * 2022-08-22 2022-09-20 湖南自兴智慧医疗科技有限公司 一种基于同源同类染色体信息的染色体分割方法及装置
CN115564954A (zh) * 2022-10-17 2023-01-03 广东医科大学 一种染色体图像分割方法
CN115691678A (zh) * 2022-10-27 2023-02-03 中国科学院苏州生物医学工程技术研究所 基于注意力机制的深度学习染色体自动识别模型及系统
CN115760867A (zh) * 2022-11-30 2023-03-07 云南大学 一种基于改进U-Net网络的类器官分割方法及系统

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
《深度学习在染色体分割中的应用综述》;陈少洁;《计算机工程与应用》;20210329;第57卷(第11期);46-56 *
Chromosome Extraction Based on U-Net and YOLOv3;Hua Bai;《IEEE Access ( Volume: 8)》;20200924;178563 - 178569 *
基于卷积神经网络和几何优化的统计染色体核型分析方法;李康;谢宁;李旭;谭凯;;南京大学学报(自然科学);20200130(01);121-129 *
遗传神经网络在图像分割中应用研究;丁红军;蔡鸿杰;邢克礼;;自动化技术与应用;20100325(03);13-17 *

Also Published As

Publication number Publication date
CN117274294A (zh) 2023-12-22

Similar Documents

Publication Publication Date Title
CN108364288B (zh) 用于乳腺癌病理图像的分割方法和装置
CN113592845A (zh) 一种电池涂布的缺陷检测方法及装置、存储介质
CN107256558B (zh) 一种无监督式的宫颈细胞图像自动分割方法及系统
Jain et al. Learning to agglomerate superpixel hierarchies
CN111931811B (zh) 一种基于超像素图像相似度的计算方法
Al-Huda et al. A hybrid deep learning pavement crack semantic segmentation
CN109685045A (zh) 一种运动目标视频跟踪方法及系统
CN111507426A (zh) 基于视觉融合特征的无参考图像质量分级评价方法及装置
CN112862834A (zh) 一种基于视觉显著区域和主动轮廓的图像分割方法
Wu et al. Image segmentation
CN112348059A (zh) 基于深度学习的多种染色病理图像分类方法及系统
CN111815640B (zh) 一种基于忆阻器的rbf神经网络医学图像分割算法
Liu et al. Extracting lungs from CT images via deep convolutional neural network based segmentation and two-pass contour refinement
Wen et al. Review of research on the instance segmentation of cell images
CN112183237A (zh) 基于颜色空间自适应阈值分割的白细胞自动分类方法
Han et al. Segmenting images with complex textures by using hybrid algorithm
CN117197456A (zh) 一种面向he染色的病理图像细胞核同时分割分类方法
CN117274294B (zh) 一种同源染色体分割方法
CN110910497A (zh) 实现增强现实地图的方法和系统
Samudrala et al. Semantic Segmentation in Medical Image Based on Hybrid Dlinknet and Unet
Tong et al. Cell image instance segmentation based on PolarMask using weak labels
CN115457296A (zh) 一种面向非平稳纹理结构属性的结构提取方法
Tomasila Sand Soil Image Processing Using the Watershed Transform and Otsu Thresholding Based on Gaussian Noise
Liu et al. Automatic Lung Parenchyma Segmentation of CT Images Based on Matrix Grey Incidence.
Zhao et al. Overlapping region reconstruction in nuclei image segmentation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant