CN116704181A - 基于活体ct数据的图像分割方法、重量预测方法和设备 - Google Patents
基于活体ct数据的图像分割方法、重量预测方法和设备 Download PDFInfo
- Publication number
- CN116704181A CN116704181A CN202310554423.7A CN202310554423A CN116704181A CN 116704181 A CN116704181 A CN 116704181A CN 202310554423 A CN202310554423 A CN 202310554423A CN 116704181 A CN116704181 A CN 116704181A
- Authority
- CN
- China
- Prior art keywords
- living
- image
- target
- data
- target part
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 79
- 238000003709 image segmentation Methods 0.000 title claims abstract description 48
- 238000001514 detection method Methods 0.000 claims abstract description 109
- 230000011218 segmentation Effects 0.000 claims abstract description 107
- 238000012549 training Methods 0.000 claims abstract description 72
- 241000287828 Gallus gallus Species 0.000 claims abstract description 68
- 238000007781 pre-processing Methods 0.000 claims abstract description 19
- 238000002591 computed tomography Methods 0.000 claims abstract description 12
- 238000009826 distribution Methods 0.000 claims description 45
- 238000011176 pooling Methods 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 16
- 238000012706 support-vector machine Methods 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 8
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000002372 labelling Methods 0.000 claims description 3
- 235000013330 chicken meat Nutrition 0.000 description 48
- 238000004422 calculation algorithm Methods 0.000 description 12
- 238000009395 breeding Methods 0.000 description 10
- 230000001488 breeding effect Effects 0.000 description 10
- 238000013135 deep learning Methods 0.000 description 10
- 238000013527 convolutional neural network Methods 0.000 description 9
- 239000013598 vector Substances 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000000605 extraction Methods 0.000 description 6
- 238000003860 storage Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000011161 development Methods 0.000 description 5
- 230000018109 developmental process Effects 0.000 description 5
- 238000005457 optimization Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000001965 increasing effect Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000011946 reduction process Methods 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/70—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in livestock or poultry
Landscapes
- Image Analysis (AREA)
Abstract
本发明提供一种基于活体CT数据的图像分割方法、重量预测方法和设备,属于计算机视觉技术领域,其中,基于活体CT数据的图像分割方法包括:获取目标品种鸡的活体计算机断层扫描CT数据;对所述活体CT数据进行预处理,得到所述活体CT数据对应的多张矢状切面图像;将所述多张矢状切面图像输入至检测分割模型,得到所述检测分割模型输出的所述活体CT数据对应的目标部位图像;其中,所述检测分割模型是基于目标品种鸡的活体CT训练数据对应的多张矢状切面训练图像,以及所述目标品种鸡的活体CT训练数据对应的目标部位图像,进行训练得到的。本发明实现了高效率、高精度的图像分割。
Description
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种基于活体CT数据的图像分割方法、重量预测方法和设备。
背景技术
随着生活水平的提高,消费者对鸡肉的品质等级要求越来越高,加快我国肉鸡育种产业的发展变得尤为重要。肉鸡育种前,通过对肉鸡的计算机断层扫描(ComputedTomography,CT)图像进行分割,可以对肉鸡的目标部位的重量进行无创检测,图像分割的精度对重量预测的准确性影响较大。现有技术在对肉鸡的CT图像进行分割时,通常采用基于阈值的分割算法、基于区域的分割算法、边缘检测分割算法等传统的机器学习算法,图像分割的效率低,精度低。
发明内容
本发明提供一种基于活体CT数据的图像分割方法、重量预测方法和设备,用以解决现有技术中采用传统的机器学习算法对CT图像进行分割,效率低、精度低的缺陷,实现高效率、高精度的图像分割。
第一方面,本发明提供了一种基于活体CT数据的图像分割方法,包括:
获取目标品种鸡的活体计算机断层扫描CT数据;
对所述活体CT数据进行预处理,得到所述活体CT数据对应的多张矢状切面图像;
将所述多张矢状切面图像输入至检测分割模型,得到所述检测分割模型输出的所述活体CT数据对应的目标部位图像;
其中,所述检测分割模型是基于目标品种鸡的活体CT训练数据对应的多张矢状切面训练图像,以及所述目标品种鸡的活体CT训练数据对应的目标部位图像,进行训练得到的。
在一些实施例中,所述对所述活体CT数据进行预处理,得到所述活体CT数据对应的多张矢状切面图像,包括:
对所述活体CT数据进行格式转换,得到目标格式的活体CT图像;
从所述活体CT图像中获取矢状位上的所有切面图像;
对所述矢状位上的所有切面图像进行图像增强处理,得到所述活体CT数据对应的多张矢状切面图像。
在一些实施例中,所述检测分割模型包括并行的目标检测模型和语义分割模型,其中,所述目标检测模型和语义分割模型共用骨干部分和Neck部分,
所述骨干部分用于对输入图像进行多个尺度的特征提取;
所述Neck部分包括快速空间金字塔池化模块SPPF和特征金字塔网络,所述SPPF用于融合不同尺度大小的特征图,所述特征金字塔网络用于对SPPF输出的特征图进行语义表达增强;
所述目标检测模型还包括目标检测头部分,所述目标检测头部分用于基于Neck部分输出的特征图进行目标检测,输出含有完整目标部位的切面图像;
所述语义分割模型还包括语义分割头部分,所述语义分割头部分用于基于Neck部分输出的特征图和所述目标检测头部分的中间层输出的特征图进行像素级语义分割,输出目标部位区域图像;
所述检测分割模型还包括输出端,所述输出端用于对所述含有完整目标部位的切面图像和所述目标部位区域图像进行融合,得到目标部位图像。
在一些实施例中,所述语义分割头部分具体用于:采用基于锚点anchor的多尺度检测方案,并使用语义分割网络PSPNet结构在多尺度特征图上进行像素级语义分割,输出目标部位区域图像;
其中,所述多尺度特征图融合了不同级别和尺度的语义特征,基于所述Neck部分输出的特征图和所述目标检测头部分的中间层输出的特征图,经过金字塔池化模块PPM处理后得到。
在一些实施例中,所述骨干部分包括Focus结构和跨阶段局部网络CSP结构,所述Focus结构用于将w-h平面上的信息转换到通道维度,再通过卷积层提取不同特征,并采用切片操作降低输入图像的分辨率,所述CSP结构用于将特征图拆成第一部分和第二部分,对所述第一部分进行卷积操作,将所述第二部分和第一部分卷积操作的结果进行融合。
在一些实施例中,所述目标检测头部分和语义分割头部分的损失函数在计算边界框回归时,考虑了预测框和真实GT框的长宽比。
在一些实施例中,所述检测分割模型的训练过程包括以下步骤:
构建所述检测分割模型;
获取所述目标品种鸡的活体CT训练数据;
对所述活体CT训练数据进行预处理,得到所述活体CT训练数据对应的多张矢状切面训练图像;
对所述多张矢状切面训练图像中的目标部位进行标注,得到标注后的图像;
基于所述多张矢状切面训练图像,以及所述标注后的图像,对所述检测分割模型进行训练。
第二方面,本发明还提供了一种基于活体CT数据的重量预测方法,包括:
采用所述基于活体CT数据的图像分割方法,得到目标部位图像;
对所述目标部位图像进行像素点统计,并结合灰度直方图分布信息,得到所述目标部位图像对应的像素点分布信息;
将所述目标部位图像对应的像素点分布信息输入至重量预测模型,得到所述目标部位图像对应的目标部位重量;
其中,所述重量预测模型是基于目标部位图像样本对应的像素点分布信息以及所述目标部位图像样本对应的真实目标部位重量训练得到的。
在一些实施例中,所述重量预测模型的训练过程包括以下步骤:
获取目标部位图像样本以及所述目标部位图像样本对应的真实目标部位重量;
对所述目标部位图像样本进行像素点统计,并结合灰度直方图分布信息,得到所述目标部位图像样本对应的像素点分布信息;
将所述目标部位图像样本对应的像素点分布信息输入至支持向量机SVM模型,得到所述目标部位图像样本对应的预测目标部位重量;
基于所述真实目标部位重量和所述预测目标部位重量,对所述SVM模型进行训练,在训练结束后,得到所述重量预测模型。
第三方面,本发明还提供了一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序时实现所述基于活体CT数据的图像分割方法,或实现所述基于活体CT数据的重量预测方法。
本发明提供的基于活体CT数据的图像分割方法、重量预测方法和设备,通过获取目标品种鸡的活体CT数据,对活体CT数据进行预处理,得到活体CT数据对应的多张矢状切面图像,将多张矢状切面图像输入至基于深度学习的检测分割模型,得到检测分割模型输出的活体CT数据对应的目标部位图像,提高了图像分割的效率和精度。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的基于活体CT数据的图像分割方法的流程示意图;
图2是本发明实施例提供的语义分割头部分的结构示意图;
图3是本发明实施例提供的检测分割模型的训练过程的流程示意图;
图4是本发明实施例提供的基于活体CT数据的重量预测方法的流程示意图;
图5是本发明实施例提供的基于活体CT数据利用深度学习检测及分割进行琵琶腿分割与质量预测的示意图;
图6是本发明提供的电子设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
随着我国经济的快速发展,消费者的生活质量显著提高,对鸡肉产品的需求量也越来越大。在满足需求量的同时,消费者对鸡肉的品质等级要求越来越严格,极大的促进了我国肉鸡养殖产业的快速发展。
传统的检测方法,在育种工作前,对黄羽肉鸡的一些指标测定不能做到对黄羽肉鸡的无创。但如今可以利用医学影像辅助,例如利用计算机断层扫描CT技术扫描整只黄羽肉鸡,生成多个角度的图像序列。早期在对黄羽肉鸡的CT图像进行研究时,专业的育种工作者需要对选取的有价值的腿肌切片进行手动标记,面对庞大的数据量,采用人工标记的方式,会增加大量的时间损耗,而且也容易出现错误。借助深度学习的算法和工具来辅助育种工作者对切面图像的有效信息进行高效、高精度的分割和标记,对黄羽肉鸡育种产业的发展有着重大意义。
早期对CT图像进行分割的系统大多是基于机器学习的一些传统的图像分割方法来运行的,比如基于阈值的分割算法、基于区域的分割算法、边缘检测分割算法,但是如今医学影像数据量较大,这些技术已经难以满足快速精准分割的需求。随着计算机算力的不断加强,深度学习也被更多的运用到各个领域。随着卷积神经网络(Convolutional NeuralNetwork,CNN)和全卷积神经网络(Fully Convolutional Networks,FCN)的相继提出,深度学习也逐渐被运用到语义分割领域中。在无损无创检测的基础上,采用深度学习的算法对活体鸡CT图像进行分割,为我国肉鸡育种产业的发展提供了新思路与新方法。
为此,本发明提供了基于活体CT数据的图像分割方法、重量预测方法和设备,通过获取目标品种鸡的活体CT数据,对活体CT数据进行预处理,得到活体CT数据对应的多张矢状切面图像,将多张矢状切面图像输入至基于深度学习的检测分割模型,得到检测分割模型输出的活体CT数据对应的目标部位图像。本发明可以提高图像分割的效率和精度。
图1为本发明实施例提供的基于活体CT数据的图像分割方法的流程示意图。如图1所示,提供了一种基于活体CT数据的图像分割方法,包括以下步骤:步骤110、步骤120和步骤130。该方法流程步骤仅仅作为本发明一个可能的实现方式。
步骤110、获取目标品种鸡的活体计算机断层扫描CT数据。
可选地,目标品种鸡可以是黄羽肉鸡、白羽肉鸡等多个品种,下文以目标品种鸡是黄羽肉鸡为例进行说明。
可以理解的是,目标品种鸡的活体CT数据是指通过对活体目标品种鸡进行CT扫描得到的原始数据,通过CT扫描技术可以对目标品种鸡的内部结构进行非侵入性扫描,并将扫描结果转化为数字化图像,获取目标品种鸡的活体CT数据,有助于深入了解活体目标品种鸡的不同部位的结构和性质,便于对目标品种鸡进行无损无创检测。
步骤120、对活体CT数据进行预处理,得到活体CT数据对应的多张矢状切面图像。
可选地,对活体CT数据进行预处理可以为对活体CT数据进行格式调整、滤波降噪处理、图像增强处理等,通过对活体CT数据进行预处理能够得到更加清晰和准确的CT图像。
需要注意的是,滤波降噪处理和图像增强处理有时可能会相互影响,例如某些增强处理可能会引入噪声,而某些降噪处理可能会降低图像的亮度和对比度。因此,在对活体CT数据进行预处理时,需要根据具体场景和目标,选择合适的处理方法,并进行综合考虑和优化。
需要说明的是,活体CT数据对应的多张矢状切面图像是指目标品种鸡矢状位上的多层切面对应的多张切面图像,得到多张矢状切面图像,便于从中筛选出含有目标部位的矢状切面图像。
步骤130、将多张矢状切面图像输入至检测分割模型,得到检测分割模型输出的活体CT数据对应的目标部位图像;
其中,检测分割模型是基于目标品种鸡的活体CT训练数据对应的多张矢状切面训练图像,以及目标品种鸡的活体CT训练数据对应的目标部位图像,进行训练得到的。
其中,目标部位图像可以是目标品种鸡的腿部图像、翅膀图像或颈部图像等。
在本发明实施例中,通过获取目标品种鸡的活体CT数据,对活体CT数据进行预处理,得到活体CT数据对应的多张矢状切面图像,将多张矢状切面图像输入至基于深度学习的检测分割模型,得到检测分割模型输出的活体CT数据对应的目标部位图像,提高了图像分割的效率和精度。
需要说明的是,本发明每一个实施方式可以自由组合、调换顺序或者单独执行,并不需要依靠或依赖固定的执行顺序。
在一些实施例中,对活体CT数据进行预处理,得到活体CT数据对应的多张矢状切面图像,包括:
对活体CT数据进行格式转换,得到目标格式的活体CT图像;
从活体CT图像中获取矢状位上的所有切面图像;
对矢状位上的所有切面图像进行图像增强处理,得到活体CT数据对应的多张矢状切面图像。
示例性地,将三维的活体CT数据转换成二维的活体CT图像,如JPG、PNG等格式。
可以理解的是,可以从目标品种鸡的矢状位上读取多层切面,每一层读取的切面图像不一样,从活体CT图像中获取矢状位上的所有切面图像,便于从中筛选出包含完整目标部位的矢状位切面图像。
可选地,图像增强处理可以是直方图均衡、伽马校正、锐化和模糊化处理等。
图像增强处理旨在改善数字图像的视觉效果,使其更加清晰、明亮、对比度更高等,从而使图像的视觉信息更加突出,易于观察和分析。图像增强技术可以提高数字图像的亮度、色彩、锐度等。
在本发明实施例中,通过对活体CT数据进行格式转换,便于将三维CT影像转化成二维CT图像,从活体CT图像中获取矢状位上的所有切面图像,对矢状位上的所有切面图像进行图像增强处理,得到更加清晰的多张矢状切面图像,为较准确地筛选出包含完整目标部位的矢状切面图像奠定了基础,提高了图像分割的效率。
在一些实施例中,检测分割模型包括并行的目标检测模型和语义分割模型,其中,目标检测模型和语义分割模型共用骨干部分和Neck部分,
骨干部分用于对输入图像进行多个尺度的特征提取。
可选地,骨干部分采用目标检测算法(You Only Look Once version 5,YOLOv5)的backbone网络。
YOLOv5基于深度学习技术,利用卷积神经网络对图像进行快速检测,具有高精度和高效率的特点,广泛应用于计算机视觉领域中的目标检测任务。Backbone网络是指在视觉任务(如目标检测、图像分类等)中用于提取特征的主干网络,Backbone网络通常是由多个卷积层和池化层构成的,其中卷积层可以提取图像局部特征,而池化层可以缩小特征图的尺寸,减少计算量。
Neck部分包括快速空间金字塔池化模块(Spatial Pyramid Pooling-Fast,SPPF)和特征金字塔网络,SPPF用于融合不同尺度大小的特征图,特征金字塔网络用于对SPPF输出的特征图进行语义表达增强。
其中,SPPF是空间金字塔池化模块(Spatial Pyramid Pooling,SPP)的一种改进,SPP可以对不同尺度的特征图进行池化操作,从而获得固定长度的特征向量用于分类和回归,SPPF模块采用多个小尺寸池化核级联代替SPP模块中单个大尺寸池化核,从而在保留原有功能,即融合不同感受野的特征图,丰富特征图的表达能力的情况下,进一步提高了运行速度,提高了特征表达能力和检测精度。
进一步地,SPPF利用自顶向下的特征金字塔(Feature Pyramid Network,FPN)和自底向上的特征金字塔(Path Aggregation Network,PAN)来提升网络的特征提取能力。
其中FPN主要负责通过不同尺度的特征融合来提高目标检测的准确率和速度。
需要说明的是,Neck部分使用了特征金字塔,浅层的特征所携带的语义信息较少,而位置信息更强,深层的特征所携带的语义信息较丰富,而位置信息更弱,采用FPN的思想把深层的语义信息传递到浅层,从而增强多个尺度上的语义表达。
其中,PAN是在FPN的基础上提出的一种新的特征金字塔,它通过多次上采样和下采样操作,将不同尺度的特征图进行融合,得到高分辨率的特征图,从而提高目标检测的准确率。
目标检测模型还包括目标检测头部分,目标检测头部分用于基于Neck部分输出的特征图进行目标检测,输出含有完整目标部位的切面图像。
可选地,目标检测头部分采用YOLOV5系列的检测头,YOLOv5系列的检测头包括多尺度预测头和中心点预测头;多尺度预测头用于将不同尺度的特征图进行融合,以获取更丰富的语义信息,在融合后的特征图上进行卷积操作,分别预测不同尺寸的目标框;中心点预测头用于预测目标的中心点,同时预测目标的高度和宽度,从而更准确地确定目标的位置。
YOLOV5系列的检测头将CNN网络的输出转换为边界框和类别预测的概率分布,并对结果进行过滤和筛选,最终输出包括目标部位的位置、类别、特征等多种信息检测结果。
目标检测模型能够对Neck部分输出的特征图进行快速检测,并选取含有完整目标部位且目标检测置信率较大的检测框,提取这些图像,降低了大量的时间成本,避免将庞大的图像数据传递给语义分割模型,从而提升了图像分割的效率。
语义分割模型还包括语义分割头部分,语义分割头部分用于基于Neck部分输出的特征图和目标检测头部分的中间层输出的特征图进行像素级语义分割,输出目标部位区域图像。
其中,Neck部分输出的特征图是指FPN的底层输出的特征图,具有多尺度特征、较低的分辨率、丰富的特征通道数和上下文信息等特点。
其中,目标检测头部分的中间层输出的特征图是指PAN的相邻层之间的分支输出的特征图,每个分支输出不同尺度的特征图,具有不同的分辨率、语义信息等。
需要说明的是,将FPN的底层输出的特征图与PAN的相邻层之间的分支输出的特征图进行融合,便于获得更加准确的细节信息和更加抽象的语义信息,可以有效提高语义分割的准确率和效果。
其中,目标部位区域图像包含像素类别、像素置信度得分、目标部位边界等信息。
检测分割模型还包括输出端,输出端用于对含有完整目标部位的切面图像和目标部位区域图像进行融合,得到目标部位图像。
需要说明的是,将目标检测头部分输出的含有完整目标部位的切面图像和语义分割头部分输出的目标部位区域图像进行融合,能够得到更加精细和准确的目标部位图像。
在本发明实施例中,检测分割模型包括并行的目标检测模型和语义分割模型,其中,目标检测模型和语义分割模型共用骨干部分和Neck部分,骨干部分用于对输入图像进行多个尺度的特征提取,Neck部分包括快速空间金字塔池化模块SPPF和特征金字塔网络,目标检测模型还包括目标检测头部分,用于输出含有完整目标部位的切面图像,语义分割模型还包括语义分割头部分,用于输出目标部位区域图像,检测分割模型还包括输出端,能够对含有完整目标部位的切面图像和目标部位区域图像进行融合,得到高精度的目标部位图像,提高了图像分割的效率。
图2是本发明实施例提供的语义分割头部分的结构示意图。如图2所示,在一些实施例中,语义分割头部分具体用于:采用基于锚点anchor的多尺度检测方案,并使用语义分割网络PSPNet结构在多尺度特征图上进行像素级语义分割,输出目标部位区域图像;
其中,多尺度特征图融合了不同级别和尺度的语义特征,基于Neck部分输出的特征图和目标检测头部分的中间层输出的特征图,经过金字塔池化模块(Pyramid PoolingModule,PPM)处理后得到。
语义分割网络PSPNet(Pyramid Scene Parsing Network)是基于PPM模块的深度卷积神经网络结构,主要包含四个部分:特征提取网络、金字塔池化模块、上下文自适应模块和分类器。其中,特征提取网络是用来提取输入图像的特征,金字塔池化模块用来获取不同尺度的特征信息,上下文自适应模块用来进一步增强特征的语义表达能力,分类器用来对图像进行分类和分割。
需要说明的是,Neck部分输出的特征图和目标检测头部分的中间层输出的特征图经过融合后,通过PPM模块进行全局平均池化得到四个大小不同的特征图层,例如,尺寸分别为1*1,2*2,3*3,6*6,不同尺寸的特征图层涵盖了不同的上下文信息和语义信息,这些图层在PPM模块中进行并联,经过卷积和上采样恢复到原始大小,得到先验信息。这种操作聚合了多尺度的图像特征,融合了不同尺度和不同子区域之间的信息。最终将先验信息与Neck部分输出的特征图和目标检测头部分的中间层输出的特征图经过融合后得到的原始特征图进行相加,输入到最后的卷积模块,得到多尺度特征图。
其中,PPM模块得到的先验信息是指在输入图像中按不同尺度进行池化操作得到的多个特征向量,这些特征向量涵盖了不同的上下文信息和语义信息,通过多个不同尺度的池化操作,可以提取出目标部位的全局、半局部和局部特征,从而获取更全面、更具有表现力的特征描述,有助于提高图像分割精度。
在本发明实施例中,通过采用基于锚点anchor的多尺度检测方案,并使用语义分割网络PSPNet结构在多尺度特征图上进行像素级语义分割,输出目标部位区域图像,提高了图像分割的精度。
在一些实施例中,骨干部分包括Focus结构和跨阶段局部网络CSP(Cross StagePartial)结构,Focus结构用于将w-h平面上的信息转换到通道维度,再通过卷积层提取不同特征,并采用切片操作降低输入图像的分辨率,CSP结构用于将特征图拆成第一部分和第二部分,对第一部分进行卷积操作,将第二部分和第一部分卷积操作的结果进行融合。
其中,Focus结构是一种轻量级的卷积神经网络结构,它采用了分组卷积和通道注意力机制,并采用切片操作把高分辨率的CT切面图像拆分成多个低分辨率的CT切面图像,通过这种方式可以减少下采样带来的信息损失,从而可以提高特征提取的效率和精度。
其中,CSP结构用于构建更加深层次的卷积神经网络,CSP结构主要包括两个关键组件:分组卷积和跨阶段连接,分组卷积可以将输入特征张量分成多个子组,并对每个子组进行独立的特征提取,跨阶段连接则是将不同阶段的特征进行连接,从而使得模型可以利用不同层次的特征信息,相比于传统的卷积神经网络结构,CSP结构能够在保持计算效率的同时提供更深层次、更丰富、更准确的特征信息,有助于提高模型的性能。
在一些实施例中,目标检测头部分和语义分割头部分的损失函数在计算边界框回归时,考虑了预测框和真实框(Ground Truth,GT)的长宽比。
可选地,输出端采用CIOU_LOSS作为bounding box回归的损失函数,在DIOU_Loss的基础上增加了一个影响因子,将预测框和GT框的长宽比也考虑了进来,具体公式如下:
其中,CIOU,即Complete Intersection Over Union,是一个bounding box的相似度度量指标,用于衡量预测框和GT框之间的匹配程度;IOU是衡量预测框和GT框之间重叠度的指标,其计算方法是将预测框和GT框的交集面积除以预测框和GT框的并集面积;Distance_2表示预测框和GT框的中心点之间的距离;Distance_C表示预测框和GT框的对角线之间的距离;v表示影响因子;wgt表示GT框的宽,hgt表示GT框的高,wP表示预测框的宽,hP表示预测框的高。
在本发明实施例中,输出端采用CIOU_LOSS,在计算Bounding Box损失时考虑了长宽比的因素,可以更好地处理预测框和GT框长宽比不同的情况,从而提高输出端的精度和鲁棒性。
图3为本发明实施例提供的检测分割模型的训练过程的流程示意图。如图3所示,在一些实施例中,检测分割模型的训练过程包括以下步骤:
步骤310、构建检测分割模型;
步骤320、获取目标品种鸡的活体CT训练数据;
其中,目标品种鸡可以是黄羽肉鸡、白羽肉鸡等。
步骤330、对活体CT训练数据进行预处理,得到活体CT训练数据对应的多张矢状切面训练图像;
可选地,预处理可以为格式调整、滤波降噪处理、图像增强处理等。
步骤340、对多张矢状切面训练图像中的目标部位进行标注,得到标注后的图像;
其中,目标部位可以是目标品种鸡的腿部、翅膀或颈部等。
步骤350、基于多张矢状切面训练图像,以及标注后的图像,对检测分割模型进行训练。
进一步地,检测分割模型训练完成后,继续进行参数优化迭代,得到优化的检测分割模型。
图4为本发明实施例提供的基于活体CT数据的重量预测方法的流程示意图。如图4所示,提供了一种基于活体CT数据的重量预测方法,包括以下步骤:步骤410、步骤420、步骤430。该方法流程步骤仅仅作为本发明一个可能的实现方式。
步骤410、采用基于活体CT数据的图像分割方法,得到目标部位图像。
其中,目标部位图像可以是目标品种鸡的腿部图像、翅膀图像或颈部图像等。
步骤420、对目标部位图像进行像素点统计,并结合灰度直方图分布信息,得到目标部位图像对应的像素点分布信息。
可以理解的是,步骤410中得到多张包含完整目标部位的目标部位图像,这些目标部位图像对应的切面位置有所差异,因此需要对多张目标部位图像进行筛选,以得到目标部位最中间的切面分割图,提高重量预测的精准度。
可选地,对目标部位图像进行像素点统计,选取像素点总数量排名前五的目标部位图像,并计算得到这五张目标部位图像的像素点数量的平均值,结合灰度直方图分布信息,得到目标部位图像对应的像素点分布信息。
需要说明的是,像素指的是图像矩阵中的单个单位元素,也就是最小的图像单元,在数字图像中,每个像素点都有一个坐标,以(x,y)的形式表示位置,每个像素点的颜色也可以用不同的方式来表示,如灰度值、RGB值等。
其中,灰度直方图分布是指一幅图像中,不同灰度级别像素点的数量分布,灰度直方图分布可以用来评估图像的对比度、亮度等特征。通过分析目标部位图像对应的灰度直方图分布信息,可以得到目标部位图像对应的像素点分布信息。
步骤430、将目标部位图像对应的像素点分布信息输入至重量预测模型,得到目标部位图像对应的目标部位重量;
其中,重量预测模型是基于目标部位图像样本对应的像素点分布信息以及目标部位图像样本对应的真实目标部位重量训练得到的。
在本发明实施例中,采用基于活体CT数据的图像分割方法,得到目标部位图像,对目标部位图像进行像素点统计,得到目标部位图像对应的像素点分布信息,基于目标部位图像对应的像素点分布信息,利用重量预测模型,得到目标部位图像对应的目标部位重量,便在活体水平对目标品种鸡的目标部位的重量进行无创检测,提高了重量检测的准确性和效率。
在一些实施例中,重量预测模型的训练过程包括以下步骤:
获取目标部位图像样本以及目标部位图像样本对应的真实目标部位重量;
对目标部位图像样本进行像素点统计,并结合灰度直方图分布信息,得到目标部位图像样本对应的像素点分布信息;
将目标部位图像样本对应的像素点分布信息输入至支持向量机SVM模型,得到目标部位图像样本对应的预测目标部位重量;
基于真实目标部位重量和预测目标部位重量,对SVM模型进行训练,在训练结束后,得到重量预测模型。
可选地,在SVM模型训练结束后,进行参数优化迭代,得到重量预测模型。
其中,目标部位图像样本可以是目标品种鸡的腿部图像样本、翅膀图像样本或颈部图像样本等。
其中,支持向量机(Support Vector Machine,SVM)是一种二分类模型,其目的是在特征空间中找到一个最优的超平面来将不同类别的数据点分开;SVM的基本思想是通过最大化“间隔”来实现分类任务,即选择一个最优的超平面,使得最靠近该超平面且被正确分类的数据点到该超平面的距离最大,这些最靠近超平面的数据点被称为支持向量。
其中,每个样本点到超平面(w,b)的距离为超平面公式为:w*x+b=0,由此可得第i个样本点到超平面(w,b)的距离为/>
其中,在目标品种鸡个体对应的目标部位图像样本中,选取像素点数量排名前五的目标部位图像样本,xi表示第i个样本点的特征向量,样本点xi的维度为5;yi代表第i个样本点对应的目标变量的取值,即分类标签,通常为1或-1,代表两个类别;w代表超平面的法向量,同样是一个向量,其维度也为5;b代表超平面的截距;ri的正负性意义表示第i个样本点离分类超平面的方向与真实标签的方向是否一致,如果ri>0,则样本点i被正确分类,否则被错误分类。
几何间隔是指样本点到分类超平面(w,b)的距离最小值,通常用符号γ表示:γ=minγi。由此可以得到此问题的目标函数为maxγ,且有约束条件做变换/>则目标函数转换为/>相应的约束条件为:/>其中,/>表示所有样本点的/>取最小值所得到的几何间隔,/>表示几何间隔γ经过变换后的值。
通过引入拉格朗日的对偶形式,来解决算法复杂度高的问题。有如下形式:
分析可知:则原最优化问题转换成:/>此优化函数的对偶子问题为:/>
其中,ε为松弛变量,用于软间隔分类,允许部分样本点分类错误,约束条件为ε≥0;α是Lagrange乘子,通过最小化目标函数来计算;u是松弛变量的拉格朗日乘子;εi、αi和ui三个参数均为第i个样本点对应的参数;C是正则化参数,用于控制模型的复杂度和泛化能力。
在此,通过转化来求解函数的极小值问题。对三个变量分别求偏导得:
将以上三式带入拉格朗日函数中,并极大极小化函数得:
/>
其中,j表示第j个样本点,xj表示第j个样本点的特征向量,yj表示第j个样本点的分类标签,αj表示第j个样本点对应的Lagrange乘子。
为求解方便,将极大转换成极小得:
s.t.∑αiyi=0
0≤αi≤C
在结合高斯核函数,将最优化问题的目标函数和约束条件转换为:
αis.t.∑αiyi=0
0≤αi≤C
假设选出了两个自变量分别是α1和α2,其他自变量保持固定,则上述推导转化为:
0≤αi≤C
其中,K11、K22、K12、Ki1和Ki2均为核函数计算的结果,表示两个样本点之间的内积,例如K12表示第1个样本点和第2个样本点之间的内积;δ等于0或1的常数,用于控制等式约束的取值;N表示训练数据的样本数量。
将约束条件中的α1用α2表示,并代入目标函数中,并讨论yi的值,最终得到目标部位重量的预测值:
f(x)=∑αiyiK(xi,x)+b
在本发明实施例中,结合,对SVM模型进行训练,得到重量预测模型,提高了重量预测模型的精度。
图5为本发明实施例提供的基于活体CT数据利用深度学习检测及分割进行琵琶腿分割与质量预测的示意图。如图5所示,包括以下步骤:
步骤510、获取目标品种鸡的活体CT数据;
步骤520、对活体CT数据进行预处理,得到活体CT数据对应的多张矢状切面图像;
步骤530、将多张矢状切面图像输入至检测分割模型,得到检测分割模型输出的活体CT数据对应的琵琶腿图像;
步骤540、对琵琶腿图像进行像素点统计,得到琵琶腿图像对应的像素点分布信息;
步骤550、将琵琶腿图像对应的像素点分布信息输入至重量预测模型,得到琵琶腿图像对应的琵琶腿重量。
在本发明实施例中,通过获取目标品种鸡的活体CT数据,进行数据预处理,采用检测分割模型得到琵琶腿图像,对琵琶腿图像进行像素点统计,采用重量预测模型得到琵琶腿图像对应的琵琶腿重量,分割效率高,准确率高,便于在进行种鸡育种选择过程中,快速有效的预测得到鸡腿区域的重量排名,帮助鸡育种行业进行优质选种,提高我国优质鸡育种效率。
图6示例了一种电子设备的实体结构示意图,如图6所示,该电子设备可以包括:处理器(processor)610、通信接口(Communications Interface)620、存储器(memory)630和通信总线640,其中,处理器610,通信接口620,存储器630通过通信总线640完成相互间的通信。处理器610可以调用存储器630中的逻辑指令,以执行基于活体CT数据的图像分割方法,或实现基于活体CT数据的重量预测方法。基于活体CT数据的图像分割方法包括:获取目标品种鸡的活体计算机断层扫描CT数据;对活体CT数据进行预处理,得到活体CT数据对应的多张矢状切面图像;将多张矢状切面图像输入至检测分割模型,得到检测分割模型输出的活体CT数据对应的目标部位图像;其中,检测分割模型是基于目标品种鸡的活体CT训练数据对应的多张矢状切面训练图像,以及目标品种鸡的活体CT训练数据对应的目标部位图像,进行训练得到的。基于活体CT数据的重量预测方法包括:采用基于活体CT数据的图像分割方法,得到目标部位图像;对目标部位图像进行像素点统计,并结合灰度直方图分布信息,得到目标部位图像对应的像素点分布信息;将目标部位图像对应的像素点分布信息输入至重量预测模型,得到目标部位图像对应的目标部位重量;其中,重量预测模型是基于目标部位图像样本对应的像素点分布信息以及目标部位图像样本对应的真实目标部位重量训练得到的。
此外,上述的存储器630中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
另一方面,本发明还提供一种计算机程序产品,计算机程序产品包括计算机程序,计算机程序可存储在非暂态计算机可读存储介质上,计算机程序被处理器执行时,计算机能够执行上述各方法所提供的基于活体CT数据的图像分割方法,或实现基于活体CT数据的重量预测方法。基于活体CT数据的图像分割方法包括:获取目标品种鸡的活体计算机断层扫描CT数据;对活体CT数据进行预处理,得到活体CT数据对应的多张矢状切面图像;将多张矢状切面图像输入至检测分割模型,得到检测分割模型输出的活体CT数据对应的目标部位图像;其中,检测分割模型是基于目标品种鸡的活体CT训练数据对应的多张矢状切面训练图像,以及目标品种鸡的活体CT训练数据对应的目标部位图像,进行训练得到的。基于活体CT数据的重量预测方法包括:采用基于活体CT数据的图像分割方法,得到目标部位图像;对目标部位图像进行像素点统计,并结合灰度直方图分布信息,得到目标部位图像对应的像素点分布信息;将目标部位图像对应的像素点分布信息输入至重量预测模型,得到目标部位图像对应的目标部位重量;其中,重量预测模型是基于目标部位图像样本对应的像素点分布信息以及目标部位图像样本对应的真实目标部位重量训练得到的。
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各方法提供的基于活体CT数据的图像分割方法,或实现基于活体CT数据的重量预测方法。基于活体CT数据的图像分割方法包括:获取目标品种鸡的活体计算机断层扫描CT数据;对活体CT数据进行预处理,得到活体CT数据对应的多张矢状切面图像;将多张矢状切面图像输入至检测分割模型,得到检测分割模型输出的活体CT数据对应的目标部位图像;其中,检测分割模型是基于目标品种鸡的活体CT训练数据对应的多张矢状切面训练图像,以及目标品种鸡的活体CT训练数据对应的目标部位图像,进行训练得到的。基于活体CT数据的重量预测方法包括:采用基于活体CT数据的图像分割方法,得到目标部位图像;对目标部位图像进行像素点统计,并结合灰度直方图分布信息,得到目标部位图像对应的像素点分布信息;将目标部位图像对应的像素点分布信息输入至重量预测模型,得到目标部位图像对应的目标部位重量;其中,重量预测模型是基于目标部位图像样本对应的像素点分布信息以及目标部位图像样本对应的真实目标部位重量训练得到的。
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种基于活体CT数据的图像分割方法,其特征在于,包括:
获取目标品种鸡的活体计算机断层扫描CT数据;
对所述活体CT数据进行预处理,得到所述活体CT数据对应的多张矢状切面图像;
将所述多张矢状切面图像输入至检测分割模型,得到所述检测分割模型输出的所述活体CT数据对应的目标部位图像;
其中,所述检测分割模型是基于目标品种鸡的活体CT训练数据对应的多张矢状切面训练图像,以及所述目标品种鸡的活体CT训练数据对应的目标部位图像,进行训练得到的。
2.根据权利要求1所述的基于活体CT数据的图像分割方法,其特征在于,所述对所述活体CT数据进行预处理,得到所述活体CT数据对应的多张矢状切面图像,包括:
对所述活体CT数据进行格式转换,得到目标格式的活体CT图像;
从所述活体CT图像中获取矢状位上的所有切面图像;
对所述矢状位上的所有切面图像进行图像增强处理,得到所述活体CT数据对应的多张矢状切面图像。
3.根据权利要求1所述的基于活体CT数据的图像分割方法,其特征在于,所述检测分割模型包括并行的目标检测模型和语义分割模型,其中,所述目标检测模型和语义分割模型共用骨干部分和Neck部分,
所述骨干部分用于对输入图像进行多个尺度的特征提取;
所述Neck部分包括快速空间金字塔池化模块SPPF和特征金字塔网络,所述SPPF用于融合不同尺度大小的特征图,所述特征金字塔网络用于对SPPF输出的特征图进行语义表达增强;
所述目标检测模型还包括目标检测头部分,所述目标检测头部分用于基于Neck部分输出的特征图进行目标检测,输出含有完整目标部位的切面图像;
所述语义分割模型还包括语义分割头部分,所述语义分割头部分用于基于Neck部分输出的特征图和所述目标检测头部分的中间层输出的特征图进行像素级语义分割,输出目标部位区域图像;
所述检测分割模型还包括输出端,所述输出端用于对所述含有完整目标部位的切面图像和所述目标部位区域图像进行融合,得到目标部位图像。
4.根据权利要求3所述的基于活体CT数据的图像分割方法,其特征在于,所述语义分割头部分具体用于:采用基于锚点anchor的多尺度检测方案,并使用语义分割网络PSPNet结构在多尺度特征图上进行像素级语义分割,输出目标部位区域图像;
其中,所述多尺度特征图融合了不同级别和尺度的语义特征,基于所述Neck部分输出的特征图和所述目标检测头部分的中间层输出的特征图,经过金字塔池化模块PPM处理后得到。
5.根据权利要求3所述的基于活体CT数据的图像分割方法,其特征在于,所述骨干部分包括Focus结构和跨阶段局部网络CSP结构,所述Focus结构用于将w-h平面上的信息转换到通道维度,再通过卷积层提取不同特征,并采用切片操作降低输入图像的分辨率,所述CSP结构用于将特征图拆成第一部分和第二部分,对所述第一部分进行卷积操作,将所述第二部分和第一部分卷积操作的结果进行融合。
6.根据权利要求3所述的基于活体CT数据的图像分割方法,其特征在于,所述目标检测头部分和语义分割头部分的损失函数在计算边界框回归时,考虑了预测框和真实GT框的长宽比。
7.根据权利要求3-6中任一项所述的基于活体CT数据的图像分割方法,其特征在于,所述检测分割模型的训练过程包括以下步骤:
构建所述检测分割模型;
获取所述目标品种鸡的活体CT训练数据;
对所述活体CT训练数据进行预处理,得到所述活体CT训练数据对应的多张矢状切面训练图像;
对所述多张矢状切面训练图像中的目标部位进行标注,得到标注后的图像;
基于所述多张矢状切面训练图像,以及所述标注后的图像,对所述检测分割模型进行训练。
8.一种基于活体CT数据的重量预测方法,其特征在于,包括:
采用如权利要求1-7中任一项所述的基于活体CT数据的图像分割方法,得到目标部位图像;
对所述目标部位图像进行像素点统计,并结合灰度直方图分布信息,得到所述目标部位图像对应的像素点分布信息;
将所述目标部位图像对应的像素点分布信息输入至重量预测模型,得到所述目标部位图像对应的目标部位重量;
其中,所述重量预测模型是基于目标部位图像样本对应的像素点分布信息以及所述目标部位图像样本对应的真实目标部位重量训练得到的。
9.根据权利要求8所述的基于活体CT数据的重量预测方法,其特征在于,所述重量预测模型的训练过程包括以下步骤:
获取目标部位图像样本以及所述目标部位图像样本对应的真实目标部位重量;
对所述目标部位图像样本进行像素点统计,并结合灰度直方图分布信息,得到所述目标部位图像样本对应的像素点分布信息;
将所述目标部位图像样本对应的像素点分布信息输入至支持向量机SVM模型,得到所述目标部位图像样本对应的预测目标部位重量;
基于所述真实目标部位重量和所述预测目标部位重量,对所述SVM模型进行训练,在训练结束后,得到所述重量预测模型。
10.一种电子设备,其特征在于,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至7任一项所述的基于活体CT数据的图像分割方法,或实现如权利要求8至9任一项所述的基于活体CT数据的重量预测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310554423.7A CN116704181A (zh) | 2023-05-16 | 2023-05-16 | 基于活体ct数据的图像分割方法、重量预测方法和设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310554423.7A CN116704181A (zh) | 2023-05-16 | 2023-05-16 | 基于活体ct数据的图像分割方法、重量预测方法和设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116704181A true CN116704181A (zh) | 2023-09-05 |
Family
ID=87838343
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310554423.7A Pending CN116704181A (zh) | 2023-05-16 | 2023-05-16 | 基于活体ct数据的图像分割方法、重量预测方法和设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116704181A (zh) |
-
2023
- 2023-05-16 CN CN202310554423.7A patent/CN116704181A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111784671B (zh) | 基于多尺度深度学习的病理图像病灶区域检测方法 | |
CN110930416B (zh) | 一种基于u型网络的mri图像前列腺分割方法 | |
CN110428432B (zh) | 结肠腺体图像自动分割的深度神经网络算法 | |
US20190180154A1 (en) | Text recognition using artificial intelligence | |
US11854244B2 (en) | Labeling techniques for a modified panoptic labeling neural network | |
CN108564085B (zh) | 一种自动读取指针式仪表读数的方法 | |
CN104484886B (zh) | 一种mr图像的分割方法及装置 | |
CN112150428A (zh) | 一种基于深度学习的医学图像分割方法 | |
CN111626993A (zh) | 一种基于嵌入式FEFnet网络的图像自动检测计数方法及系统 | |
CN111563897A (zh) | 基于弱监督学习的乳腺核磁影像肿瘤分割的方法及装置 | |
JP7294695B2 (ja) | 学習済モデルによるプログラム、情報記録媒体、分類装置、ならびに、分類方法 | |
CN112700461B (zh) | 一种肺结节检测和表征类别识别的系统 | |
CN112926652B (zh) | 一种基于深度学习的鱼类细粒度图像识别方法 | |
CN113011450B (zh) | 青光眼识别的训练方法、训练装置、识别方法及识别系统 | |
CN115546605A (zh) | 一种基于图像标注和分割模型的训练方法及装置 | |
CN113160185A (zh) | 一种利用生成边界位置指导宫颈细胞分割的方法 | |
CN115546466A (zh) | 一种基于多尺度显著特征融合的弱监督图像目标定位方法 | |
Wang et al. | SERR-U-Net: squeeze-and-excitation residual and recurrent block-based U-Net for automatic vessel segmentation in retinal image | |
CN113989799A (zh) | 一种宫颈异常细胞识别方法、装置和电子设备 | |
CN111062909A (zh) | 乳腺肿块良恶性判断方法及设备 | |
CN116704181A (zh) | 基于活体ct数据的图像分割方法、重量预测方法和设备 | |
CN113222887A (zh) | 基于深度学习的纳米铁标记神经干细胞示踪的方法 | |
CN108154107B (zh) | 一种确定遥感图像归属的场景类别的方法 | |
CN112069995A (zh) | 一种深度域人脸稠密特征提取方法、系统和存储介质 | |
CN117392468B (zh) | 基于多示例学习的癌症病理图像分类系统、介质及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |