CN115994887A - 一种基于动态锚点的医学图像密集目标分析方法 - Google Patents

一种基于动态锚点的医学图像密集目标分析方法 Download PDF

Info

Publication number
CN115994887A
CN115994887A CN202211083558.1A CN202211083558A CN115994887A CN 115994887 A CN115994887 A CN 115994887A CN 202211083558 A CN202211083558 A CN 202211083558A CN 115994887 A CN115994887 A CN 115994887A
Authority
CN
China
Prior art keywords
network model
anchor point
target
output
loss function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211083558.1A
Other languages
English (en)
Other versions
CN115994887B (zh
Inventor
张云飞
曹黎俊
王孝群
蔡占毅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Jiyuan Medical Technology Co ltd
Original Assignee
Jiangsu Jiyuan Medical Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Jiyuan Medical Technology Co ltd filed Critical Jiangsu Jiyuan Medical Technology Co ltd
Priority to CN202211083558.1A priority Critical patent/CN115994887B/zh
Publication of CN115994887A publication Critical patent/CN115994887A/zh
Application granted granted Critical
Publication of CN115994887B publication Critical patent/CN115994887B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于动态锚点的医学图像密集目标分析方法,采集多张图片作为网络模型的训练数据,每张图片均包括多个目标,人工标注每个目标的中心坐标,并估算每张图片中目标的平均像素大小S;对于宽W高H的图片,采用间隔为S/2的锚点,生成预设锚点集合,记为{Pi};通过网络模型进行迭代训练,并计算网络模型的损失函数;最小化损失函数优化网络模型;通过优化过的网络模型对目标进行检测。模型中增加了锚点尺度估计分支,对于使得锚点不再固定不变,适应了不同目标尺度下的密集目标的检测。

Description

一种基于动态锚点的医学图像密集目标分析方法
技术领域
本发明涉及目标检测技术领域,具体的为:一种基于动态锚点的医学图像密集目标分析方法。
背景技术
在妇科疾病的诊疗中,对一些人体组织的成像分析成了重要的手段,图像中往往存在密集的目标,对这些目标进行定性和定量的分析,往往关系着疾病的诊断结果。如何从医学图像数据中挖掘出有用信息,对医学图像识别带来巨大的挑战。
深度学习是机器学习的一个新领域,传统的机器学习方法不能有效地挖掘到医学图像中蕴含的丰富信息,而深度学习通过模拟人脑建立分层模型,具有强大的自动特征提取、复杂模型构建以及高效的特征表达能力,更重要的是深度学习方法能从像素级的原始数据中逐级提取从底层到高层的特征,这为解决医学图像识别面临的新问题提供了新思路。
面对医学图像中非常常规的密集目标图像,常规的目标检测方法往往是通过回归目标框的方式,给出目标检测的结果。这种方式存在的问题是建立训练数据的时候,标注数据非常的繁琐,需要把目标一个个的标注出来;而且,为了使得模型具有相应的泛化能力,往往还需要标注不同尺度下的目标图像,而这些图像,对于人类来说,都是高度相似的,这样对于数据标注人员来说,非常不友好。
发明内容
发明目的:针对上述现有技术,提出一种基于动态锚点的医学图像密集目标分析方法
一种基于动态锚点的医学图像密集目标分析方法,包括以下步骤:
1)采集多张图片作为网络模型的训练数据,每张图片均包括多个目标,人工标注每个目标的中心坐标,并估算每张图片中目标的平均像素大小S;
2)对于宽W高H的图片,采用间隔为S/2的锚点,生成预设锚点集合,记为{Pi};
3)通过网络模型进行迭代训练,并计算网络模型的损失函数L;
4)最小化损失函数L优化网络模型;
5)通过优化过的网络模型对目标进行检测。
优选的,步骤3)中:网络模型为yolov5,网络模型的损失函数L的计算公式为:
L=αLscl+βLreg+γLcls
Lscl=|S0-S|
Lreg=Distance(p,pa)
其中:Lscl为目标尺度回归的损失函数;Lreg为网络模型的输出点p和目标点pa的距离;Lcls目标分类的损失函数,S0为输出。
优选的,步骤3)中:在训练时,每次迭代优化进行2次反向计算:第一次使用预设的初始锚点计算整个网络模型的输出,记录锚点尺度估计分支输出So,计算损失并进行反向优化;第二次使用So/2作为锚点间隔生成锚点集合{Pi},再进行计算损失并反向优化,经过多次迭代获得优化后的网络模型。
优选的,步骤5)中:在使用网络模型进行目标检测的时候,需要进行2次前向计算:第一次使用预设的初始锚点计算整个网络模型的输出,记录锚点尺度估计分支输出So;第二次使用So/2作为锚点间隔生成锚点集合{Pi},进行计算,获得目标坐标和置信度输出。
有益效果:本发明使用动态的坐标锚点代替了传统的目标框锚点,相应的,检测的输出只是一个个目标的中心点。虽然没有输出目标的边界框,但是对于该场景下的医学分析来说,得到的目标的坐标和位置已经足够了。同时模型中增加了锚点尺度估计分支,对于使得锚点不再固定不变,适应了不同目标尺度下的密集目标的检测。
具体实施方式
下面对本发明做更进一步的解释。
一种基于动态锚点的医学图像密集目标分析方法,包括以下步骤:
1)采集多张图片作为网络模型的训练数据,每张图片均包括多个目标,人工标注每个目标的中心坐标,并估算每张图片中目标的平均像素大小S;
2)对于宽W高H的图片,采用间隔为S/2的锚点,生成预设锚点集合,记为{Pi}
3)通过网络模型进行迭代训练,并计算网络模型的损失函数L;
4)最小化损失函数L优化网络模型;
5)通过优化过的网络模型对目标进行检测。
步骤3)中:网络模型为yolov5,网络模型的损失函数L的计算公式为:
L=αLscl+βLreg+γLcls
Lscl=|S0-S|
Lreg=Distance(p,pa)
其中:Lscl为目标尺度回归的损失函数;Lreg为网络模型的输出点p和目标点pa的距离;Lcls目标分类的损失函数,S0为输出。
步骤3)中:在训练时,每次迭代优化进行2次反向计算:第一次使用预设的初始锚点计算整个网络模型的输出,记录锚点尺度估计分支输出So,计算损失并进行反向优化;第二次使用So/2作为锚点间隔生成锚点集合{Pi},再进行计算损失并反向优化,经过多次迭代获得优化后的网络模型。
步骤5)中:在使用网络模型进行目标检测的时候,需要进行2次前向计算:第一次使用预设的初始锚点计算整个网络模型的输出,记录锚点尺度估计分支输出So;第二次使用So/2作为锚点间隔生成锚点集合{Pi},进行计算,获得目标坐标和置信度输出。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (4)

1.一种基于动态锚点的医学图像密集目标分析方法,其特征在于,包括以下步骤:
1)采集多张图片作为网络模型的训练数据,每张图片均包括多个目标,人工标注每个目标的中心坐标,并估算每张图片中目标的平均像素大小S;
2)对于宽W高H的图片,采用间隔为S/2的锚点,生成预设锚点集合,记为{Pi};
3)通过网络模型进行迭代训练,并计算网络模型的损失函数L;
4)最小化损失函数L优化网络模型;
5)通过优化过的网络模型对目标进行检测。
2.如权利要求1所述的一种基于动态锚点的医学图像密集目标分析方法,其特征在于,步骤3)中:网络模型采用yolov5,网络模型的损失函数L的计算公式为:
L=αLscl+βLreg+γLcls
Lscl=|S0-S|
Lreg=Distance(p,pa)
其中:Lscl为目标尺度回归的损失函数;Lreg为网络模型的输出点p和目标点pa的距离;Lcls目标分类的损失函数,α、β、γ为权重参数,S0为尺度估计分支的输出。
3.如权利要求2所述的一种基于动态锚点的医学图像密集目标分析方法,其特征在于,步骤3)中:在训练时,每次迭代优化进行2次反向计算:第一次使用预设的初始锚点计算整个网络模型的输出,记录锚点尺度估计分支输出S0,计算损失并进行反向优化;第二次使用S0/2作为锚点间隔生成锚点集合{Pi},再进行计算损失并反向优化,经过多次迭代获得优化后的网络模型。
4.如权利要求3所述的一种基于动态锚点的医学图像密集目标分析方法,其特征在于,步骤5)中:在使用网络模型进行目标检测的时候,进行2次前向计算:第一次使用预设的初始锚点计算整个网络模型的输出,记录锚点尺度估计分支输出S0;第二次使用S0/2作为锚点间隔生成锚点集合{Pi},进行计算,获得目标坐标和置信度输出。
CN202211083558.1A 2022-09-06 2022-09-06 一种基于动态锚点的医学图像密集目标分析方法 Active CN115994887B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211083558.1A CN115994887B (zh) 2022-09-06 2022-09-06 一种基于动态锚点的医学图像密集目标分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211083558.1A CN115994887B (zh) 2022-09-06 2022-09-06 一种基于动态锚点的医学图像密集目标分析方法

Publications (2)

Publication Number Publication Date
CN115994887A true CN115994887A (zh) 2023-04-21
CN115994887B CN115994887B (zh) 2024-01-09

Family

ID=85993107

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211083558.1A Active CN115994887B (zh) 2022-09-06 2022-09-06 一种基于动态锚点的医学图像密集目标分析方法

Country Status (1)

Country Link
CN (1) CN115994887B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110807496A (zh) * 2019-11-12 2020-02-18 智慧视通(杭州)科技发展有限公司 一种密集目标检测方法
CN111126278A (zh) * 2019-12-24 2020-05-08 北京邮电大学 针对少类别场景的目标检测模型优化与加速的方法
CN111291587A (zh) * 2018-12-06 2020-06-16 深圳光启空间技术有限公司 一种基于密集人群的行人检测方法、存储介质及处理器
CN111832479A (zh) * 2020-07-14 2020-10-27 西安电子科技大学 基于改进的自适应锚点r-cnn的视频目标检测方法
CN112420165A (zh) * 2019-08-23 2021-02-26 腾讯美国有限责任公司 显微镜视图对应的增强现实图像的显示方法和装置
CN113963272A (zh) * 2021-10-25 2022-01-21 重庆科技学院 一种基于改进yolov3的无人机图像目标检测方法
US20220198787A1 (en) * 2020-11-24 2022-06-23 Huron Technologies International Inc. Systems and methods for generating encoded representations for multiple magnifications of image data
US20220207868A1 (en) * 2020-12-29 2022-06-30 Tsinghua University All-weather target detection method based on vision and millimeter wave fusion
CN114926722A (zh) * 2022-04-19 2022-08-19 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) 基于YOLOv5的尺度自适应目标检测的方法及存储介质

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111291587A (zh) * 2018-12-06 2020-06-16 深圳光启空间技术有限公司 一种基于密集人群的行人检测方法、存储介质及处理器
CN112420165A (zh) * 2019-08-23 2021-02-26 腾讯美国有限责任公司 显微镜视图对应的增强现实图像的显示方法和装置
CN110807496A (zh) * 2019-11-12 2020-02-18 智慧视通(杭州)科技发展有限公司 一种密集目标检测方法
CN111126278A (zh) * 2019-12-24 2020-05-08 北京邮电大学 针对少类别场景的目标检测模型优化与加速的方法
CN111832479A (zh) * 2020-07-14 2020-10-27 西安电子科技大学 基于改进的自适应锚点r-cnn的视频目标检测方法
US20220198787A1 (en) * 2020-11-24 2022-06-23 Huron Technologies International Inc. Systems and methods for generating encoded representations for multiple magnifications of image data
US20220207868A1 (en) * 2020-12-29 2022-06-30 Tsinghua University All-weather target detection method based on vision and millimeter wave fusion
CN113963272A (zh) * 2021-10-25 2022-01-21 重庆科技学院 一种基于改进yolov3的无人机图像目标检测方法
CN114926722A (zh) * 2022-04-19 2022-08-19 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) 基于YOLOv5的尺度自适应目标检测的方法及存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
GUOWEI DAI ET.AL.: ""A Deep Learning-Based Object Detection Scheme by Improving YOLOv5 for Sprouted Potatoes Datasets"", 《IEEE ACCESS》, vol. 10, pages 2169 - 3536 *
刘思远;程良伦;: "基于深度卷积神经网络的遥感图像目标检测方法", 工业控制计算机, no. 05, pages 75 - 77 *
王静等: ""改进YOLOv5的白细胞检测算法"", 《计算机工程与应用》, vol. 58, no. 4, pages 134 - 142 *

Also Published As

Publication number Publication date
CN115994887B (zh) 2024-01-09

Similar Documents

Publication Publication Date Title
CN104517102B (zh) 学生课堂注意力检测方法及系统
CN111539273B (zh) 一种交通视频背景建模方法及系统
US11151721B2 (en) System and method for automatic detection, localization, and semantic segmentation of anatomical objects
CN105518744B (zh) 行人再识别方法及设备
CN110532970B (zh) 人脸2d图像的年龄性别属性分析方法、系统、设备和介质
US20220157047A1 (en) Feature Point Detection
CN109284737A (zh) 一种用于智慧教室的学生行为分析和识别系统
TWI709085B (zh) 用於對車輛損傷影像進行損傷分割的方法、裝置、電腦可讀儲存媒體和計算設備
JP2018530401A5 (zh)
CN110772286A (zh) 一种基于超声造影识别肝脏局灶性病变的系统
CN109711389B (zh) 一种基于Faster R-CNN和HMM的哺乳母猪姿态转换识别方法
CN109410168A (zh) 用于确定图像中的子图块的类别的卷积神经网络模型的建模方法
CN113762009B (zh) 一种基于多尺度特征融合及双注意力机制的人群计数方法
CN109886195B (zh) 基于深度相机近红外单色灰度图的皮肤识别方法
CN109934873B (zh) 标注图像获取方法、装置及设备
WO2023165033A1 (zh) 识别医学图像中的目标的模型训练、方法、设备及介质
CN111445496B (zh) 一种水下图像识别跟踪系统及方法
CN101727568B (zh) 前景动作估计装置和前景动作估计方法
CN106529441A (zh) 基于模糊边界分片的深度动作图人体行为识别方法
CN114004854B (zh) 一种显微镜下的切片图像实时处理显示系统和方法
CN111708907B (zh) 一种目标人员的查询方法、装置、设备及存储介质
CN115994887B (zh) 一种基于动态锚点的医学图像密集目标分析方法
CN112651962A (zh) 一种ai智能诊断系统平台
CN111275754B (zh) 一种基于深度学习的脸部痘印比例计算方法
CN116758421A (zh) 一种基于弱监督学习的遥感图像有向目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant