CN112837297A - 一种渐进式多尺度的颅面骨骨折检测方法 - Google Patents
一种渐进式多尺度的颅面骨骨折检测方法 Download PDFInfo
- Publication number
- CN112837297A CN112837297A CN202110171094.9A CN202110171094A CN112837297A CN 112837297 A CN112837297 A CN 112837297A CN 202110171094 A CN202110171094 A CN 202110171094A CN 112837297 A CN112837297 A CN 112837297A
- Authority
- CN
- China
- Prior art keywords
- frame
- training
- loss
- label
- stage
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30008—Bone
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30016—Brain
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Radiology & Medical Imaging (AREA)
- General Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Public Health (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种渐进式多尺度的颅面骨骨折检测方法,属于颅面骨骨折检测技术领域,检测方法如下:先对骨折数据集进行裁剪:以原标签中心点为中心,以原标签长、宽的四倍作为新图的长、宽来裁剪原图,再对新标注的数据集进行一次训练,保存训练好的预训练模型,然后在此模型基础上对原数据集进行训练。其中,在对原数据进行训练提取特征的同时根据原数据标签生成热图标签,然后在区域生成网络中通过对比热图标签的方式对感兴趣区域进行指导,最后,通过缩小检测范围把候选框不断往真实框逼近。与同类方法相比,该方法可以有效的检测出颅骨骨折部分,从而提高了骨折检测的精确度并降低了漏框的概率,扩大了应用范围和应用场景。
Description
技术领域
本发明属于颅面骨骨折检测技术领域,具体涉及一种渐进式多尺度的颅面骨骨折检测方法。
背景技术
随着深度学习技术的发展,基于深度学习的目标检测技术正在逐渐应用的越来越广。目标检测是判断图片中是否存在给定类别(比如车、猫、狗)的目标实例,若存在就标记出每个实例的位置及其类别的一种目标提取技术。目标检测方法集成了深度学习、模式识别和数字图像处理等多种专业技术。目标检测关键有三点:(1)目标特征的提取;(2)对物体的识别;(3)对物体的定位。深度学习能够实现图像特征提取和目标检测算法的实施,极大的提高了目标检测的精度。目标检测所使用的深度学习网络结构的设计往往会直接影响到物体检测的效果。因此设计一种合适的深度学习网络结构是提高人脸识别精度的重要任务之一。虽然当前适用于目标检测的深度学习网络在公开数据集上已经达到了非常理想的效果,但是对于骨折数据集来说,还是存在误判和漏判的问题。因此深度学习需要和其他技术相结合以降低误判率。
目标检测对于人类来说是极其简单的任务,但对计算机来说,一张图片只是由一串串数字组成,这就很难直接从图片中得到高层语义信息,这就需要帮助计算机把数字转化为有用的特征。在过去的二十年中,目标检测大致经历了两个时期,“传统目标检测时期”和“基于深度学习的目标检测时期”。传统目标检测时期的目标检测算法因为其有限的计算资源,大都是由基于手工设计的几何特征构建。传统目标检测算法一般有三个阶段:首先在给定的图片上选择一些区域,然后提取这些区域的特征,最后用训练好的分类器进行分类。最近几年随着深度学习高速发展,出现了基于深度学习的目标检测,主要分为基于区域选择的深度学习算法和基于回归的深度学习算法,它们都是借助卷积神经网络,即输入一张图片,使其通过一系列卷积计算层、非线性计算层、池化层、全连接层,得到它的诸如边缘和曲线及其更为抽象的特征。
Ross Girshick[1]等人在2014年提出了Regions with CNN Features(RCNN),RCNN利用selective search算法在图像上生成一组候选区域,对于每一个候选区域再使用深度网络提取特征。RCNN在目标检测领域取得了巨大的成功。从此以后,目标检测开始以其前所未有的速度发展。
Shaoqing Ren[2]等人在2015年提出了Faster RCNN,Faster RCNN是第一个端到端的深度学习检测器,它的主要贡献是提出了Region Proposal Network,Faster RCNN抛弃了selective search方法,从RPN网络直接输出概率值和位置偏移量,从而在提高了精度的同时大大提高了检测速度。
Joseph Redmon[3]等人在2015年提出了You Only Look Once(YOLO),它是深度学习时代的第一个单阶段检测器,将检测任务看成是回归问题,只处理一次图片就得到位置和分类。
[1]Ross Girshick,J.Donahue,T.Darrell,J.Malik.Rich feature hierarchiesfor accurate object detection and semantic segmentationTech[J].arXiv preprintarXiv:1311.2524,2013.
[2]Shaoqing Ren and Kaiming He and Ross B.Girshick and JianSun.Faster R-CNN:Towards Real-Time Object Detection with Region ProposalNetworks[J].arXiv preprint arXiv:1506.01497,2015.
[3]Joseph Redmon and Santosh Kumar Divvala and Ross B.Girshick andAli Farhadi.You Only Look Once:Unified,Real-Time Object Detection[J].arXiv:1506.02640,2015.
发明内容
本发明的目的在于提供一种渐进式多尺度的颅面骨骨折检测方法,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:一种渐进式多尺度的颅面骨骨折检测方法,所述检测方法包括:
步骤一:准备好训练集和测试集的文件并放在工程目录下,在预处理代码中修改数据集的文件路径和输出模型路径,分别执行预处理程序来预处理两个数据集,得到两个预处理的文件;
步骤二:初始化预训练模型参数及训练配置文件;
步骤三:对原数据集进行裁剪,以原标签中心点为中心,以原标签长、宽的四倍作为新图的长、宽来裁剪原图,并更新标签框在新图片的相对位置,以建立一个新的数据集,并将新的数据集送入网络进行第一阶段的训练,训练完成后保存第一阶段训练好的预训练模型;
第一阶段训练的过程中:
图片经过FPN主干网络提取特征,然后经过RPN进行一次调框,再经过ROI进行精调,最后输出预测框;
其中,整个网络将下式作为损失函数:
Lreg是回归损失的特征表达,Lcls是分类损失的特征表达,Ldet是热图损失的特征表达,α、β为损失系数;
步骤四:第二阶段训练,读取第一阶段训练好的预训练网络模型参数,在预训练模型基础上对原数据集进行训练;
第二阶段训练的过程中:
输入到网络中的图片经过FPN预训练主干网提取特征;
然后生成与特征图分辨率和通道相同大小的热图和热图标签,其中,在该标签中,标记出真实框的中心点,并为中心点设置高斯半径,以该中心点和半径生成圆形亮斑,该亮斑表示真实框中心点所在区域;
将主干网络提取到的特征通过附加的多个卷积层卷积成通道为一的热图张量,并计算热图和热图标签的损失;
所用损失如下:
步骤五:RPN网络根据提取到的图片特征,计算锚框与真实框的交并比进行正负样本的划分,随机选取1:1的正负样本比例进行分类和回归,将回归结果与热图融合,加强突出的特征,来辅助定位;
将FPN提取到的特征图经过卷积得到分类和回归的预测值,然后计算真实框与锚框的交并比对锚框进行正负样本的划分,再与预测值计算RPN阶段的损失;
将分类的预测结果经过sigmod后与热图相加,突出特征图中候选框中心点的位置,加强特征信息辅助定位;
最终根据相加后的概率值对锚框进行非极大值抑制后得到候选框;
步骤六:ROI阶段进行第二次调框,通过候选框与真实框的交并比为每个区域找到对应的分类标签用于计算损失,然后在特征图上裁剪出候选框的位置,计算得到分类结果和回归结果,用以计算分类损失和回归损失;
将回归结果应用到候选框中,然后把候选框与标签框框在一起形成动态框,对动态框进行池化,从而扩大池化范围,使每个池化样本都包含标签框的信息,然后通过全连接层再次到分类结果和回归结果,计算分类损失和回归损失,重复一次后,最后返回得到的三个分类损失和三个回归损失。
进一步地,步骤三中的数据集经过裁剪更新标签后进行第一阶段的训练,并保存训练好的模型,步骤四中读取步骤三中保存的模型参数进行第二阶段训练。
进一步地,所述步骤四中生成热图和热图标签用来辅助RPN阶段的定位,热量损失回传只涉及到的卷积层参数,并不影响主干网络的参数。
进一步地,所述步骤六中将偏移量应用到候选框中进行下一步的调框,回传三个分类损失和三个回归损失。
与现有技术相比,本发明的有益效果是:
本发明,通过先对骨折数据集进行裁剪:以原标签中心点为中心,以原标签长、宽的四倍作为新图的长、宽来裁剪原图,再对新标注的数据集进行一次训练,保存训练好的预训练模型,然后在此模型基础上对原数据集进行训练。其中,在对原数据进行训练提取特征的同时根据原数据标签生成热图标签,然后在区域生成网络中通过对比热图标签的方式对感兴趣区域进行指导,最后,通过缩小检测范围把候选框不断往真实框逼近。与同类方法相比,该方法识别精度显著提高,可以有效的检测出颅骨骨折部分,从而降低了漏框的概率。
附图说明
图1为本发明一种渐进式多尺度的颅面骨骨折检测方法流程图。
图2为本发明一种渐进式多尺度的颅面骨骨折检测方法结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1-2所示,一种渐进式多尺度的颅面骨骨折检测方法,所述检测方法包括:
步骤一:准备好训练集和测试集的文件并放在工程目录下,在预处理代码中修改数据集的文件路径和输出模型路径,分别执行预处理程序来预处理两个数据集,得到两个预处理的文件;
步骤二:初始化预训练模型参数及训练配置文件;
步骤三:对原数据集进行裁剪,以原标签中心点为中心,以原标签长、宽的四倍作为新图的长、宽来裁剪原图,并更新标签框在新图片的相对位置,以建立一个新的数据集,并将新的数据集送入网络进行第一阶段的训练,训练完成后保存第一阶段训练好的预训练模型;
第一阶段训练的过程中:
图片经过FPN主干网络提取特征,然后经过RPN进行一次调框,再经过ROI进行精调,最后输出预测框;
其中,整个网络将下式作为损失函数:
Lreg是回归损失的特征表达,Lcls是分类损失的特征表达,Ldet是热图损失的特征表达,α、β为损失系数;
步骤四:第二阶段训练,读取第一阶段训练好的预训练网络模型参数,在预训练模型基础上对原数据集进行训练;
第二阶段训练的过程中:
输入到网络中的图片经过FPN预训练主干网提取特征;
然后生成与特征图分辨率和通道相同大小的热图和热图标签,其中,在该标签中,标记出真实框的中心点,并为中心点设置高斯半径,以该中心点和半径生成圆形亮斑,该亮斑表示真实框中心点所在区域;
将主干网络提取到的特征通过附加的多个卷积层卷积成通道为一的热图张量,并计算热图和热图标签的损失;
所用损失如下:
步骤五:RPN网络根据提取到的图片特征,计算锚框与真实框的交并比进行正负样本的划分,随机选取1:1的正负样本比例进行分类和回归,将回归结果与热图融合,加强突出的特征,来辅助定位;
将FPN提取到的特征图经过卷积得到分类和回归的预测值,然后计算真实框与锚框的交并比对锚框进行正负样本的划分,再与预测值计算RPN阶段的损失;
将分类的预测结果经过sigmod后与热图相加,突出特征图中候选框中心点的位置,加强特征信息辅助定位;
最终根据相加后的概率值对锚框进行非极大值抑制后得到候选框;
步骤六:ROI阶段进行第二次调框,通过候选框与真实框的交并比为每个区域找到对应的分类标签用于计算损失,然后在特征图上裁剪出候选框的位置,计算得到分类结果和回归结果,用以计算分类损失和回归损失;
将回归结果应用到候选框中,然后把候选框与标签框框在一起形成动态框,对动态框进行池化,从而扩大池化范围,使每个池化样本都包含标签框的信息,然后通过全连接层再次到分类结果和回归结果,计算分类损失和回归损失,重复一次后,最后返回得到的三个分类损失和三个回归损失;
将回归结果应用到候选框中,然后把候选框与标签框框在一起形成动态框,对动态框进行池化,从而扩大池化范围,使每个池化样本都包含标签框的信息,然后通过全连接层再次到分类结果和回归结果,计算分类损失和回归损失,重复一次后,最后返回得到的三个分类损失和三个回归损失。
其中,步骤三中的数据集经过裁剪更新标签后进行第一阶段的训练,并保存训练好的模型,步骤四中读取步骤三中保存的模型参数进行第二阶段训练。
其中,所述步骤四中生成热图和热图标签用来辅助RPN阶段的定位,热量损失回传只涉及到的卷积层参数,并不影响主干网络的参数。
其中,所述步骤六中将偏移量应用到候选框中进行下一步的调框,回传三个分类损失和三个回归损失。
本发明:通过先对骨折数据集进行裁剪:以原标签中心点为中心,以原标签长、宽的四倍作为新图的长、宽来裁剪原图,再对新标注的数据集进行一次训练,保存训练好的预训练模型,然后在此模型基础上对原数据集进行训练。其中,在对原数据进行训练提取特征的同时根据原数据标签生成热图标签,然后在区域生成网络中通过对比热图标签的方式对感兴趣区域进行指导,最后,通过缩小检测范围把候选框不断往真实框逼近。与同类方法相比,该方法可以有效的检测出颅骨骨折部分,从而提高了骨折检测的精确度并降低了漏框的概率,扩大了应用范围和应用场景。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (4)
1.一种渐进式多尺度的颅面骨骨折检测方法,其特征在于,所述检测方法包括:
步骤一:准备好训练集和测试集的文件并放在工程目录下,在预处理代码中修改数据集的文件路径和输出模型路径,分别执行预处理程序来预处理两个数据集,得到两个预处理的文件;
步骤二:初始化预训练模型参数及训练配置文件;
步骤三:对原数据集进行裁剪,以原标签中心点为中心,以原标签长、宽的四倍作为新图的长、宽来裁剪原图,并更新标签框在新图片的相对位置,以建立一个新的数据集,并将新的数据集送入网络进行第一阶段的训练,训练完成后保存第一阶段训练好的预训练模型;
第一阶段训练的过程中:
图片经过FPN主干网络提取特征,然后经过RPN进行一次调框,再经过ROI进行精调,最后输出预测框;
其中,整个网络将下式作为损失函数:
Lreg是回归损失的特征表达,Lcls是分类损失的特征表达,Ldet是热图损失的特征表达,α、β为损失系数;
步骤四:第二阶段训练,读取第一阶段训练好的预训练网络模型参数,在预训练模型基础上对原数据集进行训练;
第二阶段训练的过程中:
输入到网络中的图片经过FPN预训练主干网提取特征;
然后生成与特征图分辨率和通道相同大小的热图和热图标签,其中,在该标签中,标记出真实框的中心点,并为中心点设置高斯半径,以该中心点和半径生成圆形亮斑,该亮斑表示真实框中心点所在区域;
将主干网络提取到的特征通过附加的多个卷积层卷积成通道为一的热图张量,并计算热图和热图标签的损失;
所用损失如下:
步骤五:RPN网络根据提取到的图片特征,计算锚框与真实框的交并比进行正负样本的划分,随机选取1:1的正负样本比例进行分类和回归,将回归结果与热图融合,加强突出的特征,来辅助定位;
将FPN提取到的特征图经过卷积得到分类和回归的预测值,然后计算真实框与锚框的交并比对锚框进行正负样本的划分,再与预测值计算RPN阶段的损失;
将分类的预测结果经过sigmod后与热图相加,突出特征图中候选框中心点的位置,加强特征信息辅助定位;
最终根据相加后的概率值对锚框进行非极大值抑制后得到候选框;
步骤六:ROI阶段进行第二次调框,通过候选框与真实框的交并比为每个区域找到对应的分类标签用于计算损失,然后在特征图上裁剪出候选框的位置,计算得到分类结果和回归结果,用以计算分类损失和回归损失;
将回归结果应用到候选框中,然后把候选框与标签框框在一起形成动态框,对动态框进行池化,从而扩大池化范围,使每个池化样本都包含标签框的信息,然后通过全连接层再次到分类结果和回归结果,计算分类损失和回归损失,重复一次后,最后返回得到的三个分类损失和三个回归损失。
2.根据权利要求1所述的一种渐进式多尺度的颅面骨骨折检测方法,其特征在于:步骤三中的数据集经过裁剪更新标签后进行第一阶段的训练,并保存训练好的模型,步骤四中读取步骤三中保存的模型参数进行第二阶段训练。
3.根据权利要求1所述的一种渐进式多尺度的颅面骨骨折检测方法,其特征在于:所述步骤四中生成热图和热图标签用来辅助RPN阶段的定位,热量损失回传只涉及到的卷积层参数,并不影响主干网络的参数。
4.根据权利要求1所述的一种渐进式多尺度的颅面骨骨折检测方法,其特征在于:所述步骤六中将偏移量应用到候选框中进行下一步的调框,回传三个分类损失和三个回归损失。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110171094.9A CN112837297B (zh) | 2021-02-08 | 2021-02-08 | 一种渐进式多尺度的颅面骨骨折检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110171094.9A CN112837297B (zh) | 2021-02-08 | 2021-02-08 | 一种渐进式多尺度的颅面骨骨折检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112837297A true CN112837297A (zh) | 2021-05-25 |
CN112837297B CN112837297B (zh) | 2023-04-28 |
Family
ID=75930915
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110171094.9A Active CN112837297B (zh) | 2021-02-08 | 2021-02-08 | 一种渐进式多尺度的颅面骨骨折检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112837297B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114462495A (zh) * | 2021-12-30 | 2022-05-10 | 浙江大华技术股份有限公司 | 一种脸部遮挡检测模型的训练方法及相关装置 |
CN114494160A (zh) * | 2022-01-10 | 2022-05-13 | 复旦大学 | 一种基于完全融合集成网络候选框的骨折检测方法 |
CN115690545A (zh) * | 2021-12-03 | 2023-02-03 | 北京百度网讯科技有限公司 | 训练目标跟踪模型和目标跟踪的方法和装置 |
WO2024023800A1 (en) * | 2022-07-28 | 2024-02-01 | Optina Diagnostics, Inc. | Heatmap based feature preselection for retinal image analysis |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108305248A (zh) * | 2018-01-17 | 2018-07-20 | 慧影医疗科技(北京)有限公司 | 一种骨折识别模型的构建方法及应用 |
CN110200598A (zh) * | 2019-06-12 | 2019-09-06 | 天津大学 | 一种大型养殖场体征异常禽类检测系统及检测方法 |
US10430946B1 (en) * | 2019-03-14 | 2019-10-01 | Inception Institute of Artificial Intelligence, Ltd. | Medical image segmentation and severity grading using neural network architectures with semi-supervised learning techniques |
CN111524106A (zh) * | 2020-04-13 | 2020-08-11 | 北京推想科技有限公司 | 颅骨骨折检测和模型训练方法、装置、设备和存储介质 |
CN111598843A (zh) * | 2020-04-24 | 2020-08-28 | 国电南瑞科技股份有限公司 | 基于深度学习的电力变压器呼吸器目标缺陷检测方法 |
CN111914727A (zh) * | 2020-07-28 | 2020-11-10 | 联芯智能(南京)科技有限公司 | 基于平衡采样与非线性特征融合的小目标人体检测方法 |
-
2021
- 2021-02-08 CN CN202110171094.9A patent/CN112837297B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108305248A (zh) * | 2018-01-17 | 2018-07-20 | 慧影医疗科技(北京)有限公司 | 一种骨折识别模型的构建方法及应用 |
US10430946B1 (en) * | 2019-03-14 | 2019-10-01 | Inception Institute of Artificial Intelligence, Ltd. | Medical image segmentation and severity grading using neural network architectures with semi-supervised learning techniques |
CN110200598A (zh) * | 2019-06-12 | 2019-09-06 | 天津大学 | 一种大型养殖场体征异常禽类检测系统及检测方法 |
CN111524106A (zh) * | 2020-04-13 | 2020-08-11 | 北京推想科技有限公司 | 颅骨骨折检测和模型训练方法、装置、设备和存储介质 |
CN111598843A (zh) * | 2020-04-24 | 2020-08-28 | 国电南瑞科技股份有限公司 | 基于深度学习的电力变压器呼吸器目标缺陷检测方法 |
CN111914727A (zh) * | 2020-07-28 | 2020-11-10 | 联芯智能(南京)科技有限公司 | 基于平衡采样与非线性特征融合的小目标人体检测方法 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115690545A (zh) * | 2021-12-03 | 2023-02-03 | 北京百度网讯科技有限公司 | 训练目标跟踪模型和目标跟踪的方法和装置 |
CN114462495A (zh) * | 2021-12-30 | 2022-05-10 | 浙江大华技术股份有限公司 | 一种脸部遮挡检测模型的训练方法及相关装置 |
CN114462495B (zh) * | 2021-12-30 | 2023-04-07 | 浙江大华技术股份有限公司 | 一种脸部遮挡检测模型的训练方法及相关装置 |
CN114494160A (zh) * | 2022-01-10 | 2022-05-13 | 复旦大学 | 一种基于完全融合集成网络候选框的骨折检测方法 |
CN114494160B (zh) * | 2022-01-10 | 2023-04-18 | 复旦大学 | 一种基于完全融合集成网络候选框的骨折检测方法 |
WO2024023800A1 (en) * | 2022-07-28 | 2024-02-01 | Optina Diagnostics, Inc. | Heatmap based feature preselection for retinal image analysis |
Also Published As
Publication number | Publication date |
---|---|
CN112837297B (zh) | 2023-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112837297B (zh) | 一种渐进式多尺度的颅面骨骨折检测方法 | |
CN109840471B (zh) | 一种基于改进Unet网络模型的可行道路分割方法 | |
CN111159454A (zh) | 基于Actor-Critic生成式对抗网络的图片描述生成方法及系统 | |
CN110263659A (zh) | 一种基于三元组损失和轻量级网络的指静脉识别方法及系统 | |
CN108804453A (zh) | 一种视音频识别方法及装置 | |
CN112906718A (zh) | 一种基于卷积神经网络的多目标检测方法 | |
CN112734803B (zh) | 基于文字描述的单目标跟踪方法、装置、设备及存储介质 | |
Zhan et al. | Handwritten digit string recognition using convolutional neural network | |
CN107609509A (zh) | 一种基于运动显著性区域检测的动作识别方法 | |
CN111460144B (zh) | 基于时序切分与融合的谣言早期检测算法 | |
Liang et al. | Review of target detection technology based on deep learning | |
CN115617956A (zh) | 一种基于多模态注意力图谱的专利检索方法及系统 | |
CN110347853B (zh) | 一种基于循环神经网络的图像哈希码生成方法 | |
CN115512169A (zh) | 基于梯度和区域亲和力优化的弱监督语义分割方法及装置 | |
Xu et al. | Cascaded boundary network for high-quality temporal action proposal generation | |
CN113888505A (zh) | 一种基于语义分割的自然场景文本检测方法 | |
CN111507279B (zh) | 一种基于UNet++网络的掌纹识别方法 | |
CN116597267A (zh) | 图像识别方法、装置、计算机设备和存储介质 | |
CN116340507A (zh) | 一种基于混合权重和双通道图卷积的方面级情感分析方法 | |
CN110929013A (zh) | 一种基于bottom-up attention和定位信息融合的图片问答实现方法 | |
CN113313700B (zh) | 一种基于深度学习的x射线图像交互式分割方法 | |
CN113111136B (zh) | 一种基于ucl知识空间的实体消歧方法及装置 | |
CN113469267A (zh) | 一种基于深度特征检索的文本图像字符识别方法与系统 | |
CN109308458B (zh) | 一种基于特征谱尺度变换提升小目标检测精度的方法 | |
Condorelli et al. | Architectural heritage recognition in historical film footage using Neural Networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |