CN117522861B - 用于动物肩袖损伤的智能监测系统及方法 - Google Patents

用于动物肩袖损伤的智能监测系统及方法 Download PDF

Info

Publication number
CN117522861B
CN117522861B CN202311797696.0A CN202311797696A CN117522861B CN 117522861 B CN117522861 B CN 117522861B CN 202311797696 A CN202311797696 A CN 202311797696A CN 117522861 B CN117522861 B CN 117522861B
Authority
CN
China
Prior art keywords
rotator cuff
feature map
feature
fusion
visualization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311797696.0A
Other languages
English (en)
Other versions
CN117522861A (zh
Inventor
许卓
杨寿君
石洪峰
赵志博
董健
李博
董宏飞
张婷
景嘉鹏
郑钦之
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin University
Original Assignee
Jilin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin University filed Critical Jilin University
Priority to CN202311797696.0A priority Critical patent/CN117522861B/zh
Publication of CN117522861A publication Critical patent/CN117522861A/zh
Application granted granted Critical
Publication of CN117522861B publication Critical patent/CN117522861B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/52Scale-space analysis, e.g. wavelet analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Human Computer Interaction (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

本发明公开了一种用于动物肩袖损伤的智能监测系统及方法,涉及智能化监测技术领域,其通过摄像头采集动物对象的肩袖部分图像,并在后端引入图像处理和分析算法来进行所述肩袖部分图像的分析,以此来自动判断动物肩袖部分是否存在损伤,从而提高监测效率和准确性。同时还可以实现动物肩袖损伤的实时监测和预警功能,有效地提升了动物肩袖损伤的监测效果,这对于提高动物的健康水平和动物保护质量具有重要意义。

Description

用于动物肩袖损伤的智能监测系统及方法
技术领域
本发明涉及智能化监测技术领域,尤其涉及一种用于动物肩袖损伤的智能监测系统及方法。
背景技术
动物肩袖损伤是一种常见的动物疾病,主要发生在肩袖肌群的肌腱或软骨上,导致动物肩关节的功能障碍和疼痛。动物肩袖损伤会影响动物的生活质量和健康,甚至可能导致动物的死亡。因此,对于动物肩袖损伤的及时监测和诊断具有重要的意义。
然而,传统的动物肩袖损伤的监测系统主要依赖于人工观察和诊断,这种方法存在以下缺陷:一是效率低,需要消耗大量的人力和时间;二是准确性差,容易受到人为因素的影响,导致误诊或漏诊;三是难以实现动态监测,无法及时发现和处理动物的肩袖损伤。
因此,期望一种用于动物肩袖损伤的智能监测系统。
发明内容
本发明为了克服现有技术中的不足,提供一种用于动物肩袖损伤的智能监测系统及方法。
本发明还提供了一种用于动物肩袖损伤的智能监测系统,其包括:
肩袖部分图像采集模块,用于获取由摄像头采集的被监控动物对象的肩袖部分图像;
肩袖部分浅层特征提取模块,用于通过基于第一深度神经网络模型的浅层特征提取器对所述肩袖部分图像进行特征提取以得到肩袖部分浅层特征图;
肩袖部分深层特征提取模块,用于通过基于第二深度神经网络模型的深层特征提取器对所述肩袖部分浅层特征图进行特征提取以得到肩袖部分深层特征图;
肩袖部分多尺度特征融合模块,用于融合所述肩袖部分浅层特征图和所述肩袖部分深层特征图以得到肩袖部分多尺度融合特征图;
肩袖部分特征空间显化模块,用于对所述肩袖部分多尺度融合特征图进行空间特征显化处理以得到空间显化肩袖部分多尺度融合特征;
肩袖部分损伤检测模块,用于基于所述空间显化肩袖部分多尺度融合特征,确定被监控动物对象的肩袖部分是否存在损伤;
其中,所述肩袖部分多尺度特征融合模块,用于:使用信息补偿传递模块以如下融合公式来融合所述肩袖部分浅层特征图和所述肩袖部分深层特征图以得到所述肩袖部分多尺度融合特征图;
其中,所述融合公式为:
其中,表示所述肩袖部分浅层特征图,/>表示所述肩袖部分深层特征图,表示上采样处理,/>表示卷积处理,/>表示/>函数,/>表示损失信息特征图,/>表示基于注意力的池化处理,/>表示按位置点乘,/>表示所述肩袖部分多尺度融合特征图。
进一步地,所述第一深度神经网络模型为第一卷积神经网络模型,所述第二深度神经网络模型为第二卷积神经网络模型。
进一步地,所述肩袖部分特征空间显化模块,用于:将所述肩袖部分多尺度融合特征图通过空间注意力层以得到空间显化肩袖部分多尺度融合特征图作为所述空间显化肩袖部分多尺度融合特征。
进一步地,所述肩袖部分损伤检测模块,包括:
特征分布优化单元,用于对所述空间显化肩袖部分多尺度融合特征图进行特征分布优化以得到优化空间显化肩袖部分多尺度融合特征图;
损伤检测单元,用于将所述优化空间显化肩袖部分多尺度融合特征图通过分类器以得到分类结果,所述分类结果用于表示被监控动物对象的肩袖部分是否存在损伤。
进一步地,所述损伤检测单元,包括:
矩阵展开子单元,用于将所述优化空间显化肩袖部分多尺度融合特征图按照行向量或列向量展开为分类特征向量;
全连接编码子单元,用于使用所述分类器的多个全连接层对所述分类特征向量进行全连接编码以得到编码分类特征向量;
分类子单元,用于将所述编码分类特征向量通过所述分类器的Softmax分类函数以得到所述分类结果。
本发明还提供了一种用于动物肩袖损伤的智能监测方法,其包括:
获取由摄像头采集的被监控动物对象的肩袖部分图像;
通过基于第一深度神经网络模型的浅层特征提取器对所述肩袖部分图像进行特征提取以得到肩袖部分浅层特征图;
通过基于第二深度神经网络模型的深层特征提取器对所述肩袖部分浅层特征图进行特征提取以得到肩袖部分深层特征图;
融合所述肩袖部分浅层特征图和所述肩袖部分深层特征图以得到肩袖部分多尺度融合特征图;
对所述肩袖部分多尺度融合特征图进行空间特征显化处理以得到空间显化肩袖部分多尺度融合特征;
基于所述空间显化肩袖部分多尺度融合特征,确定被监控动物对象的肩袖部分是否存在损伤;
其中,融合所述肩袖部分浅层特征图和所述肩袖部分深层特征图以得到肩袖部分多尺度融合特征图,包括:使用信息补偿传递模块来融合所述肩袖部分浅层特征图和所述肩袖部分深层特征图以得到所述肩袖部分多尺度融合特征图;
其中,所述融合公式为:
其中,表示所述肩袖部分浅层特征图,/>表示所述肩袖部分深层特征图,表示上采样处理,/>表示卷积处理,/>表示/>函数,/>表示损失信息特征图,/>表示基于注意力的池化处理,/>表示按位置点乘,/>表示所述肩袖部分多尺度融合特征图。
进一步地,所述第一深度神经网络模型为第一卷积神经网络模型,所述第二深度神经网络模型为第二卷积神经网络模型。
与现有技术相比,本申请提供的用于动物肩袖损伤的智能监测系统及方法,其通过摄像头采集动物对象的肩袖部分图像,并在后端引入图像处理和分析算法来进行所述肩袖部分图像的分析,以此来自动判断动物肩袖部分是否存在损伤,从而提高监测效率和准确性。同时还可以实现动物肩袖损伤的实时监测和预警功能,有效地提升了动物肩袖损伤的监测效果,这对于提高动物的健康水平和动物保护质量具有重要意义。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1为本发明实施例中提供的一种用于动物肩袖损伤的智能监测系统的框图。
图2为本发明实施例中提供的一种用于动物肩袖损伤的智能监测方法的流程图。
图3为本发明实施例中提供的一种用于动物肩袖损伤的智能监测方法的系统架构的示意图。
图4为本发明实施例中提供的一种用于动物肩袖损伤的智能监测系统的应用场景图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚明白,下面结合附图对本发明实施例做进一步详细说明。在此,本发明的示意性实施例及其说明用于解释本发明,但并不作为对本发明的限定。
除非另有说明,本申请实施例所使用的所有技术和科学术语与本申请的技术领域的技术人员通常理解的含义相同。本申请中所使用的术语只是为了描述具体的实施例的目的,不是旨在限制本申请的范围。
在本申请实施例记载中,需要说明的是,除非另有说明和限定,术语“连接”应做广义理解,例如,可以是电连接,也可以是两个元件内部的连通,可以是直接相连,也可以通过中间媒介间接相连,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
需要说明的是,本申请实施例所涉及的术语“第一\第二\第三”仅仅只是区别类似的对象,不代表针对对象的特定排序,可以理解地,“第一\第二\第三”在允许的情况下可以互换特定的顺序或先后次序。应该理解“第一\第二\第三”区分的对象在适当情况下可以互换,以使这里描述的本申请的实施例可以除了在这里图示或描述的那些以外的顺序实施。
动物肩袖损伤是指发生在动物肩关节的肌腱或软骨上的损伤,肩袖肌群包括肱二头肌、肱三头肌、冈上肌和小圆肌等肌肉,它们的肌腱和软骨起到固定和稳定肩关节的作用,当这些肌腱或软骨受到损伤时,就会导致肩袖损伤。
动物肩袖损伤可以由多种原因引起,包括剧烈运动、过度使用、外伤、肌肉不平衡和老化等。一些常见的动物肩袖损伤症状包括肩关节疼痛、肩关节僵硬、肩关节功能障碍、肩膀肌肉萎缩和动物行走异常等。如果不及时监测和诊断,动物肩袖损伤可能会进一步恶化,影响动物的生活质量和健康。
对于动物肩袖损伤的及时监测和诊断非常重要。以下是一些常用的方法:可以通过仔细检查动物的肩关节,观察动物的行走方式和姿势,以及询问主人有关动物的症状和历史,来初步判断是否存在肩袖损伤。X射线可以用于检查肩关节的结构和骨骼是否存在异常,例如骨折或骨刺,这对于排除其他肩关节问题和确定肩袖损伤的程度非常有帮助。超声波可以用于评估肩关节软组织的损伤情况,包括肌腱和软骨,可以提供更详细的图像,帮助兽医做出更准确的诊断。磁共振成像可以提供更为详细的肩关节图像,包括软组织结构和病变的信息,可以帮助兽医确定肩袖损伤的类型和程度。
传统的动物肩袖损伤监测系统主要依赖于人工观察和诊断,这种方法存在一些缺陷,传统的监测方法需要依靠专业人员进行观察和诊断,这需要消耗大量的人力和时间,特别是在大规模养殖场或野生动物保护区等场景下,人工监测变得非常困难和耗时。
人工观察和诊断容易受到人为因素的影响,如主观判断、经验不足或疲劳等,从而导致误诊或漏诊,这可能会延误动物的治疗和康复进程,甚至造成不可逆转的损害。传统方法通常只能提供静态的观察和诊断结果,无法实时监测动物肩袖损伤的变化,动物可能在不同时间段表现出不同的症状或程度,而传统方法无法捕捉到这种动态变化,从而无法及时发现和处理损伤。
为了克服传统方法的缺陷,现代技术和设备的应用正在改变动物肩袖损伤的监测和诊断方式。
在本发明的一个实施例中,图1为本发明实施例中提供的一种用于动物肩袖损伤的智能监测系统的框图。如图1所示,根据本发明实施例的用于动物肩袖损伤的智能监测系统100,包括:肩袖部分图像采集模块110,用于获取由摄像头采集的被监控动物对象的肩袖部分图像;肩袖部分浅层特征提取模块120,用于通过基于第一深度神经网络模型的浅层特征提取器对所述肩袖部分图像进行特征提取以得到肩袖部分浅层特征图;肩袖部分深层特征提取模块130,用于通过基于第二深度神经网络模型的深层特征提取器对所述肩袖部分浅层特征图进行特征提取以得到肩袖部分深层特征图;肩袖部分多尺度特征融合模块140,用于融合所述肩袖部分浅层特征图和所述肩袖部分深层特征图以得到肩袖部分多尺度融合特征图;肩袖部分特征空间显化模块150,用于对所述肩袖部分多尺度融合特征图进行空间特征显化处理以得到空间显化肩袖部分多尺度融合特征;肩袖部分损伤检测模块160,用于基于所述空间显化肩袖部分多尺度融合特征,确定被监控动物对象的肩袖部分是否存在损伤。
在所述肩袖部分图像采集模块110中,从摄像头中获取被监控动物对象的肩袖部分图像。确保摄像头的位置和角度能够准确捕捉到肩袖部分,并且图像质量足够清晰以便后续处理。这样,提供输入数据,使得后续模块可以对肩袖部分进行分析和检测。
在所述肩袖部分浅层特征提取模块120中,使用第一深度神经网络模型的浅层特征提取器对肩袖部分图像进行特征提取。选择适当的神经网络模型和参数配置,以及确保提取的浅层特征能够准确地表示肩袖部分的特征。以提供具有较低级别抽象的特征图,为后续模块提供更多信息。
在所述肩袖部分深层特征提取模块130中,使用第二深度神经网络模型的深层特征提取器对肩袖部分浅层特征图进行特征提取。选择适当的神经网络模型和参数配置,以及确保提取的深层特征能够捕捉到更高级别的抽象特征。这样,可以提供更加丰富和抽象的特征图,增强对肩袖部分的表示能力。
在所述肩袖部分多尺度特征融合模块140中,负责融合肩袖部分浅层特征图和深层特征图,以得到肩袖部分的多尺度融合特征图。选择适当的融合策略,如加权融合或级联融合,以确保不同尺度的特征能够得到合理的结合。以提供更全面、综合的特征表示,提高肩袖部分的检测性能。
在所述肩袖部分特征空间显化模块150中,用于对肩袖部分多尺度融合特征图进行空间特征显化处理,以突出显示肩袖部分的特征。选择适当的显化方法,如热力图或边缘检测,以使肩袖部分的特征更加明显和可视化。以提供更直观和可解释的特征表示,有助于医生或兽医对肩袖部分进行损伤检测和分析。
在所述肩袖部分损伤检测模块160中,基于空间显化肩袖部分多尺度融合特征,用于确定被监控动物对象的肩袖部分是否存在损伤。选择适当的检测算法和阈值,以准确地判断损伤的存在与程度。以实现对肩袖部分损伤的自动化检测,提供及时的诊断和干预。
针对上述技术问题,本申请的技术构思为通过摄像头采集动物对象的肩袖部分图像,并在后端引入图像处理和分析算法来进行所述肩袖部分图像的分析,以此来自动判断动物肩袖部分是否存在损伤,从而提高监测效率和准确性。同时还可以实现动物肩袖损伤的实时监测和预警功能,有效地提升了动物肩袖损伤的监测效果,这对于提高动物的健康水平和动物保护质量具有重要意义。
具体地,在本申请的技术方案中,首先,获取由摄像头采集的被监控动物对象的肩袖部分图像。接着,考虑到在实际进行动物对象的肩袖损伤检测过程中,所述肩袖部分的浅层特征,例如颜色、纹理等特征信息对于肩袖损伤的识别具有重要作用。因此,在本申请的技术方案中,需要将所述肩袖部分图像通过基于第一卷积神经网络的浅层特征提取器以得到肩袖部分浅层特征图。通过所述基于第一卷积神经网络的浅层特征提取器,能够很好地捕捉到所述肩袖部分图像中关于动物肩袖部分的一些基本的边缘、形状、颜色和纹理等特征信息,这些特征信息可以帮助后续的深层特征提取器更好地识别出肩袖部分的结构和细节,同时也有利于更好地判断该被监控动物对象的肩袖部分是否存在损伤。
然后,在得到所述肩袖部分图像中有关于动物肩袖部分的边缘、形状、颜色和纹理等浅层特征信息后,为了能够进一步提高对于肩袖部分的语义理解充分度和精度,以此来提高对动物肩袖损伤检测的精准度,在本申请的技术方案中,进一步将所述肩袖部分浅层特征图通过基于第二卷积神经网络模型的深层特征提取器中进行特征挖掘,以提取出所述被监控动物对象的肩袖部分的结构和细节等高级语义特征信息,从而得到肩袖部分深层特征图。
在本申请的一个具体实施例中,所述第一深度神经网络模型为第一卷积神经网络模型,所述第二深度神经网络模型为第二卷积神经网络模型。
将肩袖部分图像通过基于第一卷积神经网络的浅层特征提取器进行特征提取,可以获得肩袖部分的浅层特征图,这些浅层特征包含了一些低级别的图像特征,如边缘、纹理等,这些特征可以帮助捕捉肩袖部分的基本形状和结构信息。
接着,将肩袖部分浅层特征图通过基于第二卷积神经网络模型的深层特征提取器进行特征挖掘,可以进一步提取出肩袖部分的高级语义特征信息,包括更抽象的结构和细节。深层特征提取器能够学习到更复杂的特征表示,通过层层堆叠的卷积和池化操作,逐渐提取出图像中更高级别的特征。
这种多层级的特征提取过程有助于提高对肩袖部分的理解和表示能力。通过浅层特征提取器和深层特征提取器的组合,可以捕捉到肩袖部分图像中的不同层次的特征信息,从低级别的边缘和纹理到高级别的结构和细节,这样的特征表示可以更准确地描述肩袖部分的特征,为后续的特征融合和损伤检测提供更有价值的信息。
通过基于第一卷积神经网络的浅层特征提取器和基于第二卷积神经网络模型的深层特征提取器,可以逐步提取出被监控动物对象肩袖部分的结构和细节等高级语义特征信息,这种特征挖掘的过程有助于提高对肩袖部分的理解和表示能力,为后续的肩袖损伤检测提供更准确和可靠的基础。
进一步地,在进行动物对象的肩袖损伤监测过程中,由于所述肩袖部分浅层特征图和所述肩袖部分深层特征图分别代表了从所述被监控动物对象的肩袖部分图像中提取的不同层次和抽象程度的特征信息,其中,浅层特征图主要捕捉到动物对象的肩袖部分的边缘、形状、颜色和纹理等浅层特征信息,而深层特征图则捕捉到动物对象的肩袖部分的结构和细节等高级语义特征信息。因此,为了将所述肩袖部分图像的不同层次和尺度的特征进行有效的融合,以获取更全面、更丰富的特征表示来提高对动物对象的肩袖部分进行损伤检测,在本申请的技术方案中,进一步使用信息补偿传递模块来融合所述肩袖部分浅层特征图和所述肩袖部分深层特征图以得到肩袖部分多尺度融合特征图。特别地,这里,所述信息补偿传递模块可以采用残差连接的方式来将动物对象的肩袖部分的浅层特征和深层特征进行融合以形成多尺度的特征表示,从而实现肩袖部分的不同层次特征之间的交互和信息传递,使得肩袖部分的浅层特征和深层特征能够相互补充和增强,有利于提供更丰富、更全面的表达能力,从而更好地反映出动物对象的肩袖部分是否存在损伤以及损伤情况。
在本申请的一个具体实施例中,所述肩袖部分多尺度特征融合模块,用于:使用信息补偿传递模块来融合所述肩袖部分浅层特征图和所述肩袖部分深层特征图以得到所述肩袖部分多尺度融合特征图。
进一步地,所述肩袖部分多尺度特征融合模块,用于:使用信息补偿传递模块以如下融合公式来融合所述肩袖部分浅层特征图和所述肩袖部分深层特征图以得到所述肩袖部分多尺度融合特征图;其中,所述融合公式为:
其中,表示所述肩袖部分浅层特征图,/>表示所述肩袖部分深层特征图,表示上采样处理,/>表示卷积处理,/>表示/>函数,/>表示损失信息特征图,/>表示基于注意力的池化处理,/>表示按位置点乘,/>表示所述肩袖部分多尺度融合特征图。
接着,考虑到在实际进行所述被监控动物对象的肩袖部分损伤检测过程中,会存在大量的噪声干扰导致对于肩袖损伤检测的精准度较低。因此,在本申请的技术方案中,在得到所述被监控动物对象的肩袖部分的多尺度融合特征信息后,进一步将所述肩袖部分多尺度融合特征图通过空间注意力层以得到空间显化肩袖部分多尺度融合特征图,以此来增强肩袖部分的空间特征表示能力,从而提高分类的准确性和鲁棒性。应可以理解,所述空间注意力层可以根据肩袖部分的多尺度融合特征图,自动学习出一个空间权重矩阵,该矩阵可以对不同的空间区域赋予不同的重要性,从而突出肩袖部分的关键信息,抑制无关信息,从而更好地反映出动物对象的肩袖部分的损伤情况,有利于分类器进行判断。
在本申请的一个具体实施例中,所述肩袖部分特征空间显化模块,用于:将所述肩袖部分多尺度融合特征图通过空间注意力层以得到空间显化肩袖部分多尺度融合特征图作为所述空间显化肩袖部分多尺度融合特征。
将肩袖部分多尺度融合特征图通过空间注意力层进行处理,可以得到空间显化肩袖部分多尺度融合特征图。空间注意力层是一种机制,可以根据图像中不同区域的重要性,对特征图进行加权处理,使得重要的区域得到更高的注意力,而不重要的区域得到较低的注意力。通过空间注意力层的处理,空间显化肩袖部分多尺度融合特征图可以突出显示肩袖部分的特征,这意味着在特征图中,与肩袖部分相关的区域将被强调,而与肩袖部分无关的区域将被抑制,这种空间显化的效果有助于提高对肩袖部分的可视化和理解。
具体来说,空间注意力层可以根据特征图中每个位置的特征值大小和上下文信息,计算出对应位置的注意力权重,这些权重可以用于对特征图进行加权求和,从而生成空间显化的肩袖部分多尺度融合特征图。在这个过程中,注意力权重会使得与肩袖部分相关的特征在特征图中得到更高的响应,从而使得肩袖部分的特征更加明显和突出。
空间显化肩袖部分多尺度融合特征的有益效果在于提供了更加直观和可解释的特征表示,通过突出显示肩袖部分的特征,医生或兽医可以更清晰地观察和分析肩袖部分的结构和细节,有助于更准确地进行损伤检测和分析。此外,空间显化的特征图也可以为后续的损伤检测模块提供更具有区分度的输入,提高损伤检测的性能和可靠性。
在本申请的一个实施例中,所述肩袖部分损伤检测模块,包括:特征分布优化单元,用于对所述空间显化肩袖部分多尺度融合特征图进行特征分布优化以得到优化空间显化肩袖部分多尺度融合特征图;损伤检测单元,用于将所述优化空间显化肩袖部分多尺度融合特征图通过分类器以得到分类结果,所述分类结果用于表示被监控动物对象的肩袖部分是否存在损伤。
特别地,在上述技术方案中,所述肩袖部分浅层特征图和所述肩袖部分深层特征图分别表达所述肩袖部分图像的浅层图像语义特征和深层图像语义特征,其在特征矩阵内的空间分布维度和特征矩阵间的通道分布维度上均有基于卷积神经网络的图像语义特征提取的特定空间含义,这样,在使用信息补偿传递模块来融合所述肩袖部分浅层特征图和所述肩袖部分深层特征图以得到肩袖部分多尺度融合特征图,并将所述肩袖部分多尺度融合特征图通过空间注意力层以得到空间显化肩袖部分多尺度融合特征图时,考虑到所述信息补偿传递模块对于层间通道分布对应性的特征信息补偿和空间注意力对于图像语义特征的空间分布的局部分布强化,得到的所述空间显化肩袖部分多尺度融合特征图也会具有基于特征图各位置的空间位置属性的特征表达。
也就是,所述空间显化肩袖部分多尺度融合特征图不仅在特征矩阵内的空间分布维度上,在特征矩阵间的通道分布维度上,均具有基于图像语义特征的信息补偿传递和空间分布强化的特征图空间信息,由此,如果能够提升所述空间显化肩袖部分多尺度融合特征图作为高维特征的空间信息表达效果,则能够提升所述空间显化肩袖部分多尺度融合特征图整体的表达效果。
基于此,本申请的申请人对所述空间显化肩袖部分多尺度融合特征图进行优化,表示为:以如下优化公式对所述空间显化肩袖部分多尺度融合特征图/>进行优化以得到优化空间显化肩袖部分多尺度融合特征图;其中,所述优化公式为:
其中,是所述空间显化肩袖部分多尺度融合特征图的特征值,/>是所述优化空间显化肩袖部分多尺度融合特征图的特征值,/>,且/>为局部空间分割系数,/>是局部邻域的尺度。
具体地,以所述空间显化肩袖部分多尺度融合特征图展开后的希尔伯特空间内的局部分割空间为基准,对所述空间显化肩袖部分多尺度融合特征图/>在高维特征空间内的特征流形进行曲面的局部积分,从而基于积分函数的局部积分处理,来修正所述空间显化肩袖部分多尺度融合特征图/>的局部空间展开后的非平稳数据序列所表达的特征流形的相变不连续点,从而获得特征流形的更精细的结构和几何特征,提升所述空间显化肩袖部分多尺度融合特征图/>在高维特征空间内的空间信息表达效果,从而提升所述空间显化肩袖部分多尺度融合特征图/>的表达效果,改进其通过分类器得到的分类结果的准确性。这样,能够基于动物对象的肩袖部分图像分析来自动判断动物肩袖部分是否存在损伤,并进行损伤预警,从而提高监测效率和准确性,这对于提高动物的健康水平和动物保护质量具有重要意义。
继而,再将所述优化空间显化肩袖部分多尺度融合特征图通过分类器以得到分类结果,所述分类结果用于表示被监控动物对象的肩袖部分是否存在损伤。也就是说,利用经过空间特征显化处理后的有关于所述被监控动物对象的肩袖部分的多尺度补偿融合特征信息来进行分类处理,以此来自动判断动物肩袖部分是否存在损伤,从而提高监测效率和准确性。特别地,在本申请的技术方案中,还可以在检测到动物对象存在肩袖损伤时自动进行损伤预警,以此来提升动物肩袖损伤的监测效果。
在本申请的一个具体实施例中,所述损伤检测单元,包括:矩阵展开子单元,用于将所述优化空间显化肩袖部分多尺度融合特征图按照行向量或列向量展开为分类特征向量;全连接编码子单元,用于使用所述分类器的多个全连接层对所述分类特征向量进行全连接编码以得到编码分类特征向量;以及,分类子单元,用于将所述编码分类特征向量通过所述分类器的Softmax分类函数以得到所述分类结果。
将优化空间显化肩袖部分多尺度融合特征图通过分类器进行分类,可以得到分类结果,用于表示被监控动物对象的肩袖部分是否存在损伤。分类器是一种机器学习模型,可以根据输入的特征进行分类预测。通过将优化空间显化肩袖部分多尺度融合特征图输入分类器,可以利用机器学习算法对特征进行分析和学习,从而判断肩袖部分是否存在损伤,分类器可以学习到不同特征之间的关系,并根据这些关系做出准确的分类决策。
通过利用优化空间显化肩袖部分多尺度融合特征图进行分类,可以更准确地判断肩袖部分是否存在损伤,优化空间显化肩袖部分多尺度融合特征图经过多尺度融合和空间显化处理,更具有代表性和区分性,从而提高了分类器的准确性。基于分类器的损伤检测方法可以实现自动化的损伤判断,减少了人工判断的时间和劳动成本,通过快速而准确地对肩袖部分进行分类,可以提高监测系统的效率。由于分类器可以对特征进行快速分析和预测,基于分类器的损伤检测方法可以实现对被监控动物对象肩袖部分的实时监测,这对于早期损伤的发现和及时干预非常重要。
综上,基于本发明实施例的用于动物肩袖损伤的智能监测系统100被阐明,其实现动物肩袖损伤的实时监测和预警功能,有效地提升了动物肩袖损伤的监测效果,这对于提高动物的健康水平和动物保护质量具有重要意义。
如上所述,根据本发明实施例的用于动物肩袖损伤的智能监测系统100可以实现在各种终端设备中,例如用于动物肩袖损伤的智能监测的服务器等。在一个示例中,根据本发明实施例的用于动物肩袖损伤的智能监测系统100可以作为一个软件模块和/或硬件模块而集成到终端设备中。例如,该用于动物肩袖损伤的智能监测系统100可以是该终端设备的操作系统中的一个软件模块,或者可以是针对于该终端设备所开发的一个应用程序;当然,该用于动物肩袖损伤的智能监测系统100同样可以是该终端设备的众多硬件模块之一。
替换地,在另一示例中,该用于动物肩袖损伤的智能监测系统100与该终端设备也可以是分立的设备,并且该用于动物肩袖损伤的智能监测系统100可以通过有线和/或无线网络连接到该终端设备,并且按照约定的数据格式来传输交互信息。
图2为本发明实施例中提供的一种用于动物肩袖损伤的智能监测方法的流程图。图3为本发明实施例中提供的一种用于动物肩袖损伤的智能监测方法的系统架构的示意图。如图2和图3所示,一种用于动物肩袖损伤的智能监测方法,包括:210,获取由摄像头采集的被监控动物对象的肩袖部分图像;220,通过基于第一深度神经网络模型的浅层特征提取器对所述肩袖部分图像进行特征提取以得到肩袖部分浅层特征图;230,通过基于第二深度神经网络模型的深层特征提取器对所述肩袖部分浅层特征图进行特征提取以得到肩袖部分深层特征图;240,融合所述肩袖部分浅层特征图和所述肩袖部分深层特征图以得到肩袖部分多尺度融合特征图;250,对所述肩袖部分多尺度融合特征图进行空间特征显化处理以得到空间显化肩袖部分多尺度融合特征;260,基于所述空间显化肩袖部分多尺度融合特征,确定被监控动物对象的肩袖部分是否存在损伤。
在所述用于动物肩袖损伤的智能监测方法中,所述第一深度神经网络模型为第一卷积神经网络模型,所述第二深度神经网络模型为第二卷积神经网络模型。
在所述用于动物肩袖损伤的智能监测方法中,融合所述肩袖部分浅层特征图和所述肩袖部分深层特征图以得到肩袖部分多尺度融合特征图,包括:使用信息补偿传递模块来融合所述肩袖部分浅层特征图和所述肩袖部分深层特征图以得到所述肩袖部分多尺度融合特征图。
本领域技术人员可以理解,上述用于动物肩袖损伤的智能监测方法中的各个步骤的具体操作已经在上面参考图1的用于动物肩袖损伤的智能监测系统的描述中得到了详细介绍,并因此,将省略其重复描述。
图4为本发明实施例中提供的一种用于动物肩袖损伤的智能监测系统的应用场景图。如图4所示,在该应用场景中,首先,获取由摄像头采集的被监控动物对象的肩袖部分图像(例如,如图4中所示意的C);然后,将获取的肩袖部分图像输入至部署有用于动物肩袖损伤的智能监测算法的服务器(例如,如图4中所示意的S)中,其中所述服务器能够基于用于动物肩袖损伤的智能监测算法对所述肩袖部分图像进行处理,以确定被监控动物对象的肩袖部分是否存在损伤。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种用于动物肩袖损伤的智能监测系统,其特征在于,包括:
肩袖部分图像采集模块,用于获取由摄像头采集的被监控动物对象的肩袖部分图像;
肩袖部分浅层特征提取模块,用于通过基于第一深度神经网络模型的浅层特征提取器对所述肩袖部分图像进行特征提取以得到肩袖部分浅层特征图;
肩袖部分深层特征提取模块,用于通过基于第二深度神经网络模型的深层特征提取器对所述肩袖部分浅层特征图进行特征提取以得到肩袖部分深层特征图;
肩袖部分多尺度特征融合模块,用于融合所述肩袖部分浅层特征图和所述肩袖部分深层特征图以得到肩袖部分多尺度融合特征图;
肩袖部分特征空间显化模块,用于对所述肩袖部分多尺度融合特征图进行空间特征显化处理以得到空间显化肩袖部分多尺度融合特征;
肩袖部分损伤检测模块,用于基于所述空间显化肩袖部分多尺度融合特征,确定被监控动物对象的肩袖部分是否存在损伤;
其中,所述肩袖部分多尺度特征融合模块,用于:使用信息补偿传递模块以如下融合公式来融合所述肩袖部分浅层特征图和所述肩袖部分深层特征图以得到所述肩袖部分多尺度融合特征图;
其中,所述融合公式为:
其中,表示所述肩袖部分浅层特征图,/>表示所述肩袖部分深层特征图,表示上采样处理,/>表示卷积处理,/>表示/>函数,/>表示损失信息特征图,/>表示基于注意力的池化处理,/>表示按位置点乘,/>表示所述肩袖部分多尺度融合特征图;
其中,所述肩袖部分损伤检测模块,包括:
特征分布优化单元,用于对所述空间显化肩袖部分多尺度融合特征图进行特征分布优化以得到优化空间显化肩袖部分多尺度融合特征图;
损伤检测单元,用于将所述优化空间显化肩袖部分多尺度融合特征图通过分类器以得到分类结果,所述分类结果用于表示被监控动物对象的肩袖部分是否存在损伤;
其中,所述特征分布优化单元,用于:以如下优化公式对所述空间显化肩袖部分多尺度融合特征图进行优化以得到优化空间显化肩袖部分多尺度融合特征图;其中,所述优化公式为:
其中,是所述空间显化肩袖部分多尺度融合特征图的特征值,/>是所述优化空间显化肩袖部分多尺度融合特征图的特征值,/>,/>表示所述空间显化肩袖部分多尺度融合特征图,且/>为局部空间分割系数,/>是局部邻域的尺度。
2.根据权利要求1所述的用于动物肩袖损伤的智能监测系统,其特征在于,所述第一深度神经网络模型为第一卷积神经网络模型,所述第二深度神经网络模型为第二卷积神经网络模型。
3.根据权利要求2所述的用于动物肩袖损伤的智能监测系统,其特征在于,所述肩袖部分特征空间显化模块,用于:将所述肩袖部分多尺度融合特征图通过空间注意力层以得到空间显化肩袖部分多尺度融合特征图作为所述空间显化肩袖部分多尺度融合特征。
4.根据权利要求3所述的用于动物肩袖损伤的智能监测系统,其特征在于,所述损伤检测单元,包括:
矩阵展开子单元,用于将所述优化空间显化肩袖部分多尺度融合特征图按照行向量或列向量展开为分类特征向量;
全连接编码子单元,用于使用所述分类器的多个全连接层对所述分类特征向量进行全连接编码以得到编码分类特征向量;
分类子单元,用于将所述编码分类特征向量通过所述分类器的Softmax分类函数以得到所述分类结果。
5.一种用于动物肩袖损伤的智能监测方法,其特征在于,包括:
获取由摄像头采集的被监控动物对象的肩袖部分图像;
通过基于第一深度神经网络模型的浅层特征提取器对所述肩袖部分图像进行特征提取以得到肩袖部分浅层特征图;
通过基于第二深度神经网络模型的深层特征提取器对所述肩袖部分浅层特征图进行特征提取以得到肩袖部分深层特征图;
融合所述肩袖部分浅层特征图和所述肩袖部分深层特征图以得到肩袖部分多尺度融合特征图;
对所述肩袖部分多尺度融合特征图进行空间特征显化处理以得到空间显化肩袖部分多尺度融合特征;
基于所述空间显化肩袖部分多尺度融合特征,确定被监控动物对象的肩袖部分是否存在损伤;
其中,融合所述肩袖部分浅层特征图和所述肩袖部分深层特征图以得到肩袖部分多尺度融合特征图,包括:使用信息补偿传递模块以如下融合公式来融合所述肩袖部分浅层特征图和所述肩袖部分深层特征图以得到所述肩袖部分多尺度融合特征图;
其中,所述融合公式为:
其中,表示所述肩袖部分浅层特征图,/>表示所述肩袖部分深层特征图,表示上采样处理,/>表示卷积处理,/>表示/>函数,/>表示损失信息特征图,/>表示基于注意力的池化处理,/>表示按位置点乘,/>表示所述肩袖部分多尺度融合特征图;
其中,基于所述空间显化肩袖部分多尺度融合特征,确定被监控动物对象的肩袖部分是否存在损伤,包括:
对所述空间显化肩袖部分多尺度融合特征图进行特征分布优化以得到优化空间显化肩袖部分多尺度融合特征图;
将所述优化空间显化肩袖部分多尺度融合特征图通过分类器以得到分类结果,所述分类结果用于表示被监控动物对象的肩袖部分是否存在损伤;
其中,对所述空间显化肩袖部分多尺度融合特征图进行特征分布优化以得到优化空间显化肩袖部分多尺度融合特征图,包括:以如下优化公式对所述空间显化肩袖部分多尺度融合特征图进行优化以得到优化空间显化肩袖部分多尺度融合特征图;其中,所述优化公式为:
其中,是所述空间显化肩袖部分多尺度融合特征图的特征值,/>是所述优化空间显化肩袖部分多尺度融合特征图的特征值,/>,/>表示所述空间显化肩袖部分多尺度融合特征图,且/>为局部空间分割系数,/>是局部邻域的尺度。
6.根据权利要求5所述的用于动物肩袖损伤的智能监测方法,其特征在于,所述第一深度神经网络模型为第一卷积神经网络模型,所述第二深度神经网络模型为第二卷积神经网络模型。
CN202311797696.0A 2023-12-26 2023-12-26 用于动物肩袖损伤的智能监测系统及方法 Active CN117522861B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311797696.0A CN117522861B (zh) 2023-12-26 2023-12-26 用于动物肩袖损伤的智能监测系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311797696.0A CN117522861B (zh) 2023-12-26 2023-12-26 用于动物肩袖损伤的智能监测系统及方法

Publications (2)

Publication Number Publication Date
CN117522861A CN117522861A (zh) 2024-02-06
CN117522861B true CN117522861B (zh) 2024-04-19

Family

ID=89745858

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311797696.0A Active CN117522861B (zh) 2023-12-26 2023-12-26 用于动物肩袖损伤的智能监测系统及方法

Country Status (1)

Country Link
CN (1) CN117522861B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118155868B (zh) * 2024-05-10 2024-08-23 吉林大学 具有远程监控功能的风湿病诊疗系统及方法
CN118172615B (zh) * 2024-05-14 2024-07-16 山西新泰富安新材有限公司 用于降低加热炉烧损率的方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116385733A (zh) * 2023-03-03 2023-07-04 华能(广东)能源开发有限公司汕头电厂 用于斗轮机的高精度定位系统及其方法
CN116403213A (zh) * 2023-06-08 2023-07-07 杭州华得森生物技术有限公司 基于人工智能的循环肿瘤细胞检测仪及其方法
CN116645346A (zh) * 2023-05-26 2023-08-25 北京科技大学 肩袖扫描图像的处理方法、电子设备及存储介质
CN116703837A (zh) * 2023-05-24 2023-09-05 北京大学第三医院(北京大学第三临床医学院) 一种基于mri图像的肩袖损伤智能识别方法及装置
CN116778430A (zh) * 2023-08-24 2023-09-19 吉林省牛人网络科技股份有限公司 肉牛养殖的疾病监测系统及其方法
CN116993289A (zh) * 2023-08-02 2023-11-03 深圳讯豪信息技术有限公司 审讯记录管理系统及其方法
CN117078670A (zh) * 2023-10-13 2023-11-17 深圳市永迦电子科技有限公司 一种云相框的生产控制系统
CN117168331A (zh) * 2023-11-02 2023-12-05 山西锦烁生物医药科技有限公司 基于光纤传感器的天然冰场冰层厚度实时检测方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116385733A (zh) * 2023-03-03 2023-07-04 华能(广东)能源开发有限公司汕头电厂 用于斗轮机的高精度定位系统及其方法
CN116703837A (zh) * 2023-05-24 2023-09-05 北京大学第三医院(北京大学第三临床医学院) 一种基于mri图像的肩袖损伤智能识别方法及装置
CN116645346A (zh) * 2023-05-26 2023-08-25 北京科技大学 肩袖扫描图像的处理方法、电子设备及存储介质
CN116403213A (zh) * 2023-06-08 2023-07-07 杭州华得森生物技术有限公司 基于人工智能的循环肿瘤细胞检测仪及其方法
CN116993289A (zh) * 2023-08-02 2023-11-03 深圳讯豪信息技术有限公司 审讯记录管理系统及其方法
CN116778430A (zh) * 2023-08-24 2023-09-19 吉林省牛人网络科技股份有限公司 肉牛养殖的疾病监测系统及其方法
CN117078670A (zh) * 2023-10-13 2023-11-17 深圳市永迦电子科技有限公司 一种云相框的生产控制系统
CN117168331A (zh) * 2023-11-02 2023-12-05 山西锦烁生物医药科技有限公司 基于光纤传感器的天然冰场冰层厚度实时检测方法

Also Published As

Publication number Publication date
CN117522861A (zh) 2024-02-06

Similar Documents

Publication Publication Date Title
CN117522861B (zh) 用于动物肩袖损伤的智能监测系统及方法
CN108389201B (zh) 基于3d卷积神经网络与深度学习的肺结节良恶性分类方法
CN113011485B (zh) 多模态多病种长尾分布眼科疾病分类模型训练方法和装置
CN107767376B (zh) 基于深度学习的x线片骨龄预测方法及系统
CN110473192A (zh) 消化道内镜图像识别模型训练及识别方法、装置及系统
CN107730489A (zh) 无线胶囊内窥镜小肠病变计算机辅助检测系统及检测方法
TWI684997B (zh) 骨齡評估與身高預測模型之建立方法、骨齡評估與身高預測系統及骨齡評估與身高預測方法
CN106056588A (zh) 胶囊内窥镜图像数据去冗余方法
CN109117890B (zh) 一种图像分类方法、装置和存储介质
CN110459303B (zh) 基于深度迁移的医疗影像异常检测装置
CN109460717A (zh) 消化道共聚焦激光显微内镜病变图像识别方法及装置
CN112102332A (zh) 基于局部分类神经网络的癌症wsi的分割方法
CN113288452A (zh) 手术质量检测方法及装置
CN114240874A (zh) 基于深度卷积神经网络和特征融合的骨龄评定方法、设备及计算机可读存储介质
CN113397485A (zh) 一种基于深度学习的脊柱侧弯筛查方法
CN107977958A (zh) 一种图像诊断方法和装置
CN111783751A (zh) 基于枪球联动与bim的养殖舍仔猪异常预警方法
CN118173270A (zh) 患者术后感染风险评估系统及方法
CN117218127B (zh) 超声内镜辅助监测系统及方法
CN117058467B (zh) 一种胃肠道病变类型识别方法及系统
CN112690815A (zh) 基于肺部图像报告辅助诊断病变等级的系统和方法
Bourbakis et al. A neural network-based detection of bleeding in sequences of WCE images
CN116919639A (zh) 一种可视清洗方法、系统及其可视清洗器
Zhou et al. Automatic microaneurysm detection of diabetic retinopathy in fundus images
CN114004821A (zh) 一种基于级联rcnn的肠神经节细胞辅助识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant