CN117315638A - 基于信息素划分生态位的浮游藻类互动快速智能分析办法 - Google Patents

基于信息素划分生态位的浮游藻类互动快速智能分析办法 Download PDF

Info

Publication number
CN117315638A
CN117315638A CN202311366458.4A CN202311366458A CN117315638A CN 117315638 A CN117315638 A CN 117315638A CN 202311366458 A CN202311366458 A CN 202311366458A CN 117315638 A CN117315638 A CN 117315638A
Authority
CN
China
Prior art keywords
algae
model
interaction
planktonic
pheromone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311366458.4A
Other languages
English (en)
Other versions
CN117315638B (zh
Inventor
彭宁康
顾彦慧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Normal University
Original Assignee
Nanjing Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Normal University filed Critical Nanjing Normal University
Priority to CN202311366458.4A priority Critical patent/CN117315638B/zh
Publication of CN117315638A publication Critical patent/CN117315638A/zh
Application granted granted Critical
Publication of CN117315638B publication Critical patent/CN117315638B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/096Transfer learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/422Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06V10/765Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于信息素划分生态位的浮游藻类互动快速智能分析办法,具体包括如下组成部分:(1)基于卷积神经网络(CNN)和SIFT SURF HOG,对不同藻类样本的特征进行提取,包括数量和形状特征;(2)通过学习已知浮游藻类信息素和特征之间的关系,来识别水样中的信息素;(3)通过规则库,反馈权重文件给识别系统,所得数据用于生态位的鉴定,分析种间互动关系;(4)利用少量精准标注信息对模型进行权重精调;(5)根据藻类专家的反馈结果,模型自适应微调,本发明能够准确分析水样中浮游藻类的数量和种类,并分析它们之间的相互作用,发明可以帮助科研人员和环境保护部门更好地了解湖泊中藻类的生态系统,为藻类生态学研究和环境保护提供支持。

Description

基于信息素划分生态位的浮游藻类互动快速智能分析办法
技术领域
本发明涉及深度学习以及计算机视觉领域的特征提取和富有先验知识的藻类信息素的知识库领域,尤其涉及一种基于信息素划分生态位的浮游藻类互动快速智能分析办法。
背景技术
目前,藻类的分布和生态环境对于环境监测、水质评估以及生态系统的保护具有重要意义。然而,传统的藻类监测方法通常需要复杂的实地调查和昂贵的分析过程,且对藻类的相互作用了解有限。在识别和分析水样时,需要技术人员将大量精准标注的样本和标签对数据输入进模型,使模型能够学习到准确的内在特征表示和归纳偏置,从而得到藻类之间的互动信息。而精准的数据标注需要人工标注员对要标注的内容和任务有非常详细的了解和认识。为实现分析藻类互动,要求分析人员对浮游藻类极其相互作用等生物知识具有详细深刻的了解,而如果采用学科领域内专家进行标注和分析,标注和分析的时效和标注成本则会大大增加。
同时,传统的浮游藻类分析方法依赖于人工观察和手动计数,存在效率低、主观性强和易出现误差的问题。为了克服这些限制,并提高分析的准确性和效率。本方法基于信息素的作用机制,通过分析和划分浮游藻类之间信息素的传递路径和效应,来识别不同浮游藻类的生态位。信息素在浮游藻类互动过程中起到诱导、抑制或传递信息的作用,这些作用可以通过智能算法进行分析和模拟,从而揭示浮游藻类的互动模式和行为。
近年来,卷积神经网络(CNN)和SIFT SURF HOG等技术开始应用于浮游藻类互动智能分析的研究中。CNN能够从图像中学习并提取出高级特征表示,这些特征对于浮游藻类数量和种类的分析非常有价值。通过构建适当的网络结构和训练数据集,CNN能够自动学习浮游藻类的特征,实现对图像中藻类的分类和识别。通过应用SIFT SURF HOG技术,可以在浮游藻类图像中提取出特征点或特征描述子,并通过对这些特征进行匹配和分析,实现对浮游藻类的定位和分析。
近年来,随着深度学习技术的发展,计算机辅助生物互动分析领域亟需大量的生物互动信息来监督算法的迭代升级。目前例如ZooScan、PhytoWin等软件都可以用于浮游藻类图像的进行处理和计数。但这些平台不具备生物领域的相关信息和数据,无法进行一定浮游藻类互动的自动化分析。平台背后算法对浮游藻类信息等较为专精领域的信息不具备认知能力。
总体而言,目前的多数相关平台和软件还存在着很多局限性和非智能化操作。例如现有的浮游藻类图像分析系统仅能进行种类的识别和数量的统计,而不具备针对浮游藻类互动的感知与认识能力。而具有大量的浮游藻类分类和描述信息(AlgaeBase)的平台不具备智能化自动分析能力。
发明内容
为解决上述问题,本发明公开了一种基于信息素划分生态位的浮游藻类互动快速智能分析办法。该方法能够利用大规模无监督算法的特征提取能力,根据已有的标注数据库,自动生成专业性的浮游藻类统计数据以及相关浮游藻类互动的智能分析。
一种基于信息素划分生态位的浮游藻类互动快速智能分析办法,包括如下组成部分:
步骤(1)基于卷积神经网络(CNN)和SIFT SURF HOG技术,利用labellmg工具实现了对浮游藻类图像的标注。通过CNN,可以自动学习藻类图像中的特征表示,并进行分类和识别。同时,SIFT SURF HOG技术能够从图像中提取稳定的局部特征,用于描述藻类的形状和纹理。这种综合方法可以有效地提取藻类样本的多模态特征,为藻类数量和种类的推断提供准确的依据。
步骤(2)使用分类算法,通过学习已知浮游藻类信息素和特征之间的关系,来识别水样中的信息素。再根据聚类算法,将水样数据根据特征的相似性进行聚类,从而发现其中存在的浮游藻类信息素的模型和关联。
步骤(3)利用富有先验知识的规则库,对浮游藻类样本进行分析,得到初步的藻类互动关系。通过对权重文件进行反馈训练,得到各种浮游藻类的权重矩阵,并根据权重矩阵的相似性来判断不同藻类是否属于同一生态位,可以用于分析不同藻类之间的互动关系。
步骤(4)利用少量精准标注的浮游藻类种类信息,可以应用迁移学习和fine-tuning的方法对基于yolov8的目标检测模型进行权重精调。通过在具有标注数据的浮游藻类样本上进行训练,可以提高模型对不同藻类的检测准确性和泛化能力。这样的精调过程将使模型更加适应藻类互动关系的分析需求,能够捕捉到不同藻类之间的相互作用、群落结构以及生态环境中的关键变化。
步骤(5)基于专家反馈的精细化微调。根据标注场景提示,这可能包括调整超参数、网络结构或其他模型配置,以优化模型的性能,并进一步提高在藻类互动关系分析中的表现。基于专家反馈的精细化微调能够进一步改善模型的准确性和完整性,使其更适应浮游藻类互动关系的分析需求,并提供更可靠的分析结果和推断。这种交互式的反馈机制有助于缩小模型与实际数据之间的差距,并提高模型的应用效果。
优选的,步骤(1)中,对湖泊水体进行镜检图片和样本采集步骤,具体包括如下步骤:
步骤(11)在已完成预处理的数据集进行特征提取,基于卷积神经网络(CNN),使用深度学习框架TensorFlow、PyTorch来构建和训练模型。标记好的数据集用于训练CNN模型,以学习浮游藻类的特征;
步骤(12)对于SIFT、SURF和HOG,使用相应的图像处理库Open CV来提取图像的特征,这些特征用于后续的分类或目标检测。
步骤(13)labellmg工具,该工具可以用于图像标注和创建标记数据集。
优选的,步骤(2)中,通过学习已知浮游藻类信息素和特征之间的关系,来识别水样中的信息素,具体包括如下步骤:
步骤(21)对于已标记数据集的情况,使用分类算法,可以通过学习浮游藻类信息素与浮游藻类特征之间的关系,来预测和识别位置水样中的浮游藻类的信息组;
步骤(22)对于未标记数据集的情况,使用聚类算法,将水样数据根据特征的相似性进行聚类,从而发现其中存在的浮游藻类信息素的模式和关联;
优选的,步骤(3)中,利用富有先验知识的规则库,对浮游藻类样本进行分析,得到初步的藻类互动关系,具体包括如下步骤:
步骤(31)本发明集合形成的关于浮游藻类的先验知识和互动关系相关的、基于领域专家知识的、科学研究论文的生态系统模型的规则库;
步骤(32)利用规则库中的互动关系和已知样本数据,计算得到权重矩阵的初始值,反复迭代反馈训练过程,得到权重矩阵满足预设的停止条件;
步骤(33)对于不同的浮游藻类,计算其对应的权重矩阵之间的相似性度量,使用欧氏距离和余弦相似度。
步骤(34)通过设定相似性阈值来确定生态位的归属。
优选的,步骤(4)中,应用迁移学习和fine-tuning的方法对基于yolov8的目标检测模型进行权重精调,具体包括如下组成部分:
步骤(41)利用迁移学习的思想,选择一个在大规模图像数据集上预训练好的yolov8模型作为基础模型。这个预训练模型通过大规模图像分类任务学习到了通用的图像特征表示,为后续的浮游藻类互动分析奠定了基础。
步骤(42)通过训练集数据,使用反向传播算法和梯度下降优化模型的权重,使其更好地适应浮游藻类互动分析的任务。在训练过程中,使用验证集数据对模型进行评估和调优,根据性能指标对超参数和网络结构进行调整。这有助于提高模型的性能和泛化能力,并确保模型在浮游藻类互动分析中具有较高的准确性和稳定性。
步骤(43)进行fine-tuning操作,解冻之前冻结的层,并在整个模型上进行微调。通过fine-tuning,模型可以进一步适应浮游藻类互动分析任务的特定需求,提升模型在这一任务上的表现。
优选的,步骤(5)中,基于专家反馈的精细化微调,具体包括如下组成部分:
步骤(51)使用已经训练的模型对一组独立的验证数据进行评估,分析模型的性能指标:准确率、召回率和F1分数;
步骤(52)根据专家反馈和性能评估结果,调整模型的超参数:学习率、批量大小、优化器选择;
步骤(53)根据专家的建议和需求,对模型的网络结构进行调整,增加或减少网络层、改变激活函数;
步骤(54)将微调后的模型交由专家验证,以确认模型的性能是否满足他们的期望和需求,根据评估结果和反馈,进行进一步优化,持续提高模型在浮游藻类互动关系分析中的表现。
本发明的有益效果:
解决浮游生物统计分析平台中无法实现自动化智能分析藻类间互动,以及传统人工分析推测藻类信息的高成本、低效率的问题;就种间关系分析而言,采用了自动化处理,显著区别于传统的种间关系研究,根据数据可以直接推断出生态位的类型而不需要开展专门的实验研究。
附图说明
图1为本发明的整体流程示意图。
图2为浮游藻类互动智能分析办法流程示意图。
具体实施方式
下面结合附图和具体实施方式,进一步阐明本发明,应理解下述具体实施方式仅用于说明本发明而不用于限制本发明的范围。需要说明的是,下面描述中使用的词语“前”、“后”、“左”、“右”、“上”和“下”指的是附图中的方向,词语“内”和“外”分别指的是朝向或远离特定部件几何中心的方向。
本实施例提供一种基于信息素划分生态位的浮游藻类互动快速智能分析办法,包括如下步骤:
步骤(1)基于卷积神经网络(CNN)和SIFT SURF HOG,对不同藻类样本的特征进行提取和编码,包括数量、形状、颜色等特征;步骤(1)中,对湖泊水体进行镜检图片和样本采集步骤,具体包括如下步骤:
步骤(11)在已完成预处理的数据集进行特征提取,基于卷积神经网络(CNN),使用深度学习框架TensorFlow、PyTorch来构建和训练模型。标记好的数据集用于训练CNN模型,以学习浮游藻类的特征;
步骤(12)对于SIFT、SURF和HOG,使用相应的图像处理库Open CV来提取图像的特征,这些特征用于后续的分类或目标检测。
步骤(13)labellmg工具,该工具可以用于图像标注和创建标记数据集。
步骤(2)使用分类算法,通过学习已知浮游藻类信息素和特征之间的关系,来识别水样中的信息素。
具体包括如下步骤:
步骤(21)对于已标记数据集的情况,使用分类算法,可以通过学习浮游藻类信息素与浮游藻类特征之间的关系,来预测和识别位置水样中的浮游藻类的信息组;
步骤(22)对于未标记数据集的情况,使用聚类算法,将水样数据根据特征的相似性进行聚类,从而发现其中存在的浮游藻类信息素的模式和关联。
步骤(3)通过富有先验知识的规则库,反馈权重文件给识别系统,所得数据用于生态位的鉴定,从而进行种间互动关系分析;
具体包括如下步骤:
步骤(31)本发明集合形成的关于浮游藻类的先验知识和互动关系相关的、基于领域专家知识的、科学研究论文的生态系统模型的规则库;
步骤(32)利用规则库中的互动关系和已知样本数据,计算得到权重矩阵的初始值,反复迭代反馈训练过程,得到权重矩阵满足预设的停止条件;
步骤(33)对于不同的浮游藻类,计算其对应的权重矩阵之间的相似性度量,使用欧氏距离和余弦相似度。
步骤(34)通过设定相似性阈值来确定生态位的归属。
步骤(4)利用少量精准标注的浮游藻类种类信息,应用迁移学习和fine-tuning的方法对基于yolov8的目标检测模型进行权重精调;
具体包括如下组成部分:
步骤(41)利用迁移学习的思想,选择一个在大规模图像数据集上预训练好的yolov8模型作为基础模型。这个预训练模型通过大规模图像分类任务学习到了通用的图像特征表示,为后续的浮游藻类互动分析奠定了基础。
步骤(42)通过训练集数据,使用反向传播算法和梯度下降优化模型的权重,使其更好地适应浮游藻类互动分析的任务。在训练过程中,使用验证集数据对模型进行评估和调优,根据性能指标对超参数和网络结构进行调整。这有助于提高模型的性能和泛化能力,并确保模型在浮游藻类互动分析中具有较高的准确性和稳定性。
步骤(43)进行fine-tuning操作,解冻之前冻结的层,并在整个模型上进行微调。通过fine-tuning,模型可以进一步适应浮游藻类互动分析任务的特定需求,提升模型在这一任务上的表现。
步骤(5)根据藻类专家的反馈和观察结果,模型自适应微调;基于专家反馈的精细化微调,具体包括如下组成部分:
步骤(51)使用已经训练的模型对一组独立的验证数据进行评估,分析模型的性能指标:准确率、召回率和F1分数;
步骤(52)根据专家反馈和性能评估结果,调整模型的超参数:学习率、批量大小、优化器选择;
步骤(53)根据专家的建议和需求,对模型的网络结构进行调整,增加或减少网络层、改变激活函数;
步骤(54)将微调后的模型交由专家验证,以确认模型的性能是否满足他们的期望和需求,根据评估结果和反馈,进行进一步优化,持续提高模型在浮游藻类互动关系分析中的表现。
本发明方案所公开的技术手段不仅限于上述实施方式所公开的技术手段,还包括由以上技术特征任意组合所组成的技术方案。

Claims (6)

1.一种基于信息素划分生态位的浮游藻类互动快速智能分析办法,其特征在于,具体包括如下步骤:
步骤(1)基于卷积神经网络(CNN)和SIFT SURF HOG技术,利对不同藻类样本的特征进行提取,包括数量和形状特征;
步骤(2)使用分类算法,通过学习已知浮游藻类信息素和特征之间的关系,来识别水样中的信息素;再根据聚类算法,将水样数据根据特征的相似性进行聚类,从而发现其中存在的浮游藻类信息素的模型和关联;
步骤(3)利用富有先验知识的规则库,对浮游藻类样本进行分析,得到初步的藻类互动关系;通过对权重文件进行反馈训练,得到各种浮游藻类的权重矩阵,并根据权重矩阵的相似性来判断不同藻类是否属于同一生态位,可以用于分析不同藻类之间的互动关系;
步骤(4)利用少量精准标注的浮游藻类种类信息,可以应用迁移学习和fine-tuning的方法对基于yolov8的目标检测模型进行权重精调;。
步骤(5)基于专家反馈的精细化微调。
2.如权利要求1所述的一种基于信息素划分生态位的浮游藻类互动快速智能分析办法,其特征在于,步骤(1)中,基于卷积神经网络(CNN)和SIFT SURF HOG技术,利用labellmg工具实现了对浮游藻类图像的标注,具体包括如下组成部分:
步骤(11)在已完成预处理的数据集进行特征提取,基于卷积神经网络(CNN),使用深度学习框架TensorFlow、PyTorch来构建和训练模型;标记好的数据集用于训练CNN模型,以学习浮游藻类的特征;步骤(12)对于SIFT、SURF和HOG,使用相应的图像处理库Open CV来提取图像的特征,这些特征用于后续的分类或目标检测;
(13)abellmg工具,该工具可以用于图像标注和创建标记数据集。
3.如权利要求1所述的一种基于信息素划分生态位的浮游藻类互动快速智能分析办法,其特征在于,所述步骤(2)中,通过学习已知浮游藻类信息素和特征之间的关系,来识别水样中的信息素,具体包括如下组成部分:
步骤(21)对于已标记数据集的情况,使用分类算法,可以通过学习浮游藻类信息素与浮游藻类特征之间的关系,来预测和识别位置水样中的浮游藻类的信息组;
步骤(22)对于未标记数据集的情况,使用聚类算法,将水样数据根据特征的相似性进行聚类,从而发现其中存在的浮游藻类信息素的模式和关。
4.如权利要求1所述的一种基于信息素划分生态位的浮游藻类互动快速智能分析办法,其特征在于:所述步骤(3)中,利用富有先验知识的规则库,对浮游藻类样本进行分析,得到初步的藻类互动关系,具体包括如下组成部分:
步骤(31)本发明集合形成的关于浮游藻类的先验知识和互动关系相关的、基于领域专家知识的、科学研究论文的生态系统模型的规则库;步骤(32)利用规则库中的互动关系和已知样本数据,计算得到权重矩阵的初始值,反复迭代反馈训练过程,得到权重矩阵满足预设的停止条件;
步骤(33)对于不同的浮游藻类,计算其对应的权重矩阵之间的相似性度量,使用欧氏距离和余弦相似度;
步骤(34)通过设定相似性阈值来确定生态位的归属。
5.如权利要求1所述的一种基于信息素划分生态位的浮游藻类互动快速智能分析办法,其特征在于,所述步骤(4)中,应用迁移学习和fine-tuning的方法对基于yolov8的目标检测模型进行权重精调,具体包括如下组成部分:
步骤(41)利用迁移学习的思想,选择一个在大规模图像数据集上预训练好的yolov8模型作为基础模型;这个预训练模型通过大规模图像分类任务学习到了通用的图像特征表示,为后续的浮游藻类互动分析奠定了基础;
步骤(42)通过训练集数据,使用反向传播算法和梯度下降优化模型的权重,使其更好地适应浮游藻类互动分析的任务;在训练过程中,使用验证集数据对模型进行评估和调优,根据性能指标对超参数和网络结构进行调整;
步骤(43)进行fine-tuning操作,解冻之前冻结的层,并在整个模型上进行微调。通过fine-tuning,模型可以进一步适应浮游藻类互动分析任务的特定需求,提升模型在这一任务上的表现。
6.如权利要求1所述的一种基于信息素划分生态位的浮游藻类互动快速智能分析办法,其特征在于,步骤(5)中,基于专家反馈的精细化微调,具体包括如下组成部分:
步骤(51)使用已经训练的模型对一组独立的验证数据进行评估,分析模型的性能指标:准确率、召回率和F1分数;
步骤(52)根据专家反馈和性能评估结果,调整模型的超参数:学习率、批量大小、优化器选择;
步骤(53)根据专家的建议和需求,对模型的网络结构进行调整,增加或减少网络层、改变激活函数;
步骤(54)将微调后的模型交由专家验证,以确认模型的性能是否满足他们的期望和需求,根据评估结果和反馈,进行进一步优化,持续提高模型在浮游藻类互动关系分析中的表现。
CN202311366458.4A 2023-10-20 2023-10-20 基于信息素划分生态位的浮游藻类互动快速智能分析办法 Active CN117315638B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311366458.4A CN117315638B (zh) 2023-10-20 2023-10-20 基于信息素划分生态位的浮游藻类互动快速智能分析办法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311366458.4A CN117315638B (zh) 2023-10-20 2023-10-20 基于信息素划分生态位的浮游藻类互动快速智能分析办法

Publications (2)

Publication Number Publication Date
CN117315638A true CN117315638A (zh) 2023-12-29
CN117315638B CN117315638B (zh) 2024-06-18

Family

ID=89281035

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311366458.4A Active CN117315638B (zh) 2023-10-20 2023-10-20 基于信息素划分生态位的浮游藻类互动快速智能分析办法

Country Status (1)

Country Link
CN (1) CN117315638B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007309819A (ja) * 2006-05-19 2007-11-29 Central Res Inst Of Electric Power Ind プランクトン観察装置及びプランクトン観察方法、並びにプランクトン計測装置、プランクトン計測方法及びプランクトン計測プログラム
CN108256533A (zh) * 2018-01-16 2018-07-06 南昌航空大学 一种藻类类型的识别方法及系统
CN109949284A (zh) * 2019-03-12 2019-06-28 天津瑟威兰斯科技有限公司 基于深度学习卷积神经网络的水藻细胞分析方法及系统
CN115651805A (zh) * 2022-10-25 2023-01-31 青岛农业大学 一种研究浮游生物之间信息交流的装置及方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007309819A (ja) * 2006-05-19 2007-11-29 Central Res Inst Of Electric Power Ind プランクトン観察装置及びプランクトン観察方法、並びにプランクトン計測装置、プランクトン計測方法及びプランクトン計測プログラム
CN108256533A (zh) * 2018-01-16 2018-07-06 南昌航空大学 一种藻类类型的识别方法及系统
CN109949284A (zh) * 2019-03-12 2019-06-28 天津瑟威兰斯科技有限公司 基于深度学习卷积神经网络的水藻细胞分析方法及系统
CN115651805A (zh) * 2022-10-25 2023-01-31 青岛农业大学 一种研究浮游生物之间信息交流的装置及方法

Also Published As

Publication number Publication date
CN117315638B (zh) 2024-06-18

Similar Documents

Publication Publication Date Title
Nawaz et al. A robust deep learning approach for tomato plant leaf disease localization and classification
Sadeghi-Tehran et al. Automated method to determine two critical growth stages of wheat: heading and flowering
CN113454733A (zh) 用于预后组织模式识别的多实例学习器
Soltis et al. Plants meet machines: Prospects in machine learning for plant biology
Beikmohammadi et al. SWP-LeafNET: A novel multistage approach for plant leaf identification based on deep CNN
CN111540006B (zh) 基于深度迁移学习的植物气孔智能检测与识别方法及系统
Silva-Rodriguez et al. Self-learning for weakly supervised gleason grading of local patterns
CN113947607A (zh) 一种基于深度学习的癌症病理图像生存预后模型构建方法
CN115131618B (zh) 基于因果推理的半监督图像分类方法
Bunrit et al. Evaluating on the transfer learning of CNN architectures to a construction material image classification task
CN115471739A (zh) 基于自监督对比学习的跨域遥感场景分类与检索方法
US20150242676A1 (en) Method for the Supervised Classification of Cells Included in Microscopy Images
Mandal et al. InceptGI: a ConvNet-Based classification model for identifying goat breeds in India
CN112949517A (zh) 基于深度迁移学习的植物气孔密度和开度识别方法及系统
CN116741393A (zh) 基于病历的甲状腺疾病数据集分类模型的构建方法、分类装置及计算机可读介质
Yaiprasert Artificial intelligence for para rubber identification combining five machine learning methods
Muzakir et al. Model for Identification and Prediction of Leaf Patterns: Preliminary Study for Improvement
Balasubramaniyan et al. Color contour texture based peanut classification using deep spread spectral features classification model for assortment identification
Liu et al. Identification of rice disease under complex background based on PSOC-DRCNet
Menezes et al. Pseudo-label semi-supervised learning for soybean monitoring
CN113516097B (zh) 一种基于改进EfficentNet-V2的植物叶片疾病识别方法
CN113392875B (zh) 一种图像细粒度分类的方法、系统和设备
CN117315638B (zh) 基于信息素划分生态位的浮游藻类互动快速智能分析办法
CN113420705B (zh) 一种基于双向嵌入特征的半监督信号分析方法
CN116434273A (zh) 一种基于单正标签的多标记预测方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant