CN117315638A - 基于信息素划分生态位的浮游藻类互动快速智能分析办法 - Google Patents
基于信息素划分生态位的浮游藻类互动快速智能分析办法 Download PDFInfo
- Publication number
- CN117315638A CN117315638A CN202311366458.4A CN202311366458A CN117315638A CN 117315638 A CN117315638 A CN 117315638A CN 202311366458 A CN202311366458 A CN 202311366458A CN 117315638 A CN117315638 A CN 117315638A
- Authority
- CN
- China
- Prior art keywords
- algae
- model
- interaction
- planktonic
- pheromone
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 241000195493 Cryptophyta Species 0.000 title claims abstract description 122
- 230000003993 interaction Effects 0.000 title claims abstract description 39
- 239000003016 pheromone Substances 0.000 title claims abstract description 37
- 238000004458 analytical method Methods 0.000 title claims abstract description 32
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 24
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims abstract description 23
- 238000000034 method Methods 0.000 claims description 41
- 238000012549 training Methods 0.000 claims description 20
- 238000012482 interaction analysis Methods 0.000 claims description 17
- 238000004422 calculation algorithm Methods 0.000 claims description 12
- 238000001514 detection method Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 9
- 238000013526 transfer learning Methods 0.000 claims description 8
- 238000005516 engineering process Methods 0.000 claims description 7
- 238000002372 labelling Methods 0.000 claims description 7
- 238000007635 classification algorithm Methods 0.000 claims description 6
- 238000011156 evaluation Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000012795 verification Methods 0.000 claims description 6
- 238000013135 deep learning Methods 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 230000003247 decreasing effect Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 3
- 239000003550 marker Substances 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 238000010257 thawing Methods 0.000 claims description 3
- 238000010200 validation analysis Methods 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims 1
- 230000007613 environmental effect Effects 0.000 abstract description 3
- 238000011160 research Methods 0.000 abstract description 2
- 241000894007 species Species 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 3
- 230000009141 biological interaction Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000011524 similarity measure Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000003930 cognitive ability Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008713 feedback mechanism Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 230000027056 interspecies interaction between organisms Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000001303 quality assessment method Methods 0.000 description 1
- 238000005303 weighing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/422—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Investigating Or Analysing Biological Materials (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于信息素划分生态位的浮游藻类互动快速智能分析办法,具体包括如下组成部分:(1)基于卷积神经网络(CNN)和SIFT SURF HOG,对不同藻类样本的特征进行提取,包括数量和形状特征;(2)通过学习已知浮游藻类信息素和特征之间的关系,来识别水样中的信息素;(3)通过规则库,反馈权重文件给识别系统,所得数据用于生态位的鉴定,分析种间互动关系;(4)利用少量精准标注信息对模型进行权重精调;(5)根据藻类专家的反馈结果,模型自适应微调,本发明能够准确分析水样中浮游藻类的数量和种类,并分析它们之间的相互作用,发明可以帮助科研人员和环境保护部门更好地了解湖泊中藻类的生态系统,为藻类生态学研究和环境保护提供支持。
Description
技术领域
本发明涉及深度学习以及计算机视觉领域的特征提取和富有先验知识的藻类信息素的知识库领域,尤其涉及一种基于信息素划分生态位的浮游藻类互动快速智能分析办法。
背景技术
目前,藻类的分布和生态环境对于环境监测、水质评估以及生态系统的保护具有重要意义。然而,传统的藻类监测方法通常需要复杂的实地调查和昂贵的分析过程,且对藻类的相互作用了解有限。在识别和分析水样时,需要技术人员将大量精准标注的样本和标签对数据输入进模型,使模型能够学习到准确的内在特征表示和归纳偏置,从而得到藻类之间的互动信息。而精准的数据标注需要人工标注员对要标注的内容和任务有非常详细的了解和认识。为实现分析藻类互动,要求分析人员对浮游藻类极其相互作用等生物知识具有详细深刻的了解,而如果采用学科领域内专家进行标注和分析,标注和分析的时效和标注成本则会大大增加。
同时,传统的浮游藻类分析方法依赖于人工观察和手动计数,存在效率低、主观性强和易出现误差的问题。为了克服这些限制,并提高分析的准确性和效率。本方法基于信息素的作用机制,通过分析和划分浮游藻类之间信息素的传递路径和效应,来识别不同浮游藻类的生态位。信息素在浮游藻类互动过程中起到诱导、抑制或传递信息的作用,这些作用可以通过智能算法进行分析和模拟,从而揭示浮游藻类的互动模式和行为。
近年来,卷积神经网络(CNN)和SIFT SURF HOG等技术开始应用于浮游藻类互动智能分析的研究中。CNN能够从图像中学习并提取出高级特征表示,这些特征对于浮游藻类数量和种类的分析非常有价值。通过构建适当的网络结构和训练数据集,CNN能够自动学习浮游藻类的特征,实现对图像中藻类的分类和识别。通过应用SIFT SURF HOG技术,可以在浮游藻类图像中提取出特征点或特征描述子,并通过对这些特征进行匹配和分析,实现对浮游藻类的定位和分析。
近年来,随着深度学习技术的发展,计算机辅助生物互动分析领域亟需大量的生物互动信息来监督算法的迭代升级。目前例如ZooScan、PhytoWin等软件都可以用于浮游藻类图像的进行处理和计数。但这些平台不具备生物领域的相关信息和数据,无法进行一定浮游藻类互动的自动化分析。平台背后算法对浮游藻类信息等较为专精领域的信息不具备认知能力。
总体而言,目前的多数相关平台和软件还存在着很多局限性和非智能化操作。例如现有的浮游藻类图像分析系统仅能进行种类的识别和数量的统计,而不具备针对浮游藻类互动的感知与认识能力。而具有大量的浮游藻类分类和描述信息(AlgaeBase)的平台不具备智能化自动分析能力。
发明内容
为解决上述问题,本发明公开了一种基于信息素划分生态位的浮游藻类互动快速智能分析办法。该方法能够利用大规模无监督算法的特征提取能力,根据已有的标注数据库,自动生成专业性的浮游藻类统计数据以及相关浮游藻类互动的智能分析。
一种基于信息素划分生态位的浮游藻类互动快速智能分析办法,包括如下组成部分:
步骤(1)基于卷积神经网络(CNN)和SIFT SURF HOG技术,利用labellmg工具实现了对浮游藻类图像的标注。通过CNN,可以自动学习藻类图像中的特征表示,并进行分类和识别。同时,SIFT SURF HOG技术能够从图像中提取稳定的局部特征,用于描述藻类的形状和纹理。这种综合方法可以有效地提取藻类样本的多模态特征,为藻类数量和种类的推断提供准确的依据。
步骤(2)使用分类算法,通过学习已知浮游藻类信息素和特征之间的关系,来识别水样中的信息素。再根据聚类算法,将水样数据根据特征的相似性进行聚类,从而发现其中存在的浮游藻类信息素的模型和关联。
步骤(3)利用富有先验知识的规则库,对浮游藻类样本进行分析,得到初步的藻类互动关系。通过对权重文件进行反馈训练,得到各种浮游藻类的权重矩阵,并根据权重矩阵的相似性来判断不同藻类是否属于同一生态位,可以用于分析不同藻类之间的互动关系。
步骤(4)利用少量精准标注的浮游藻类种类信息,可以应用迁移学习和fine-tuning的方法对基于yolov8的目标检测模型进行权重精调。通过在具有标注数据的浮游藻类样本上进行训练,可以提高模型对不同藻类的检测准确性和泛化能力。这样的精调过程将使模型更加适应藻类互动关系的分析需求,能够捕捉到不同藻类之间的相互作用、群落结构以及生态环境中的关键变化。
步骤(5)基于专家反馈的精细化微调。根据标注场景提示,这可能包括调整超参数、网络结构或其他模型配置,以优化模型的性能,并进一步提高在藻类互动关系分析中的表现。基于专家反馈的精细化微调能够进一步改善模型的准确性和完整性,使其更适应浮游藻类互动关系的分析需求,并提供更可靠的分析结果和推断。这种交互式的反馈机制有助于缩小模型与实际数据之间的差距,并提高模型的应用效果。
优选的,步骤(1)中,对湖泊水体进行镜检图片和样本采集步骤,具体包括如下步骤:
步骤(11)在已完成预处理的数据集进行特征提取,基于卷积神经网络(CNN),使用深度学习框架TensorFlow、PyTorch来构建和训练模型。标记好的数据集用于训练CNN模型,以学习浮游藻类的特征;
步骤(12)对于SIFT、SURF和HOG,使用相应的图像处理库Open CV来提取图像的特征,这些特征用于后续的分类或目标检测。
步骤(13)labellmg工具,该工具可以用于图像标注和创建标记数据集。
优选的,步骤(2)中,通过学习已知浮游藻类信息素和特征之间的关系,来识别水样中的信息素,具体包括如下步骤:
步骤(21)对于已标记数据集的情况,使用分类算法,可以通过学习浮游藻类信息素与浮游藻类特征之间的关系,来预测和识别位置水样中的浮游藻类的信息组;
步骤(22)对于未标记数据集的情况,使用聚类算法,将水样数据根据特征的相似性进行聚类,从而发现其中存在的浮游藻类信息素的模式和关联;
优选的,步骤(3)中,利用富有先验知识的规则库,对浮游藻类样本进行分析,得到初步的藻类互动关系,具体包括如下步骤:
步骤(31)本发明集合形成的关于浮游藻类的先验知识和互动关系相关的、基于领域专家知识的、科学研究论文的生态系统模型的规则库;
步骤(32)利用规则库中的互动关系和已知样本数据,计算得到权重矩阵的初始值,反复迭代反馈训练过程,得到权重矩阵满足预设的停止条件;
步骤(33)对于不同的浮游藻类,计算其对应的权重矩阵之间的相似性度量,使用欧氏距离和余弦相似度。
步骤(34)通过设定相似性阈值来确定生态位的归属。
优选的,步骤(4)中,应用迁移学习和fine-tuning的方法对基于yolov8的目标检测模型进行权重精调,具体包括如下组成部分:
步骤(41)利用迁移学习的思想,选择一个在大规模图像数据集上预训练好的yolov8模型作为基础模型。这个预训练模型通过大规模图像分类任务学习到了通用的图像特征表示,为后续的浮游藻类互动分析奠定了基础。
步骤(42)通过训练集数据,使用反向传播算法和梯度下降优化模型的权重,使其更好地适应浮游藻类互动分析的任务。在训练过程中,使用验证集数据对模型进行评估和调优,根据性能指标对超参数和网络结构进行调整。这有助于提高模型的性能和泛化能力,并确保模型在浮游藻类互动分析中具有较高的准确性和稳定性。
步骤(43)进行fine-tuning操作,解冻之前冻结的层,并在整个模型上进行微调。通过fine-tuning,模型可以进一步适应浮游藻类互动分析任务的特定需求,提升模型在这一任务上的表现。
优选的,步骤(5)中,基于专家反馈的精细化微调,具体包括如下组成部分:
步骤(51)使用已经训练的模型对一组独立的验证数据进行评估,分析模型的性能指标:准确率、召回率和F1分数;
步骤(52)根据专家反馈和性能评估结果,调整模型的超参数:学习率、批量大小、优化器选择;
步骤(53)根据专家的建议和需求,对模型的网络结构进行调整,增加或减少网络层、改变激活函数;
步骤(54)将微调后的模型交由专家验证,以确认模型的性能是否满足他们的期望和需求,根据评估结果和反馈,进行进一步优化,持续提高模型在浮游藻类互动关系分析中的表现。
本发明的有益效果:
解决浮游生物统计分析平台中无法实现自动化智能分析藻类间互动,以及传统人工分析推测藻类信息的高成本、低效率的问题;就种间关系分析而言,采用了自动化处理,显著区别于传统的种间关系研究,根据数据可以直接推断出生态位的类型而不需要开展专门的实验研究。
附图说明
图1为本发明的整体流程示意图。
图2为浮游藻类互动智能分析办法流程示意图。
具体实施方式
下面结合附图和具体实施方式,进一步阐明本发明,应理解下述具体实施方式仅用于说明本发明而不用于限制本发明的范围。需要说明的是,下面描述中使用的词语“前”、“后”、“左”、“右”、“上”和“下”指的是附图中的方向,词语“内”和“外”分别指的是朝向或远离特定部件几何中心的方向。
本实施例提供一种基于信息素划分生态位的浮游藻类互动快速智能分析办法,包括如下步骤:
步骤(1)基于卷积神经网络(CNN)和SIFT SURF HOG,对不同藻类样本的特征进行提取和编码,包括数量、形状、颜色等特征;步骤(1)中,对湖泊水体进行镜检图片和样本采集步骤,具体包括如下步骤:
步骤(11)在已完成预处理的数据集进行特征提取,基于卷积神经网络(CNN),使用深度学习框架TensorFlow、PyTorch来构建和训练模型。标记好的数据集用于训练CNN模型,以学习浮游藻类的特征;
步骤(12)对于SIFT、SURF和HOG,使用相应的图像处理库Open CV来提取图像的特征,这些特征用于后续的分类或目标检测。
步骤(13)labellmg工具,该工具可以用于图像标注和创建标记数据集。
步骤(2)使用分类算法,通过学习已知浮游藻类信息素和特征之间的关系,来识别水样中的信息素。
具体包括如下步骤:
步骤(21)对于已标记数据集的情况,使用分类算法,可以通过学习浮游藻类信息素与浮游藻类特征之间的关系,来预测和识别位置水样中的浮游藻类的信息组;
步骤(22)对于未标记数据集的情况,使用聚类算法,将水样数据根据特征的相似性进行聚类,从而发现其中存在的浮游藻类信息素的模式和关联。
步骤(3)通过富有先验知识的规则库,反馈权重文件给识别系统,所得数据用于生态位的鉴定,从而进行种间互动关系分析;
具体包括如下步骤:
步骤(31)本发明集合形成的关于浮游藻类的先验知识和互动关系相关的、基于领域专家知识的、科学研究论文的生态系统模型的规则库;
步骤(32)利用规则库中的互动关系和已知样本数据,计算得到权重矩阵的初始值,反复迭代反馈训练过程,得到权重矩阵满足预设的停止条件;
步骤(33)对于不同的浮游藻类,计算其对应的权重矩阵之间的相似性度量,使用欧氏距离和余弦相似度。
步骤(34)通过设定相似性阈值来确定生态位的归属。
步骤(4)利用少量精准标注的浮游藻类种类信息,应用迁移学习和fine-tuning的方法对基于yolov8的目标检测模型进行权重精调;
具体包括如下组成部分:
步骤(41)利用迁移学习的思想,选择一个在大规模图像数据集上预训练好的yolov8模型作为基础模型。这个预训练模型通过大规模图像分类任务学习到了通用的图像特征表示,为后续的浮游藻类互动分析奠定了基础。
步骤(42)通过训练集数据,使用反向传播算法和梯度下降优化模型的权重,使其更好地适应浮游藻类互动分析的任务。在训练过程中,使用验证集数据对模型进行评估和调优,根据性能指标对超参数和网络结构进行调整。这有助于提高模型的性能和泛化能力,并确保模型在浮游藻类互动分析中具有较高的准确性和稳定性。
步骤(43)进行fine-tuning操作,解冻之前冻结的层,并在整个模型上进行微调。通过fine-tuning,模型可以进一步适应浮游藻类互动分析任务的特定需求,提升模型在这一任务上的表现。
步骤(5)根据藻类专家的反馈和观察结果,模型自适应微调;基于专家反馈的精细化微调,具体包括如下组成部分:
步骤(51)使用已经训练的模型对一组独立的验证数据进行评估,分析模型的性能指标:准确率、召回率和F1分数;
步骤(52)根据专家反馈和性能评估结果,调整模型的超参数:学习率、批量大小、优化器选择;
步骤(53)根据专家的建议和需求,对模型的网络结构进行调整,增加或减少网络层、改变激活函数;
步骤(54)将微调后的模型交由专家验证,以确认模型的性能是否满足他们的期望和需求,根据评估结果和反馈,进行进一步优化,持续提高模型在浮游藻类互动关系分析中的表现。
本发明方案所公开的技术手段不仅限于上述实施方式所公开的技术手段,还包括由以上技术特征任意组合所组成的技术方案。
Claims (6)
1.一种基于信息素划分生态位的浮游藻类互动快速智能分析办法,其特征在于,具体包括如下步骤:
步骤(1)基于卷积神经网络(CNN)和SIFT SURF HOG技术,利对不同藻类样本的特征进行提取,包括数量和形状特征;
步骤(2)使用分类算法,通过学习已知浮游藻类信息素和特征之间的关系,来识别水样中的信息素;再根据聚类算法,将水样数据根据特征的相似性进行聚类,从而发现其中存在的浮游藻类信息素的模型和关联;
步骤(3)利用富有先验知识的规则库,对浮游藻类样本进行分析,得到初步的藻类互动关系;通过对权重文件进行反馈训练,得到各种浮游藻类的权重矩阵,并根据权重矩阵的相似性来判断不同藻类是否属于同一生态位,可以用于分析不同藻类之间的互动关系;
步骤(4)利用少量精准标注的浮游藻类种类信息,可以应用迁移学习和fine-tuning的方法对基于yolov8的目标检测模型进行权重精调;。
步骤(5)基于专家反馈的精细化微调。
2.如权利要求1所述的一种基于信息素划分生态位的浮游藻类互动快速智能分析办法,其特征在于,步骤(1)中,基于卷积神经网络(CNN)和SIFT SURF HOG技术,利用labellmg工具实现了对浮游藻类图像的标注,具体包括如下组成部分:
步骤(11)在已完成预处理的数据集进行特征提取,基于卷积神经网络(CNN),使用深度学习框架TensorFlow、PyTorch来构建和训练模型;标记好的数据集用于训练CNN模型,以学习浮游藻类的特征;步骤(12)对于SIFT、SURF和HOG,使用相应的图像处理库Open CV来提取图像的特征,这些特征用于后续的分类或目标检测;
(13)abellmg工具,该工具可以用于图像标注和创建标记数据集。
3.如权利要求1所述的一种基于信息素划分生态位的浮游藻类互动快速智能分析办法,其特征在于,所述步骤(2)中,通过学习已知浮游藻类信息素和特征之间的关系,来识别水样中的信息素,具体包括如下组成部分:
步骤(21)对于已标记数据集的情况,使用分类算法,可以通过学习浮游藻类信息素与浮游藻类特征之间的关系,来预测和识别位置水样中的浮游藻类的信息组;
步骤(22)对于未标记数据集的情况,使用聚类算法,将水样数据根据特征的相似性进行聚类,从而发现其中存在的浮游藻类信息素的模式和关。
4.如权利要求1所述的一种基于信息素划分生态位的浮游藻类互动快速智能分析办法,其特征在于:所述步骤(3)中,利用富有先验知识的规则库,对浮游藻类样本进行分析,得到初步的藻类互动关系,具体包括如下组成部分:
步骤(31)本发明集合形成的关于浮游藻类的先验知识和互动关系相关的、基于领域专家知识的、科学研究论文的生态系统模型的规则库;步骤(32)利用规则库中的互动关系和已知样本数据,计算得到权重矩阵的初始值,反复迭代反馈训练过程,得到权重矩阵满足预设的停止条件;
步骤(33)对于不同的浮游藻类,计算其对应的权重矩阵之间的相似性度量,使用欧氏距离和余弦相似度;
步骤(34)通过设定相似性阈值来确定生态位的归属。
5.如权利要求1所述的一种基于信息素划分生态位的浮游藻类互动快速智能分析办法,其特征在于,所述步骤(4)中,应用迁移学习和fine-tuning的方法对基于yolov8的目标检测模型进行权重精调,具体包括如下组成部分:
步骤(41)利用迁移学习的思想,选择一个在大规模图像数据集上预训练好的yolov8模型作为基础模型;这个预训练模型通过大规模图像分类任务学习到了通用的图像特征表示,为后续的浮游藻类互动分析奠定了基础;
步骤(42)通过训练集数据,使用反向传播算法和梯度下降优化模型的权重,使其更好地适应浮游藻类互动分析的任务;在训练过程中,使用验证集数据对模型进行评估和调优,根据性能指标对超参数和网络结构进行调整;
步骤(43)进行fine-tuning操作,解冻之前冻结的层,并在整个模型上进行微调。通过fine-tuning,模型可以进一步适应浮游藻类互动分析任务的特定需求,提升模型在这一任务上的表现。
6.如权利要求1所述的一种基于信息素划分生态位的浮游藻类互动快速智能分析办法,其特征在于,步骤(5)中,基于专家反馈的精细化微调,具体包括如下组成部分:
步骤(51)使用已经训练的模型对一组独立的验证数据进行评估,分析模型的性能指标:准确率、召回率和F1分数;
步骤(52)根据专家反馈和性能评估结果,调整模型的超参数:学习率、批量大小、优化器选择;
步骤(53)根据专家的建议和需求,对模型的网络结构进行调整,增加或减少网络层、改变激活函数;
步骤(54)将微调后的模型交由专家验证,以确认模型的性能是否满足他们的期望和需求,根据评估结果和反馈,进行进一步优化,持续提高模型在浮游藻类互动关系分析中的表现。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311366458.4A CN117315638B (zh) | 2023-10-20 | 2023-10-20 | 基于信息素划分生态位的浮游藻类互动快速智能分析办法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311366458.4A CN117315638B (zh) | 2023-10-20 | 2023-10-20 | 基于信息素划分生态位的浮游藻类互动快速智能分析办法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117315638A true CN117315638A (zh) | 2023-12-29 |
CN117315638B CN117315638B (zh) | 2024-06-18 |
Family
ID=89281035
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311366458.4A Active CN117315638B (zh) | 2023-10-20 | 2023-10-20 | 基于信息素划分生态位的浮游藻类互动快速智能分析办法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117315638B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007309819A (ja) * | 2006-05-19 | 2007-11-29 | Central Res Inst Of Electric Power Ind | プランクトン観察装置及びプランクトン観察方法、並びにプランクトン計測装置、プランクトン計測方法及びプランクトン計測プログラム |
CN108256533A (zh) * | 2018-01-16 | 2018-07-06 | 南昌航空大学 | 一种藻类类型的识别方法及系统 |
CN109949284A (zh) * | 2019-03-12 | 2019-06-28 | 天津瑟威兰斯科技有限公司 | 基于深度学习卷积神经网络的水藻细胞分析方法及系统 |
CN115651805A (zh) * | 2022-10-25 | 2023-01-31 | 青岛农业大学 | 一种研究浮游生物之间信息交流的装置及方法 |
-
2023
- 2023-10-20 CN CN202311366458.4A patent/CN117315638B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007309819A (ja) * | 2006-05-19 | 2007-11-29 | Central Res Inst Of Electric Power Ind | プランクトン観察装置及びプランクトン観察方法、並びにプランクトン計測装置、プランクトン計測方法及びプランクトン計測プログラム |
CN108256533A (zh) * | 2018-01-16 | 2018-07-06 | 南昌航空大学 | 一种藻类类型的识别方法及系统 |
CN109949284A (zh) * | 2019-03-12 | 2019-06-28 | 天津瑟威兰斯科技有限公司 | 基于深度学习卷积神经网络的水藻细胞分析方法及系统 |
CN115651805A (zh) * | 2022-10-25 | 2023-01-31 | 青岛农业大学 | 一种研究浮游生物之间信息交流的装置及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN117315638B (zh) | 2024-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Nawaz et al. | A robust deep learning approach for tomato plant leaf disease localization and classification | |
Sadeghi-Tehran et al. | Automated method to determine two critical growth stages of wheat: heading and flowering | |
CN113454733A (zh) | 用于预后组织模式识别的多实例学习器 | |
Soltis et al. | Plants meet machines: Prospects in machine learning for plant biology | |
Beikmohammadi et al. | SWP-LeafNET: A novel multistage approach for plant leaf identification based on deep CNN | |
CN111540006B (zh) | 基于深度迁移学习的植物气孔智能检测与识别方法及系统 | |
Silva-Rodriguez et al. | Self-learning for weakly supervised gleason grading of local patterns | |
CN113947607A (zh) | 一种基于深度学习的癌症病理图像生存预后模型构建方法 | |
CN115131618B (zh) | 基于因果推理的半监督图像分类方法 | |
Bunrit et al. | Evaluating on the transfer learning of CNN architectures to a construction material image classification task | |
CN115471739A (zh) | 基于自监督对比学习的跨域遥感场景分类与检索方法 | |
US20150242676A1 (en) | Method for the Supervised Classification of Cells Included in Microscopy Images | |
Mandal et al. | InceptGI: a ConvNet-Based classification model for identifying goat breeds in India | |
CN112949517A (zh) | 基于深度迁移学习的植物气孔密度和开度识别方法及系统 | |
CN116741393A (zh) | 基于病历的甲状腺疾病数据集分类模型的构建方法、分类装置及计算机可读介质 | |
Yaiprasert | Artificial intelligence for para rubber identification combining five machine learning methods | |
Muzakir et al. | Model for Identification and Prediction of Leaf Patterns: Preliminary Study for Improvement | |
Balasubramaniyan et al. | Color contour texture based peanut classification using deep spread spectral features classification model for assortment identification | |
Liu et al. | Identification of rice disease under complex background based on PSOC-DRCNet | |
Menezes et al. | Pseudo-label semi-supervised learning for soybean monitoring | |
CN113516097B (zh) | 一种基于改进EfficentNet-V2的植物叶片疾病识别方法 | |
CN113392875B (zh) | 一种图像细粒度分类的方法、系统和设备 | |
CN117315638B (zh) | 基于信息素划分生态位的浮游藻类互动快速智能分析办法 | |
CN113420705B (zh) | 一种基于双向嵌入特征的半监督信号分析方法 | |
CN116434273A (zh) | 一种基于单正标签的多标记预测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |