CN117456310A - 智能投饵方法及水产生物状态识别模型的训练方法 - Google Patents

智能投饵方法及水产生物状态识别模型的训练方法 Download PDF

Info

Publication number
CN117456310A
CN117456310A CN202311774479.XA CN202311774479A CN117456310A CN 117456310 A CN117456310 A CN 117456310A CN 202311774479 A CN202311774479 A CN 202311774479A CN 117456310 A CN117456310 A CN 117456310A
Authority
CN
China
Prior art keywords
underwater
aquatic organism
image
target aquatic
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311774479.XA
Other languages
English (en)
Inventor
李孜旺
温琦
董凯志
余定睿
亓琳
黄磊
邓林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ocean University of China
Original Assignee
Ocean University of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ocean University of China filed Critical Ocean University of China
Priority to CN202311774479.XA priority Critical patent/CN117456310A/zh
Publication of CN117456310A publication Critical patent/CN117456310A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Forestry; Mining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Business, Economics & Management (AREA)
  • Computational Linguistics (AREA)
  • Agronomy & Crop Science (AREA)
  • Animal Husbandry (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Mining & Mineral Resources (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请提供一种智能投饵方法及水产生物状态识别模型的训练方法,涉及数据处理技术领域。该方法包括:获取预设水产养殖场所的多张水下图像;根据多张水下图像,生成第一图像数据集,其中,第一图像数据集中包括:多张第一水下样本图像,每张第一水下样本图像标注有目标水产生物;根据多张水下图像,生成第二图像数据集,其中,第二图像数据集中包括:多张第二水下样本图像,每张第二水下样本图像标注有残饵;采用第一图像数据集和第二图像数据集对空间‑通道注意力机制的目标水产生物状态识别模型进行模型训练,得到训练后的目标水产生物状态识别模型。相对于现有技术,避免了难以把控好投入量,会导致投喂成本升高,养殖环境恶劣的问题。

Description

智能投饵方法及水产生物状态识别模型的训练方法
技术领域
本申请涉及数据处理技术领域,具体而言,涉及一种智能投饵方法及水产生物状态识别模型的训练方法。
背景技术
随着水产养殖规模和密度的不断扩大,现行的养殖方法也因此被迫过度生产。
传统的水产养殖模式主要是依靠大量的人工喂养以及施加有机肥料来提高鱼类的产量,一般投喂依据仅为根据人工经验进行投喂。但这种模式的弊端也十分突出,残饵和粪便等污染物会在水中进行分解转化,不仅会消耗大量的溶氧量,还会抑制水产品的正常生长,饵料系数不断升高。其中,有机物会发生氧化产生氨气,而氨气又会进一步转变成亚硝酸盐,这也进一步诱发水产品疾病发生,导致养殖环境进一步恶劣,进而使得水产品的生长受限,并为鱼类病害的出现创造条件。同时,传统的水产养殖方式选择投放的饵料量主要根据人的经验来进行判断,这种方式难以把控好饲料、渔用药品的投入量,容易导致饲料投放过多、渔用药品滥用等问题,使得水产品中有毒有害物质和药物残留超标现象严重,成本升高。
也就是说,现有技术中水产养殖模式由于投喂方式难以把控好投入量,会导致投喂成本升高,养殖环境恶劣的问题。
发明内容
本申请的目的在于,针对上述现有技术中的不足,提供一种智能投饵方法及水产生物状态识别模型的训练方法,以解决现有技术中难以把控好投入量,会导致投喂成本升高,养殖环境恶劣的问题。
为实现上述目的,本申请实施例采用的技术方案如下:
第一方面,本申请一实施例提供了一种水产生物状态识别模型的训练方法,所述方法包括:
获取预设水产养殖场所的多张水下图像;
根据所述多张水下图像,生成第一图像数据集,其中,所述第一图像数据集中包括:多张第一水下样本图像,每张第一水下样本图像标注有目标水产生物;
根据所述多张水下图像,生成第二图像数据集,其中,所述第二图像数据集中包括:多张第二水下样本图像,每张第二水下样本图像标注有残饵;
采用所述第一图像数据集和所述第二图像数据集对空间-通道注意力机制的目标水产生物状态识别模型进行模型训练,得到训练后的目标水产生物状态识别模型。
可选地,所述根据所述多张水下图像,生成第一图像数据集,包括:
对所述多张水下图像中的水产生物进行标注,以得到所述第一图像数据集。
可选地,所述根据所述多张水下图像,生成第二图像数据集,包括:
对所述多张水下图像中的残饵进行标注,以得到所述第二图像数据集。
可选地,所述获取所述预设水产养殖场所的多张水下图像,包括:
获取所述预设水产养殖场所的水下双目相机采集的多组水下图像;
对所述多组水下图像进行融合,得到所述多张水下图像。
可选地,所述根据所述多张水下图像,生成第一图像数据集,包括:
从所述第一图像数据集中随机选取预设比例的第一水下样本图像,得到第一训练数据集;
所述根据所述多张水下图像,生成第二图像数据集,包括:
从所述第二图像数据集中随机选取所述预设比例的第二水下样本图像,得到第二训练数据集;
所述采用所述第一图像数据集和所述第二图像数据集对空间-通道注意力机制的目标水产生物状态识别模型进行模型训练,得到训练后的目标水产生物状态识别模型,包括:
采用所述第一训练数据集和所述第二训练数据集对空间-通道注意力机制的目标水产生物状态识别模型进行模型训练,得到训练后的目标水产生物状态识别模型。
第二方面,本申请另一实施例提供了一种智能投饵方法,所述方法包括:
获取预设水产养殖场所的待检测水下图像;
采用目标水产生物状态识别模型,对所述待检测水下图像进行状态识别,得到所述待检测水下图像对应的目标水产生物识别结果以及残饵识别结果,其中,所述目标水产生物状态识别模型为:采用上述第一方面中任一项方法训练得到的目标水产生物状态识别模型;
根据所述目标水产生物状态识别模型输出的目标水产生物识别结果进行所述目标水产生物的饥饿状态识别,得到所述目标水产生物的饥饿状态信息;
根据所述目标水产生物状态识别模型输出的残饵识别结果,进行所述残饵状态识别,得到所述残饵状态信息;
若所述检测饥饿状态信息指示所述预设水产养殖场所中目标水产生物存在饥饿行为,则根据所述残饵状态信息,生成推荐投饵方案。
可选地,所述根据所述目标水产生物状态识别模型输出的目标水产生物识别结果进行所述目标水产生物的饥饿状态识别,包括:
采用预设第一检测器,对所述每张水下图像进行所述目标水产生物的检测,得到所述每张水下图像中所述目标水产生物的数量分布信息;
采用水产生物轨迹监测模型根据所述数量分布信息,确定所述每张水下图像对应的水产生物运动轨迹;
根据预设饥饿状态判定模型根据所述水产生物运动轨迹,确定所述每张水下图像对应的饥饿状态信息。
可选地,所述根据所述目标水产生物状态识别模型输出的残饵识别结果,进行所述残饵状态识别,包括:
采用预设第二检测器,对每张水下图像进行残饵检测,得到所述每张水下图像对应的残饵状态信息。
可选地,所述方法还包括:
根据所述残饵状态信息,以及所述预设水产养殖场所的实际喂养记录数据,生成针对所述目标水产生物的进食评价信息。
可选地,所述检测结果还包括:所述目标水产生物的检测框信息;所述方法还包括:
根据所述目标水产生物的检测框信息,生成针对所述目标水产生物的生长状态检测图;
输出并显示所述生长状态检测图。
第三方面,本申请另一实施例提供了一种水产生物状态识别模型的训练装置,所述装置包括:获取模块、生成模块和训练模块,其中:
所述获取模块,用于获取预设水产养殖场所的多张水下图像;
所述生成模块,用于根据所述多张水下图像,生成第一图像数据集,其中,所述第一图像数据集中包括:多张第一水下样本图像,每张第一水下样本图像标注有目标水产生物;根据所述多张水下图像,生成第二图像数据集,其中,所述第二图像数据集中包括:多张第二水下样本图像,每张第二水下样本图像标注有残饵;
所述训练模块,用于采用所述第一图像数据集和所述第二图像数据集对空间-通道注意力机制的目标水产生物状态识别模型进行模型训练,得到训练后的目标水产生物状态识别模型。
可选地,所述装置还包括;处理模块,用于对所述多张水下图像中的水产生物进行标注,以得到所述第一图像数据集。
所述处理模块,具体用于对所述多张水下图像中的残饵进行标注,以得到所述第二图像数据集。
可选地,所述获取模块,具体用于获取所述预设水产养殖场所的水下双目相机采集的多组水下图像;
所述处理模块,具体用于对所述多组水下图像进行融合,得到所述多张水下图像。
可选地,所述生成模块,具体用于从所述第一图像数据集中随机选取预设比例的第一水下样本图像,得到第一训练数据集;从所述第二图像数据集中随机选取所述预设比例的第二水下样本图像,得到第二训练数据集;
所述训练模块,具体用于采用所述第一训练数据集和所述第二训练数据集对空间-通道注意力机制的目标水产生物状态识别模型进行模型训练,得到训练后的目标水产生物状态识别模型。
第四方面,本申请另一实施例提供了一种智能投饵装置,所述装置包括:获取模块、识别模块和生成模块,其中:
所述获取模块,用于获取预设水产养殖场所的待检测水下图像;
所述识别模块,用于采用目标水产生物状态识别模型,对所述待检测水下图像进行状态识别,得到所述待检测水下图像对应的目标水产生物识别结果以及残饵识别结果,其中,所述目标水产生物状态识别模型为:采用上述第一方面中任一项方法训练得到的目标水产生物状态识别模型;根据所述目标水产生物状态识别模型输出的目标水产生物识别结果进行所述目标水产生物的饥饿状态识别,得到所述目标水产生物的饥饿状态信息;根据所述目标水产生物状态识别模型输出的残饵识别结果,进行所述残饵状态识别,得到所述残饵状态信息;
所述生成模块,用于若所述检测饥饿状态信息指示所述预设水产养殖场所中目标水产生物存在饥饿行为,则根据所述残饵状态信息,生成推荐投饵方案。
可选地,所述装置还包括:确定模块,其中;
所述生成模块,具体用于采用预设第一检测器,对所述每张水下图像进行所述目标水产生物的检测,得到所述每张水下图像中所述目标水产生物的数量分布信息;
所述确定模块,用于采用水产生物轨迹监测模型根据所述数量分布信息,确定所述每张水下图像对应的水产生物运动轨迹;根据预设饥饿状态判定模型根据所述水产生物运动轨迹,确定所述每张水下图像对应的饥饿状态信息。
可选地,所述生成模块,具体用于采用预设第二检测器,对每张水下图像进行残饵检测,得到所述每张水下图像对应的残饵状态信息。
可选地,所述生成模块,具体用于根据所述残饵状态信息,以及所述预设水产养殖场所的实际喂养记录数据,生成针对所述目标水产生物的进食评价信息。
可选地,所述生成模块,具体用于根据所述目标水产生物的检测框信息,生成针对所述目标水产生物的生长状态检测图;输出并显示所述生长状态检测图。
第五方面,本申请另一实施例提供了一种电子设备,包括:处理器、存储介质和总线,所述存储介质存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储介质之间通过总线通信,所述处理器执行所述机器可读指令,以执行如上述第一方面或第二方面任一所述方法的步骤。
第六方面,本申请另一实施例提供了一种存储介质,所述存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行如上述第一方面任一所述方法的步骤。
本申请的有益效果是:采用本申请提供的水产生物状态识别模型的训练方法,产生物状态识别模型的训练方法,其通过在多个水下图像中分别确定第一图像数据集和第二图像数据集的方式,通过第一图像数据集和第二图像数据集对空间-通道注意力机制的目标水产生物状态识别模型进行模型训练,以得到目标水产生物状态识别模型,从而后续可以通过目标水产生物状态识别模型更加方便、快捷、准确地识别到图像内的水产生物信息和残饵信息,为后续水产生物的生长监控或是投饵方案的设置提供了良好的数据支撑。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请一实施例提供的水产生物状态识别模型的训练方法的流程示意图;
图2为本申请另一实施例提供的水产生物状态识别模型的训练方法的流程示意图;
图3为本申请一实施例提供的智能投饵方法的流程示意图;
图4为本申请另一实施例提供的饥饿状态判定模型的结构示意图;
图5为本申请另一实施例提供的智能投饵方法的流程示意图;
图6为本申请一实施例提供的水产生物状态识别模型的训练装置的结构示意图;
图7为本申请另一实施例提供的水产生物状态识别模型的训练装置的结构示意图;
图8为本申请一实施例提供的智能投饵模型的训练装置的结构示意图;
图9为本申请另一实施例提供的智能投饵模型的训练装置的结构示意图;
图10为本申请一实施例提供的电子设备的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。
通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
另外,本申请中使用的流程图示出了根据本申请的一些实施例实现的操作。应该理解,流程图的操作可以不按顺序实现,没有逻辑的上下文关系的步骤可以反转顺序或者同时实施。此外,本领域技术人员在本申请内容的指引下,可以向流程图添加一个或多个其他操作,也可以从流程图中移除一个或多个操作。
如下结合多个具体的应用示例,对本申请实施例所提供的一种水产生物状态识别模型的训练方法进行解释说明。图1为本申请一实施例提供的一种水产生物状态识别模型的训练方法的流程示意图,如图1所示,该方法包括:
S101:获取预设水产养殖场所的多张水下图像。
在一些可能的实施例中,获取多张水下图像的方式例如可以为:获取预设水产养殖场所的水下双目相机采集的多组水下图像;对多组水下图像进行融合,得到多张水下图像。
其中,水下双目相机例如可以为水下摄像头、水下机器人或水下无人机等设备,为了保证训练后的模型可以识别各种场景下的水下图像,则多张水下图像例如可以选择不同时间、不同光照条件以及不同虾群聚集情况下的水下图像,最大程度上获取不同场景下的水下图像,以更好地训练模型。
在本申请的实施例中,为了保证水下图像的图像质量,统一水下图像的图像规则,在获取多张水下图像之后,还可以对多张水下图像进行预处理,预处理例如可以包括对各水下图像的尺寸进行调整,均调整为预设尺寸;对各水下图像进行规划一划处理,将图像的像素值按照一定的标准进行处理,使得处理后的图像在数值范围上保持一致,以提高图像处理的准确性和效率;或者,还可以对各水下图像进行增强处理,例如对各水下图像进行翻转处理、均翻转为预设角度下的图像,或者还可以对各水下图像的亮度进行调整,以使水下图像的亮度均匀,方便后续用户对水下图像中的目标物进行标注,避免由于图像过亮无法看清图像内的目标物,或者图像过暗导致目标物识别困难的问题;通过预处理,可以使得水下图像的特征更加一致和规律,从而使得后续模型的训练过程更加高效。
S102:根据多张水下图像,生成第一图像数据集。
其中,第一图像数据集中包括:多张第一水下样本图像,每张第一水下样本图像标注有目标水产生物。
在一些可能的实施例中,第一图像数据集的生成方式例如可以为对多张水下图像中的水产生物进行标注,以得到第一图像数据集;其中,标注方式例如可以为用户通过人工标注的方式对第一图像数据集中每个图像内的水产生物均进行标注,其中,每次标注仅针对一个种类的水产生物,例如当前需要标注的水产生物为白虾,则即使第一图像数据集中存在图像中包括多种生物,例如包括白虾、草鱼、鲈鱼等,也仅对第一图像数据集中每个图像中的白虾进行标注。
S103:根据多张水下图像,生成第二图像数据集。
其中,第二图像数据集中包括:多张第二水下样本图像,每张第二水下样本图像标注有残饵。
在一些可能的实施例中,第二图像数据集的生成方式例如可以为对多张水下图像中的残饵进行标注,以得到第二图像数据集,其中,标注方式例如可以为用户通过人工标注的方式对第二图像数据集中每个图像内的残饵进行标识。
S104:采用第一图像数据集和第二图像数据集对空间-通道注意力机制的目标水产生物状态识别模型进行模型训练,得到训练后的目标水产生物状态识别模型。
在一些可能的实施例中,本申请训练得到的目标水产生物状态识别模型的模型结构例如可以为卷积层的模型结构,训练后的目标水产生物识别模型可以很好地识别到各图像内的水产生物以及残饵,例如可以准确的检测出各图像内水产生物的生长状态、活跃状态和残饵的状态、变化量等信息。
在申请的实施例中,训练得到的水产生物状态识别模型仅为针对预先标记的目标水产生物状态的识别模型,其仅可以识别目标水产生物状态以及残饵状态,例如若当前训练的识别模型为针对白虾的识别模型,则其仅能识别白虾,不能识别草鱼,若用户后续需要识别草鱼,则需要基于预先标注有草鱼的第一图像数据集重新对识别模型进行训练,以得到可以识别草鱼的识别模型。
采用本申请提供的水产生物状态识别模型的训练方法,其通过在多个水下图像中分别确定第一图像数据集和第二图像数据集的方式,通过第一图像数据集和第二图像数据集对空间-通道注意力机制的目标水产生物状态识别模型进行模型训练,以得到目标水产生物状态识别模型,从而后续可以通过目标水产生物状态识别模型更加方便、快捷、准确地识别到图像内的水产生物信息和残饵信息,为后续水产生物的生长监控或是投饵方案的设置提供了良好的数据支撑。
可选地,在上述实施例的基础上,本申请实施例还可提供一种水产生物状态识别模型的训练方法,如下结合附图对上述方法的实现过程进行示例说明。图2为本申请另一实施例提供的一种水产生物状态识别模型的训练方法的流程示意图,如图2所示,S102可包括:
S111:从第一图像数据集中随机选取预设比例的第一水下样本图像,得到第一训练数据集。
在一些可能的实施例中,例如可以以预设比例分别在第一图像数据集中确定第一训练数据集、第一验证数据集和第一测试数据集,其中,预设比例例如可以为70%、15%和15%,也即例如可以在第一图像数据集中确定70%的图像为第一训练数据集、15%的图像为第一验证数据集、15%的图像为第一测试数据集。
S103可包括:
S112:从第二图像数据集中随机选取预设比例的第二水下样本图像,得到第二训练数据集。
在一些可能的实施例中,例如可以以预设比例分别在第二图像数据集中确定第二训练数据集、第二验证数据集和第二测试数据集,其中,预设比例例如可以为70%、15%和15%,也即例如可以在第二图像数据集中确定70%的图像为第二训练数据集、15%的图像为第二验证数据集、15%的图像为第二测试数据集。
S104可包括:
S113:练数据集和第二训练数据集对空间-通道注意力机制的目标水产生物状态识别模型进行模型训练,得到训练后的目标水产生物状态识别模型。
在本申请的实施例中,在根据第一训练数据集和第二训练数据集对空间-通道注意力机制的目标水产生物状态识别模型进行模型训练,定义交叉熵损失函数用于衡量模型在训练集上的预测结果与真实标签的差异,选择随机梯度下降优化算法用于调整模型参数以减少损失函数的值得到训练后的目标水产生物状态识别模型。
为了提高本申请训练得到的目标水产生物状态识别模型的性能,可以将第一训练数据集和第二训练数据集分别划分为小批量的多个第一子训练数据集和第二子训练数据集,每次从多个第一子训练数据集和多个第二子训练数据集中随机选择一个批量的第一子训练数据集和第二子训练数据集对目标水产生物状态识别模型进行训练;将随机确定的第一子训练数据集和第二子训练数据集输入至目标水产生物状态识别模型中,通过前向传播计算预测结果,并计算预测结果与真实标签之间的距离,以确定损失函数;并通过反向传播计算损失函数的方式来通过随机梯度下降优化算法对目标水产生物状态识别模型的参数进行调整,并使用优化算法来更新模型参数;多次迭代地执行以上步骤,以更新模型参数,直到损失函数收敛为止。
根据第一训练数据集和第二训练数据集对空间-通道注意力机制的目标水产生物状态识别模型进行模型训练,得到训练后的目标水产生物状态识别模型之后,使用第一验证数据集和第二验证数据集对目标水产生物状态识别模型进行性能分析,并做误差统计得到训练后的目标水产生物状态识别模型;最后根据第一测试数据集和第二测试数据集对训练后的目标水产生物状态识别模型进行模型训练,得到最终的目标水产生物状态识别模型,这样的训练方式由于数据集的划分均仅为根据预设比例随机划分的,可以避免特定数据集上过拟合的问题,保证了训练得到的目标水产生物状态识别模型的性能。
在本申请的实施例中,目标水产生物状态识别模型可以提取出水下图像中的可区分性特征,以实现目标水产生物状态以及残饵的识别,目标水产生物状态识别模型的识别公式例如可以为;其中,/>为可区分性特征,/>为卷积核,X为输入的水下图像,c’为图像通道数。
采用本申请提供的水产生物状态识别模型的训练方法,其通过在多个水下图像中分别确定第一图像数据集和第二图像数据集的方式,通过第一图像数据集和第二图像数据集对空间-通道注意力机制的目标水产生物状态识别模型进行模型训练,以得到目标水产生物状态识别模型,从而后续可以通过目标水产生物状态识别模型更加方便、快捷、准确地识别到图像内的水产生物信息和残饵信息,为后续水产生物的生长监控或是投饵方案的设置提供了良好的数据支撑。
如下结合多个具体的应用示例,对本申请实施例所提供的一种智能投饵方法进行解释说明。图3为本申请一实施例提供的一种智能投饵方法的流程示意图,如图3所示,该方法包括:
S201:获取预设水产养殖场所的待检测水下图像。
在本申请的实施例中,待检测水下图像的获取方式例如可以为通过水下双目摄像机进行采集得到的。
在一些可能的实施例中,获取待检测水下图像的实际例如可以为用户对水下双目摄像机进行了预设,预设水下双目摄像机可以定时采集待检测水下图像,或者也可以为根据用户发起的获取指令,控制水下双目摄像机采集待检测水下图像,应当理解,上述实施例仅为示例性说明,具体触发获取待检测水下图像的方式可以根据用户需要灵活调整,并不以上述实施例给出的为限。
S202:采用目标水产生物状态识别模型,对待检测水下图像进行状态识别,得到待检测水下图像对应的目标水产生物识别结果以及残饵识别结果。
其中,目标水产生物状态识别模型为:采用上述图1-图3中任一项方法训练得到的目标水产生物状态识别模型。
在本申请的实施例中,获取到双目摄像机采集的待处理图像之后,颗粒如可以通过本申请提供的目标水产生物状态识别模型提取双目摄像机采集的待处理图像的双目图像特征,对待处理图像的双目图像特征进行融合处理之后,可以检测并输出目标水产生物识别结果以及残饵识别结果。
其中,目标水产生物识别结果以及残饵识别结果包括但不限于水产生物的生长状态、活跃状态和残饵的状态、变化量等信息。
在水下环境中,受光照和复杂的环境影响,所拍摄的水下图像的质量较差,从而会导致可见度低、分辨率低等问题,大规模水产养殖初期养殖个体往往较小,对目标的精准捕捉也有一定困难,并且拍摄得到的图片是由残饵、水产生物个体和水域背景混合在一起的;因此,针对复杂水下环境中难以准确识别目标行为的情况,采用本申请上述方法训练得到的目标生物状态识别模型可以有效提取可区分性特征,实现目标水产生物识别以及残饵识别。
S203:根据目标水产生物状态识别模型输出的目标水产生物识别结果进行目标水产生物的饥饿状态识别,得到目标水产生物的饥饿状态信息。
S204:根据目标水产生物状态识别模型输出的残饵识别结果,进行残饵状态识别,得到残饵状态信息。
在本申请的实施例中,确定残饵状态信息的方式例如可以为:采用预设第二检测器,对每张水下图像进行残饵检测,得到每张水下图像对应的残饵状态信息。
S205:若检测饥饿状态信息指示预设水产养殖场所中目标水产生物存在饥饿行为,则根据残饵状态信息,生成推荐投饵方案。
在本申请的实施例中,本申请提供方的方法预先定义了一种饥饿状态判定模型,通过该判定模型可以准确判断目标水产生物的饥饿情况,并根据目标水产生物的饥饿情况智能生成推荐投饵方案。
在饥饿行为的识别中,先要建立饥饿状态判定模型,本申请提出了通过带有注意力机制的双向LSTM深度神经网络模型来建立饥饿状态判定模型。图4为本申请另一实施例提供的饥饿状态判定模型的结构示意图,饥饿状态判定模型f的应用例如可以为:
式中x表某次采集的数据组成的输入向量,通过一次正向传播和一次反向传播计算相应的隐藏层的输出h_t和h_t,最后在每个时刻结合正向层和反向层的相应时刻输出的结果得到最终的输出,经过多次数据训练获取最终输入输出关系模型。
在得到饥饿状态判定模型后,将养殖数据与该判定模型相结合,便可识别水产生物的饥饿行为,还可以对水产生物的进食情况进行评价,方便养殖人员做出更精细的针对性调整,其中:
输入量Xn(n=1,2,3…)表示实际喂养过程记录的残饵、投饵量、水产生物体积、喂食时间、气温、水温、盐度、溶解氧、PH值等数值;输出量Yn(n=1,2,3… )表示养殖技术员对进食评价分为优、良、中、差、极差五个等级;隐藏变量Hn(n=1,2,3… )表示不同阶段所输出的隐藏结果;Tn(n=1,2,3…)表示不同时间阶段。
采用本申请提供的智能投饵方法,采用模型训练方法训练得到水产生物状态识别模型,并基于预设的饥饿状态判定模型确定水产生物的当前饥饿状态,为精准投喂提供了良好的数据支撑。同时,本申请提供的饥饿状态判定模型基于可变形卷积的多任务图像处理方法,具有适应目标形状和尺寸变化的能力,可同时处理多个图像任务,减少计算复杂性,提高数据效率,适用于复杂场景和多任务场景。
可选地,在上述实施例的基础上,本申请实施例还可提供一种智能投饵方法,如下结合附图对上述方法的实现过程进行示例说明。图5为本申请另一实施例提供的一种智能投饵方法的流程示意图,如图5所示,S203可包括:
S211:采用预设第一检测器,对每张水下图像进行目标水产生物的检测,得到每张水下图像中目标水产生物的数量分布信息。
其中,第一检测器例如可以为预设计数检测器,例如可以为检测器YOLOv5,通过计数器确定每张水下图像中目标水产生物的数量分布信息。
在本申请的另一实施例中,检测结果还包括:目标水产生物的检测框信息;本申请提供的方法还可以根据目标水产生物的检测框信息,生成针对目标水产生物的生长状态检测图;输出并显示生长状态检测图。
检测方式例如可以为通过统计包围框的对角线长度,实现对目标水产生物的生长状况的监测。
S212:采用水产生物轨迹监测模型根据数量分布信息,确定每张水下图像对应的水产生物运动轨迹。
其中,水产生物运动轨迹可以在一定程度上指示水产生物的饥饿状态,例如在水产生物处于饥饿状态时,水产生物一般处于聚集状态,水产生物并未处于饥饿状态时,水产生物一般处于分散状态。
S213:根据预设饥饿状态判定模型根据水产生物运动轨迹,确定每张水下图像对应的饥饿状态信息。
在本申请的一些实施例中,还可以根据残饵状态信息,以及预设水产养殖场所的实际喂养记录数据,生成针对目标水产生物的进食评价信息。
下述结合附图对本申请所提供的水产生物状态识别模型的训练装置进行解释说明,该水产生物状态识别模型的训练装置可执行上述图1-图2任一水产生物状态识别模型的训练方法,其具体实现以及有益效果参照上述,如下不再赘述。
图6为本申请一实施例提供的水产生物状态识别模型的训练装置的结构示意图,如图6所示,该装置包括:获取模块301、生成模块302和训练模块303,其中:
获取模块301,用于获取预设水产养殖场所的多张水下图像;
生成模块302,用于根据多张水下图像,生成第一图像数据集,其中,第一图像数据集中包括:多张第一水下样本图像,每张第一水下样本图像标注有目标水产生物;根据多张水下图像,生成第二图像数据集,其中,第二图像数据集中包括:多张第二水下样本图像,每张第二水下样本图像标注有残饵;
训练模块303,用于采用第一图像数据集和第二图像数据集对空间-通道注意力机制的目标水产生物状态识别模型进行模型训练,得到训练后的目标水产生物状态识别模型。
可选地,在上述实施例的基础上,本申请实施例还可提供一种水产生物状态识别模型的训练装置,如下结合附图对上述图6给出的装置的实现过程进行示例说明。图7为本申请另一实施例提供的水产生物状态识别模型的训练装置的结构示意图,如图7所示,该装置还包括:处理模块304,用于对多张水下图像中的水产生物进行标注,以得到第一图像数据集。
处理模块304,具体用于对多张水下图像中的残饵进行标注,以得到第二图像数据集。
可选地,获取模块301,具体用于获取预设水产养殖场所的水下双目相机采集的多组水下图像;
处理模块304,具体用于对多组水下图像进行融合,得到多张水下图像。
可选地,生成模块302,具体用于从第一图像数据集中随机选取预设比例的第一水下样本图像,得到第一训练数据集;从第二图像数据集中随机选取预设比例的第二水下样本图像,得到第二训练数据集;
训练模块303,具体用于采用第一训练数据集和第二训练数据集对空间-通道注意力机制的目标水产生物状态识别模型进行模型训练,得到训练后的目标水产生物状态识别模型。
下述结合附图对本申请所提供的智能投饵装置进行解释说明,该智能投饵装置可执行上述图3-图5任一智能投饵方法,其具体实现以及有益效果参照上述,如下不再赘述。
图8为本申请一实施例提供的智能投饵装置的结构示意图,如图8所示,该装置包括:获取模块401、识别模块402和生成模块403,其中:
获取模块401,用于获取预设水产养殖场所的待检测水下图像;
识别模块402,用于采用目标水产生物状态识别模型,对待检测水下图像进行状态识别,得到待检测水下图像对应的目标水产生物识别结果以及残饵识别结果,其中,目标水产生物状态识别模型为:采用上述第一方面中任一项方法训练得到的目标水产生物状态识别模型;根据目标水产生物状态识别模型输出的目标水产生物识别结果进行目标水产生物的饥饿状态识别,得到目标水产生物的饥饿状态信息;根据目标水产生物状态识别模型输出的残饵识别结果,进行残饵状态识别,得到残饵状态信息;
生成模块403,用于若检测饥饿状态信息指示预设水产养殖场所中目标水产生物存在饥饿行为,则根据残饵状态信息,生成推荐投饵方案。
可选地,在上述实施例的基础上,本申请实施例还可提供一种智能投饵装置,如下结合附图对上述图8给出的装置的实现过程进行示例说明。图9为本申请另一实施例提供的智能投饵装置的结构示意图,如图9所示,该装置还包括:确定模块404,其中;
生成模块403,具体用于采用预设第一检测器,对每张水下图像进行目标水产生物的检测,得到每张水下图像中目标水产生物的数量分布信息;
确定模块404,用于采用水产生物轨迹监测模型根据数量分布信息,确定每张水下图像对应的水产生物运动轨迹;根据预设饥饿状态判定模型根据水产生物运动轨迹,确定每张水下图像对应的饥饿状态信息。
可选地,生成模块403,具体用于采用预设第二检测器,对每张水下图像进行残饵检测,得到每张水下图像对应的残饵状态信息。
可选地,生成模块403,具体用于根据残饵状态信息,以及预设水产养殖场所的实际喂养记录数据,生成针对目标水产生物的进食评价信息。
可选地,生成模块403,具体用于根据目标水产生物的检测框信息,生成针对目标水产生物的生长状态检测图;输出并显示生长状态检测图。
上述装置用于执行前述实施例提供的方法,其实现原理和技术效果类似,在此不再赘述。
以上这些模块可以是被配置成实施以上方法的一个或多个集成电路,例如:一个或多个特定集成电路(Application Specific Integrated Circuit,简称ASIC),或,一个或多个微处理器,或,一个或者多个现场可编程门阵列(Field Programmable Gate Array,简称FPGA)等。再如,当以上某个模块通过处理元件调度程序代码的形式实现时,该处理元件可以是通用处理器,例如中央处理器(Central Processing Unit,简称CPU)或其它可以调用程序代码的处理器。再如,这些模块可以集成在一起,以片上系统(system-on-a-chip,简称SOC)的形式实现。
图10为本申请一实施例提供的电子设备的结构示意图,该电子设备可以集成于终端设备或者终端设备的芯片。
如图10所示,该电子设备包括:处理器501、总线502和存储介质503。
处理器501用于存储程序,处理器501调用存储介质503存储的程序,以执行上述图1-图5对应的方法实施例。
可选地,本申请还提供一种程序产品,例如存储介质,该存储介质上存储有计算机程序,包括程序,该程序在被处理器运行时执行上述方法对应的实施例。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(英文:processor)执行本申请各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(英文:Read-Only Memory,简称:ROM)、随机存取存储器(英文:Random Access Memory,简称:RAM)、磁碟或者光盘等各种可以存储程序代码的介质。

Claims (10)

1.一种水产生物状态识别模型的训练方法,其特征在于,所述方法包括:
获取预设水产养殖场所的多张水下图像;
根据所述多张水下图像,生成第一图像数据集,其中,所述第一图像数据集中包括:多张第一水下样本图像,每张第一水下样本图像标注有目标水产生物;
根据所述多张水下图像,生成第二图像数据集,其中,所述第二图像数据集中包括:多张第二水下样本图像,每张第二水下样本图像标注有残饵;
采用所述第一图像数据集和所述第二图像数据集对空间-通道注意力机制的目标水产生物状态识别模型进行模型训练,得到训练后的目标水产生物状态识别模型。
2.如权利要求1所述的方法,其特征在于,所述根据所述多张水下图像,生成第一图像数据集,包括:
对所述多张水下图像中的水产生物进行标注,以得到所述第一图像数据集。
3.如权利要求1所述的方法,其特征在于,所述根据所述多张水下图像,生成第二图像数据集,包括:
对所述多张水下图像中的残饵进行标注,以得到所述第二图像数据集。
4.如权利要求1所述的方法,其特征在于,所述获取所述预设水产养殖场所的多张水下图像,包括:
获取所述预设水产养殖场所的水下双目相机采集的多组水下图像;
对所述多组水下图像进行融合,得到所述多张水下图像。
5.如权利要求1所述的方法,其特征在于,所述根据所述多张水下图像,生成第一图像数据集,包括:
从所述第一图像数据集中随机选取预设比例的第一水下样本图像,得到第一训练数据集;
所述根据所述多张水下图像,生成第二图像数据集,包括:
从所述第二图像数据集中随机选取所述预设比例的第二水下样本图像,得到第二训练数据集;
所述采用所述第一图像数据集和所述第二图像数据集对空间-通道注意力机制的目标水产生物状态识别模型进行模型训练,得到训练后的目标水产生物状态识别模型,包括:
采用所述第一训练数据集和所述第二训练数据集对空间-通道注意力机制的目标水产生物状态识别模型进行模型训练,得到训练后的目标水产生物状态识别模型。
6.一种智能投饵方法,其特征在于,所述方法包括:
获取预设水产养殖场所的待检测水下图像;
采用目标水产生物状态识别模型,对所述待检测水下图像进行状态识别,得到所述待检测水下图像对应的目标水产生物识别结果以及残饵识别结果,其中,所述目标水产生物状态识别模型为:采用上述权利要求1-5中任一项方法训练得到的目标水产生物状态识别模型;
根据所述目标水产生物状态识别模型输出的目标水产生物识别结果进行所述目标水产生物的饥饿状态识别,得到所述目标水产生物的饥饿状态信息;
根据所述目标水产生物状态识别模型输出的残饵识别结果,进行残饵状态识别,得到残饵状态信息;
若所述检测饥饿状态信息指示所述预设水产养殖场所中目标水产生物存在饥饿行为,则根据所述残饵状态信息,生成推荐投饵方案。
7.如权利要求6所述的方法,其特征在于,所述根据所述目标水产生物状态识别模型输出的目标水产生物识别结果进行所述目标水产生物的饥饿状态识别,得到所述目标水产生物的饥饿状态信息,包括:
采用预设第一检测器,对每张所述水下图像进行所述目标水产生物的检测,得到每张所述水下图像中所述目标水产生物的数量分布信息;
采用水产生物轨迹监测模型根据所述数量分布信息,确定每张所述水下图像对应的水产生物运动轨迹;
根据预设饥饿状态判定模型根据所述水产生物运动轨迹,确定每张所述水下图像对应的饥饿状态信息。
8.如权利要求6所述的方法,其特征在于,所述根据所述目标水产生物状态识别模型输出的残饵识别结果,进行所述残饵状态识别,得到所述残饵状态信息,包括:
采用预设第二检测器,对每张所述水下图像进行残饵检测,得到每张所述水下图像对应的残饵状态信息。
9.如权利要求6所述的方法,其特征在于,所述方法还包括:
根据所述残饵状态信息,以及所述预设水产养殖场所的实际喂养记录数据,生成针对所述目标水产生物的进食评价信息。
10.如权利要求7所述的方法,其特征在于,检测结果还包括:所述目标水产生物的检测框信息;所述方法还包括:
根据所述目标水产生物的检测框信息,生成针对所述目标水产生物的生长状态检测图;
输出并显示所述生长状态检测图。
CN202311774479.XA 2023-12-22 2023-12-22 智能投饵方法及水产生物状态识别模型的训练方法 Pending CN117456310A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311774479.XA CN117456310A (zh) 2023-12-22 2023-12-22 智能投饵方法及水产生物状态识别模型的训练方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311774479.XA CN117456310A (zh) 2023-12-22 2023-12-22 智能投饵方法及水产生物状态识别模型的训练方法

Publications (1)

Publication Number Publication Date
CN117456310A true CN117456310A (zh) 2024-01-26

Family

ID=89580184

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311774479.XA Pending CN117456310A (zh) 2023-12-22 2023-12-22 智能投饵方法及水产生物状态识别模型的训练方法

Country Status (1)

Country Link
CN (1) CN117456310A (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111240200A (zh) * 2020-01-16 2020-06-05 北京农业信息技术研究中心 鱼群投饵控制方法、鱼群投饵控制装置及投饵船
CN111325181A (zh) * 2020-03-19 2020-06-23 北京海益同展信息科技有限公司 一种状态监测方法、装置、电子设备及存储介质
CN113349111A (zh) * 2021-05-25 2021-09-07 中国农业大学 一种用于水产养殖物的动态投喂方法、系统和存储介质
CN113592896A (zh) * 2020-04-30 2021-11-02 中国农业大学 基于图像处理的鱼类投喂方法、系统、设备及存储介质
CN114627554A (zh) * 2022-03-14 2022-06-14 江西增鑫科技股份有限公司 一种水产品自动化养殖投饲集中管理方法及系统
CN116778309A (zh) * 2022-10-24 2023-09-19 中国船舶集团有限公司第七一一研究所 残饵监测方法、装置、系统和存储介质
WO2023194319A1 (en) * 2022-04-07 2023-10-12 Signify Holding B.V. Methods and systems for determining a spatial feed insert distribution for feeding crustaceans
CN117095197A (zh) * 2023-06-28 2023-11-21 青岛励图高科信息技术有限公司 基于视觉的鱼类进食状态识别方法、系统、装置和设备

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111240200A (zh) * 2020-01-16 2020-06-05 北京农业信息技术研究中心 鱼群投饵控制方法、鱼群投饵控制装置及投饵船
CN111325181A (zh) * 2020-03-19 2020-06-23 北京海益同展信息科技有限公司 一种状态监测方法、装置、电子设备及存储介质
CN113592896A (zh) * 2020-04-30 2021-11-02 中国农业大学 基于图像处理的鱼类投喂方法、系统、设备及存储介质
CN113349111A (zh) * 2021-05-25 2021-09-07 中国农业大学 一种用于水产养殖物的动态投喂方法、系统和存储介质
CN114627554A (zh) * 2022-03-14 2022-06-14 江西增鑫科技股份有限公司 一种水产品自动化养殖投饲集中管理方法及系统
WO2023194319A1 (en) * 2022-04-07 2023-10-12 Signify Holding B.V. Methods and systems for determining a spatial feed insert distribution for feeding crustaceans
CN116778309A (zh) * 2022-10-24 2023-09-19 中国船舶集团有限公司第七一一研究所 残饵监测方法、装置、系统和存储介质
CN117095197A (zh) * 2023-06-28 2023-11-21 青岛励图高科信息技术有限公司 基于视觉的鱼类进食状态识别方法、系统、装置和设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
吴博 等: "视频轨迹分析技术在昆虫行为学研究中的应用", 《植物保护》, vol. 35, no. 2, 31 December 2009 (2009-12-31), pages 1 - 6 *
黄滨 等: "工业化循环水福利养殖关键技术与智能装备的研究", 《水产学报》, vol. 37, no. 11, 31 December 2013 (2013-12-31), pages 1750 - 1760 *

Similar Documents

Publication Publication Date Title
Hu et al. Real-time detection of uneaten feed pellets in underwater images for aquaculture using an improved YOLO-V4 network
Yang et al. Deep learning for smart fish farming: applications, opportunities and challenges
Zhou et al. Near infrared computer vision and neuro-fuzzy model-based feeding decision system for fish in aquaculture
Mohamed et al. Msr-yolo: Method to enhance fish detection and tracking in fish farms
An et al. Application of computer vision in fish intelligent feeding system—A review
EP3789934A1 (en) Method for calculating deviation relations of a population
Zion The use of computer vision technologies in aquaculture–a review
Kellenberger et al. 21 000 birds in 4.5 h: efficient large‐scale seabird detection with machine learning
US11532153B2 (en) Splash detection for surface splash scoring
CN110547210B (zh) 饲料供给方法及系统、计算机系统、存储介质
Feng et al. Fish feeding intensity quantification using machine vision and a lightweight 3D ResNet-GloRe network
Zhang et al. Intelligent fish feeding based on machine vision: A review
Isa et al. CNN transfer learning of shrimp detection for underwater vision system
Zhang et al. MSIF-MobileNetV3: An improved MobileNetV3 based on multi-scale information fusion for fish feeding behavior analysis
Barbedo Computer-aided disease diagnosis in aquaculture: current state and perspectives for the future.
CN115797844A (zh) 一种基于神经网络的鱼体鱼病检测方法及系统
Liu et al. A multitask model for realtime fish detection and segmentation based on YOLOv5
Du et al. A novel automatic detection method for breeding behavior of broodstock based on improved YOLOv5
CN110796197A (zh) 鱼种识别方法及系统
Xu et al. Behavioral response of fish under ammonia nitrogen stress based on machine vision
Sun et al. Water quality parameter analysis model based on fish behavior
Cao et al. Learning-based low-illumination image enhancer for underwater live crab detection
CN113615629A (zh) 水产养殖水质监控方法、终端设备及可读存储介质
Bowman et al. Analysis of an optical imaging system prototype for autonomously monitoring zooplankton in an aquaculture facility
CN117456310A (zh) 智能投饵方法及水产生物状态识别模型的训练方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination