BE1029938B1 - METHOD, PLATFORM AND TERMINAL FOR FISH IDENTIFICATION IN FISH FISH FARMING - Google Patents

METHOD, PLATFORM AND TERMINAL FOR FISH IDENTIFICATION IN FISH FISH FARMING Download PDF

Info

Publication number
BE1029938B1
BE1029938B1 BE20235222A BE202305222A BE1029938B1 BE 1029938 B1 BE1029938 B1 BE 1029938B1 BE 20235222 A BE20235222 A BE 20235222A BE 202305222 A BE202305222 A BE 202305222A BE 1029938 B1 BE1029938 B1 BE 1029938B1
Authority
BE
Belgium
Prior art keywords
fish
identification
samples
farming
bank
Prior art date
Application number
BE20235222A
Other languages
French (fr)
Other versions
BE1029938A1 (en
Inventor
Shijing Liu
Cheng Qian
Xueying Tu
Guondong Li
Original Assignee
Fishery Machinery & Instrument Res Inst Cafs
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fishery Machinery & Instrument Res Inst Cafs filed Critical Fishery Machinery & Instrument Res Inst Cafs
Publication of BE1029938A1 publication Critical patent/BE1029938A1/en
Application granted granted Critical
Publication of BE1029938B1 publication Critical patent/BE1029938B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K61/00Culture of aquatic animals
    • A01K61/90Sorting, grading, counting or marking live aquatic animals, e.g. sex determination
    • A01K61/95Sorting, grading, counting or marking live aquatic animals, e.g. sex determination specially adapted for fish
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/096Transfer learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/80Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in fisheries management
    • Y02A40/81Aquaculture, e.g. of fish

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Environmental Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Zoology (AREA)
  • Human Computer Interaction (AREA)
  • Animal Husbandry (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Est divulgué un procédé d'identification de poissons en pisciculture, comprenant : l'élaboration d'une banque d'échantillons d'images de poisson ; l'extraction de formes et de positions de têtes de poisson et de queues de poisson à partir d'échantillons d'images de poisson pour élaborer une banque de caractéristiques d'identification de poissons conjointe de corps de poisson, de têtes de poisson et de queues de poisson ; l'élaboration d'un modèle d'apprentissage par transfert d'identification de poissons, le pré-apprentissage de la banque d'échantillons d'images de poisson selon la banque de caractéristiques d'identification de poissons, et l'identification de poissons en pisciculture par le biais du modèle d'apprentissage par transfert d'identification de poissons ; la construction d'un petit ensemble de données d'échantillons d'échantillons à tester ; l'entraînement du modèle de transfert d'identification de poissons pré-appris à nouveau en utilisant le petit ensemble d'échantillons; et l'entrée des images de poisson obtenues dans le modèle de transfert d'identification de poissons pour identifier les poissons individuels et les espèces de poisson.A method for identifying fish in fish farming is disclosed, comprising: developing a bank of fish image samples; extracting shapes and positions of fish heads and fish tails from fish image samples to construct a joint fish identification feature bank of fish bodies, fish heads and fish tails; developing a fish identification transfer learning model, pre-training the fish image sample bank according to the fish identification feature bank, and identifying fish in fish farming through the transfer learning model of fish identification; constructing a small data set of sample samples to test; training the pre-learned fish identification transfer model again using the small sample set; and inputting the resulting fish images into the fish identification transfer model to identify individual fish and fish species.

Description

PROCEDE, PLATEFORME ET TERMINAL D’IDENTIFICATION DE POISSONS ENMETHOD, PLATFORM AND TERMINAL FOR FISH IDENTIFICATION IN

PISCICULTUREFISH CULTURE

CONTEXTE DE L'INVENTIONBACKGROUND OF THE INVENTION

[0001] 1. Domaine technique[0001] 1. Technical field

[0002] La présente invention appartient au domaine technique de la pisciculture, en particulier à un procédé, une plateforme et un terminal d’identification de poissons en pisciculture.[0002] The present invention belongs to the technical field of fish farming, in particular to a method, a platform and a terminal for identifying fish in fish farming.

[0003] 2. Description de l’art connexe[0003] 2. Description of the related art

[0004] Dans le processus de production de poisson et de surveillance de la protection de l’environnement, il est très important de guider la production aquacole en mesurant avec exactitude les statuts phénotypiques des poissons sous l’eau, et ensuite en obtenant les tailles des poissons et en estimant avec exactitude leurs stades de croissance.[0004] In the process of fish production and environmental protection monitoring, it is very important to guide aquaculture production by accurately measuring the phenotypic statuses of fish underwater, and then obtaining the sizes fish and accurately estimating their growth stages.

Pour réaliser une mesure efficace sur les phénotypes des poissons sous l’eau, une identification exacte et efficace des poissons sous l’eau est une condition préalable. De plus, si les directions de forme de corps de poisson peuvent être identifiées sur la base de l’identification des poissons, la plage de recherche des points caractéristiques des mesures phénotypiques sera efficacement réduite, et une fondation sera posée pour réaliser une mesure à haut débit des cibles sous l’eau.To achieve effective measurement on underwater fish phenotypes, accurate and efficient identification of underwater fish is a prerequisite. In addition, if fish body shape directions can be identified on the basis of fish identification, the search range of characteristic points of phenotypic measurements will be effectively reduced, and a foundation will be laid for realizing high-speed measurement. flow rate of underwater targets.

BREF RÉSUMÉ DE L'INVENTIONBRIEF SUMMARY OF THE INVENTION

[0005] Un mode de réalisation de la présente invention porte sur un procédé intégré d’identification de poissons individuels sous l’eau et de directions de forme de corps sur la base d’un apprentissage par transfert, comportant les étapes de :[0005] One embodiment of the present invention relates to an integrated method of identifying individual fish underwater and body shape directions based on transfer learning, comprising the steps of:

[0006] élaboration d’une banque d’échantillons d’images de poisson ;[0006] development of a bank of fish image samples;

[0007] extraction de formes et de positions de têtes de poisson et de queues de[0007] extraction of shapes and positions of fish heads and tails

° BE2023/5222 poisson à partir d’échantillons d'images de poisson pour élaborer une banque de caractéristiques d’identification de poissons conjointe de corps de poisson, de têtes de poisson et de queues de poisson ;° BE2023/5222 fish from samples of fish images to develop a joint fish identification feature bank of fish bodies, fish heads and fish tails;

[0008] élaboration d’un modèle d’apprentissage par transfert d’identification de poissons, pré-apprentissage de la banque d’échantillons d’images de poisson selon la banque de caractéristiques d’identification de poissons, et identification de poissons en pisciculture par le biais du modèle d’apprentissage par transfert d’identification de poissons ;[0008] development of a transfer learning model for fish identification, pre-learning of the bank of fish image samples according to the bank of fish identification characteristics, and identification of fish in fish farming through the fish identification transfer learning model;

[0009] construction d’un petit ensemble d’échantillons d’échantillons à tester, où le petit ensemble d’échantillons fait référence à un ensemble d’un nombre relativement petit d’échantillons dans un scénario spécifique ;[0009] construction of a small set of samples of samples to be tested, where the small set of samples refers to a set of a relatively small number of samples in a specific scenario;

[0010] entraînement du modèle de transfert d’identification de poissons pré-appris à nouveau en utilisant le petit ensemble d’échantillons ; et[0010] training the pre-learned fish identification transfer model again using the small set of samples; And

[0011] entrée des images de poisson obtenues dans le modèle de transfert d’identification de poissons pour identifier les poissons individuels.[0011] input of the obtained fish images into the fish identification transfer model to identify individual fish.

BRÈVE DESCRIPTION DES PLUSIEURS VUES DES DESSINSBRIEF DESCRIPTION OF THE SEVERAL VIEWS OF THE DRAWINGS

[0012] À la lecture de la description détaillée suivante en référence aux dessins joints, les objectifs, caractéristiques et avantages ci-dessus et autres objectifs, caractéristiques et avantages des modes de réalisation donnés à titre d’exemple de la présente invention seront plus faciles à comprendre. Sur les dessins, un certain nombre de modes de réalisation de la présente invention sont montrés d’une manière donnée à titre d’exemple et non limitative.[0012] On reading the following detailed description with reference to the accompanying drawings, the above objectives, characteristics and advantages and other objectives, characteristics and advantages of the exemplary embodiments of the present invention will be easier to understand. In the drawings, a number of embodiments of the present invention are shown in a manner given by way of example and not limitation.

[0013] La Fig. 1 est un organigramme d’un procédé d’identification de poissons en pisciculture selon un mode de réalisation de la présente invention.[0013] Fig. 1 is a flowchart of a method for identifying fish in fish farming according to one embodiment of the present invention.

[0014] La Fig. 2 est un diagramme schématique structural d’un modèle de réseau[0014] Fig. 2 is a structural schematic diagram of a network model

> BE2023/5222 d’identification de corps de poisson CNNF-1 selon un mode de réalisation de la présente invention.> BE2023/5222 for identification of CNNF-1 fish bodies according to one embodiment of the present invention.

DESCRIPTION DÉTAILLÉE DE L'INVENTIONDETAILED DESCRIPTION OF THE INVENTION

[0015] À l’heure actuelle, la technologie d’identification pour les cibles de poissons sous l’eau emploie principalement un procédé d’identification pour un ensemble d’échantillons spécifique. Lorsque les changements de cibles identifiées dépassent un espace d’ensemble d’échantillons initial, il est nécessaire de créer un nouvel ensemble d’échantillons et de reconstruire un algorithme d’identification, ce qui est chronophage et laborieux et n’est pas propice à la popularisation et à l’application de la technologie. En particulier lorsqu’il existe peu d’échantillons de poisson observés, les procédés d’identification existants basés sur un ensemble d’échantillons spécifique ne peuvent pas permettre d’obtenir une identification efficace. De plus, les algorithmes d’apprentissage existants identifient seulement les poissons individuels, et il n’existe aucun procédé d’identification qui intègre une identification individuelle à une identification de la direction de forme de corps.[0015] At present, identification technology for underwater fish targets mainly employs an identification method for a specific set of samples. When the changes of identified targets exceed an initial sample set space, it is necessary to create a new sample set and reconstruct an identification algorithm, which is time-consuming and laborious and not conducive to popularization and application of technology. Particularly when there are few observed fish samples, existing identification methods based on a specific sample set cannot achieve effective identification. Furthermore, existing learning algorithms only identify individual fish, and there is no identification method that integrates individual identification with body shape direction identification.

[0016] En tant que procédé important d’apprentissage incrémental, l’apprentissage par transfert a été largement utilisé dans de nombreux domaines, mais il n’existe toujours pas de modèle efficace d’identification de poisson. De plus, il existe peu d’échantillons de poisson dans la banque d’échantillons générale internationale à l’heure actuelle, ce qui ne peut pas répondre aux besoins de l’apprentissage par transfert de poisson.[0016] As an important incremental learning method, transfer learning has been widely used in many fields, but there is still no effective fish identification model. In addition, there are few fish samples in the international general sample bank at present, which cannot meet the needs of fish transfer learning.

[0017] Selon un ou plusieurs modes de réalisation, un procédé d’identification de poissons en pisciculture, telle que montré sur la Fig. 1, comporte les étapes suivantes :[0017] According to one or more embodiments, a method for identifying fish in fish farming, as shown in Fig. 1, includes the following steps:

[0018] S101, des poissons types présentant une signification représentative sont sélectionnés pour élaborer une banque d’échantillons de poisson, et des images sont prétraitées selon des normes unifiées ;[0018] S101, typical fish with representative significance are selected to develop a fish sample bank, and images are preprocessed according to unified standards;

* BE2023/5222* BE2023/5222

[0019] S102, les positions de têtes de poisson et de queues de poisson sont extraites à partir de données prétraitées pour élaborer une banque de caractéristiques conjointes de corps de poisson, de têtes de poisson et de queues de poisson ;[0019] S102, the positions of fish heads and fish tails are extracted from preprocessed data to develop a bank of joint characteristics of fish bodies, fish heads and fish tails;

[0020] S103, les données prétraitées sont classées pour obtenir un ensemble d’entraînement et un ensemble de test ;[0020] S103, the preprocessed data is classified to obtain a training set and a test set;

[0021] S104, un modèle d’apprentissage par transfert de poisson est élaboré et pré-appris avec une banque d’échantillons de classification ;[0021] S104, a fish transfer learning model is developed and pre-learned with a bank of classification samples;

[0022] S105, un petit ensemble de données d’échantillons d’échantillons à tester est construit ;[0022] S105, a small data set of samples of samples to be tested is constructed;

[0023] S106, le modèle de transfert pré-appris est ré-entraîné avec des petits échantillons ;[0023] S106, the pre-learned transfer model is re-trained with small samples;

[0024] S107, des images de poisson sont entrées dans le modèle entraîné pour identifier les poissons individuels tout d’abord ;[0024] S107, fish images are input to the trained model to identify individual fish first;

[0025] S108, un rectangle de délimitation minimal des poissons individuels est élaboré, et ensuite l’axe horizontal et l’axe vertical du rectangle de délimitation subissent une expansion de 10 pixels respectivement pour élaborer une nouvelle zone d’identification, dans laquelle les positions de têtes de poisson et de queues de poisson sont identifiées en utilisant un algorithme d’apprentissage par transfert ;[0025] S108, a minimum bounding rectangle of the individual fish is developed, and then the horizontal axis and the vertical axis of the bounding rectangle are expanded by 10 pixels respectively to develop a new identification zone, in which the positions of fish heads and fish tails are identified using a transfer learning algorithm;

[0026] S109, un positionnement intégré des poissons individuels et d’une direction de forme de corps est mis en œuvre en prenant le point central du rectangle de délimitation minimal des têtes de poisson et des queues de poisson comme point de positionnement directionnel, et la direction d’une ligne reliant les queues de poisson aux têtes de poisson comme direction de forme de corps.[0026] S109, integrated positioning of individual fish and body shape direction is implemented by taking the center point of the minimum bounding rectangle of fish heads and fish tails as the directional positioning point, and the direction of a line connecting fish tails to fish heads as the direction of body shape.

[0027] Le mode de réalisation de la présente invention a l’effet bénéfique que l’efficacité et l’exactitude de l’identification d’image de poissons dans une pisciculture existante sont améliorées par le procédé intégré d’identification de poissons et[0027] The embodiment of the present invention has the beneficial effect that the efficiency and accuracy of fish image identification in an existing fish farm are improved by the integrated fish identification method and

> BE2023/5222 d’identification de direction de forme de corps basée sur un apprentissage par transfert.> BE2023/5222 for body shape direction identification based on transfer learning.

[0028] Selon un ou plusieurs modes de réalisation, un procédé d’identification de poissons en pisciculture comporte les étapes suivantes :[0028] According to one or more embodiments, a method for identifying fish in fish farming comprises the following steps:

[0029] S1, pour les espèces aquacoles domestiques courantes et les espèces protégées, les poissons courants de cypriniformes et sliuriformes, tels que les carpes argentées, le cyprinoïde, le carassin, macrura reevesii, pelteobagrus fulvidraco, acipenser dabryanus et leiocassis longirostris, à partir desquels un grand nombre d’échantillons sont facilement obtenus, sont préalablement classés en cyprinoideae, hypophthalmichthyinae, cobitinae, acipenserinae et bagridae pour élaborer une banque d’échantillons de poisson de familles et de genres.[0029] S1, for common domestic aquaculture species and protected species, common cypriniformes and sliuriformes fish, such as silver carp, cyprinoid, crucian carp, macrura reevesii, pelteobagrus fulvidraco, acipenser dabryanus and leiocassis longirostris, from from which a large number of samples are easily obtained, are previously classified into cyprinoideae, hypophthalmichthyinae, cobitinae, acipenserinae and bagridae to develop a bank of fish samples of families and genera.

[0030] S2, des ensembles d’échantillons d’entraînement et de test sont construits sur la base de cibles de corps de poisson, de tête de poisson et de queue de poisson, et des images dans les ensembles d’échantillons sont étalonnées selon des images miroirs par rotation de -30°, -60°, 30° et 60° et mise à l’échelle 1:2, 1:0,75, 1:0,5 et 1:0,25 respectivement pour augmenter le nombre d’échantillons.[0030] S2, training and test sample sets are constructed based on fish body, fish head and fish tail targets, and images in the sample sets are calibrated according to mirror images by rotating -30°, -60°, 30° and 60° and scaling 1:2, 1:0.75, 1:0.5 and 1:0.25 respectively to increase the number of samples.

[0031] S3, une couche entièrement connectée est ajoutée à la fin d’un modèle pré-entraîné VGG19 pour élaborer un modèle d'apprentissage par transfert.[0031] S3, a fully connected layer is added at the end of a pre-trained model VGG19 to develop a transfer learning model.

[0032] S4, un algorithme d’optimisation par descente de gradient par lots dans lequel BatchSize est défini comme étant 20 est sélectionné, un algorithme par descente de gradient aléatoire dans lequel le taux d’apprentissage est défini comme étant 0,0001 est sélectionné, et Softmax est sélectionné comme fonction de perte.[0032] S4, a batch gradient descent optimization algorithm in which BatchSize is defined as 20 is selected, a random gradient descent algorithm in which the learning rate is defined as 0.0001 is selected , and Softmax is selected as the loss function.

[0033] S5, les paramètres de toutes les couches convolutionnelles à l'extérieur de la couche entièrement connectée sont gelés, et le modèle élaboré est entraîné avec des classes de sous-famille en tant que classes de sortie de la couche entièrement connectée et la banque d’échantillons de poisson de familles et de genres en tant que base pour obtenir un progiciel de modèle convolutionnel de classification de poissons préliminaire.[0033] S5, the parameters of all convolutional layers outside the fully connected layer are frozen, and the developed model is trained with subfamily classes as output classes of the fully connected layer and the bank of fish samples of families and genera as a basis for obtaining a preliminary fish classification convolutional model package.

© BE2023/5222© BE2023/5222

[0034] S6, des donnees d’objet cible d’un scenario de croisement specifique ou d’un scénario d’investigation biologique sont collectées, et une petite banque d’échantillons pour identifier les cibles avec exactitude est élaborée selon les cibles à identifier.[0034] S6, target object data of a specific crossing scenario or a biological investigation scenario are collected, and a small bank of samples to identify the targets accurately is developed according to the targets to be identified .

[0035] S7, le modèle d’apprentissage par transfert entraîné est ré-entraîné en ouvrant les paramètres de la couche entièrement connectée et des 1 à 3 couches convolutionnelles adjacentes.[0035] S7, the trained transfer learning model is retrained by opening the parameters of the fully connected layer and the 1 to 3 adjacent convolutional layers.

[0036] S8, un petit algorithme d’optimisation par descente de gradient par lots dans lequel MiniBatchSize est défini comme étant 10 est sélectionné, un algorithme par descente de gradient aléatoire dans lequel le taux d’apprentissage est défini comme étant 0,0001 est sélectionné, Softmax est sélectionné comme fonction de perte, et les données sont remaniées une fois par cycle d’entraînement.[0036] S8, a small batch gradient descent optimization algorithm in which MiniBatchSize is set to be 10 is selected, a random gradient descent algorithm in which the learning rate is set to be 0.0001 is selected, Softmax is selected as the loss function, and the data is reshuffled once per training cycle.

[0037] S9, les résultats expérimentaux sont comparés et analysés par intégration de l’exactitude de l’identification et de l’efficacité de l’identification, et des modèles de réseau sont déterminés lorsque quelques couches convolutionnelles adjacentes à la couche entièrement connectée sont sélectionnées et que l’erreur d’exactitude d’identification entre deux couches convolutionnelles sélectionnées est inférieure à 1%. Un réseau d’identification de corps de poisson CNNF-1, un réseau d’identification de tête de poisson[0037] S9, the experimental results are compared and analyzed by integrating the identification accuracy and the identification efficiency, and network models are determined when a few convolutional layers adjacent to the fully connected layer are selected and the identification accuracy error between two selected convolutional layers is less than 1%. A fish body identification network CNNF-1, a fish head identification network

CNNFH-2 et un réseau d’identification de queue de poisson CNNFT-2 sont construits respectivement.CNNFH-2 and CNNFT-2 fishtail identification network are constructed respectively.

[0038] S10, des images de poisson dans un environnement de travail réel sont collectées, et des canaux RVB des images initiales sont filtrés au moyen d’un filtrage gaussien pour éliminer le bruit d’image.[0038] S10, images of fish in a real working environment are collected, and RGB channels of the initial images are filtered using Gaussian filtering to eliminate image noise.

[0039] S11, les données échantillonnées réelles sont identifiées en utilisant le modèle d'apprentissage par transfert entraîné, où les positions de poissons individuels dans les données sont tout d’abord identifiées en utilisant le modèle CNNF-1, et un[0039] S11, the actual sampled data is identified using the trained transfer learning model, where the positions of individual fish in the data are first identified using the CNNF-1 model, and a

7 BE2023/5222 rectangle de délimitation minimal de cibles identifiées est déterminé.7 BE2023/5222 minimum bounding rectangle of identified targets is determined.

[0040] S12, en prenant le centre du rectangle comme point de référence de positionnement, les directions de longueur et de largeur du rectangle de délimitation minimal subissent une expansion de 10 pixels respectivement pour augmenter la longueur de 20 pixels et la largeur de 20 pixels au total, pour construire une nouvelle zone à identifier.[0040] S12, taking the center of the rectangle as the positioning reference point, the length and width directions of the minimum bounding rectangle undergo an expansion of 10 pixels respectively to increase the length by 20 pixels and the width by 20 pixels in total, to construct a new area to be identified.

[0041] S13, les positions de têtes de poisson et de queues de poisson sont identifiées dans la nouvelle zone à identifier, en utilisant les modèles CNNFH-2 et[0041] S13, the positions of fish heads and fish tails are identified in the new area to be identified, using the models CNNFH-2 and

CNNFT-2 respectivement.CNNFT-2 respectively.

[0042] S14, lorsque les positions de têtes de poisson et de queues de poisson peuvent être identifiées simultanément, les objets de poisson identifiés sont retenus pour déterminer les directions de mouvement à l’étape suivante ; ou lorsque les positions de têtes de poisson et de queues de poisson ne peuvent pas être identifiées simultanément, les cibles sont abandonnées, mais les cibles sont stockées comme images de banque d’échantillons de remplacement pour réserver les échantillons pour l’apprentissage incrémental.[0042] S14, when the positions of fish heads and fish tails can be identified simultaneously, the identified fish objects are retained to determine the movement directions in the next step; or when the positions of fish heads and fish tails cannot be identified simultaneously, the targets are dropped, but the targets are stored as replacement sample bank images to reserve the samples for incremental learning.

[0043] S15, un rectangle de délimitation minimal des positions identifiées de têtes de poisson et de queues de poisson est construit, une position centrale du rectangle est calculée, les queues de poisson et les têtes de poisson sont reliées par des lignes droites, et les directions des lignes droites sont prises comme directions de déplacement cibles des poissons.[0043] S15, a minimum bounding rectangle of the identified positions of fish heads and fish tails is constructed, a central position of the rectangle is calculated, the fish tails and the fish heads are connected by straight lines, and the directions of the straight lines are taken as the target movement directions of the fish.

[0044] Selon un ou plusieurs modes de réalisation, des échantillons expérimentaux sont collectés avec des poissons cultivés courants et des espèces de poisson protégées cultivées dans un centre de protection comme cibles, où le modèle pré-appris collecte 12330 images de carpes de roseau, de cyprinoïde, de macrura reevesii, de carpes argentées tachetées, de carpes argentées, d’acipenser dabryanus, etc. Les poissons à tester,[0044] According to one or more embodiments, experimental samples are collected with common cultivated fish and protected fish species cultivated in a protection center as targets, where the pre-learned model collects 12330 images of grass carp, cyprinoid, macrura reevesii, spotted silver carp, silver carp, acipenser dabryanus, etc. Fish to test,

sélectionnés à partir de la base de mise en œuvre, sont le carassin, parabramis pekinensis et leiocassis longirostris, et 200 images sont collectées à partir de chaque poisson. Le modèle pré-entraîné est entraîné avec des petits échantillons pour élaborer le modèle d’identification final.selected from the implementation base, are crucian carp, parabramis pekinensis and leiocassis longirostris, and 200 images are collected from each fish. The pre-trained model is trained with small samples to build the final identification model.

[0045] Pendant la mise en œuvre sur le terrain, 280 images de carassin, 220 images de parabramis pekinensis, et 86 images de leiocassis longirostris sont collectées. Les résultats de l’identification de poissons montrent que le taux d’identification de carassin est de 99%, le taux d’identification de parabramis pekinensis est de 100 %, le taux d’identification de leiocassis longirostris est de 98,8 %, et l’exactitude d’identification globale des poissons atteint 99,6 %.[0045] During implementation in the field, 280 images of crucian carp, 220 images of parabramis pekinensis, and 86 images of leiocassis longirostris are collected. The fish identification results show that the identification rate of crucian carp is 99%, the identification rate of parabramis pekinensis is 100%, the identification rate of leiocassis longirostris is 98.8%, and the overall fish identification accuracy reaches 99.6%.

[0046] Des têtes de poisson et des queues de poisson sont positionnées et identifiées à partir des images de poisson identifiées, et les exactitudes d’identification sont pour le carassin (têtes de poisson : 99 %, queues de poisson : 98 %), parabramis pekinensis (têtes de poisson : 98 %, queues de poisson : 98 %), et leiocassis longirostris (têtes de poisson: 100%, queues de poisson: 97%). La structure du modèle d’apprentissage par transfert d’identification de poissons élaboré est comme suit.[0046] Fish heads and fish tails are positioned and identified from the identified fish images, and the identification accuracies are for crucian carp (fish heads: 99%, fish tails: 98%), parabramis pekinensis (fish heads: 98%, fish tails: 98%), and leiocassis longirostris (fish heads: 100%, fish tails: 97%). The structure of the developed fish identification transfer learning model is as follows.

[0047][0047]

Nom de la couche de Paramètre Nom de la Paramètre réseau couche de réseauParameter Layer Name Network Parameter Layer Name

ImageinputImageinput Taille : (224, 224, 3) Conv512 2 Taille : (3, 3)ImageinputImageinput Size: (224, 224, 3) Conv512 2 Size: (3, 3)

Nombre : 512Number: 512

Convé4_1 Taille : (3, 3) Nombre : 64 | Conv512 3 Taille : (3, 3)Convé4_1 Size: (3, 3) Number: 64 | Conv512 3 Size: (3, 3)

Nombre : 512Number: 512

Conv64 2 Taille: (3,3) Nombre: | Maxpool512 2 Taille : (3, 3) 64 Longueur de l’étape : (2,2Conv64 2 Size: (3,3) Number: | Maxpool512 2 Size: (3, 3) 64 Step length: (2,2

Maxpool64_1 Taille : (3, 3) Conv512_4 Taille : (3, 3)Maxpool64_1 Size: (3, 3) Conv512_4 Size: (3, 3)

Longueur de Nombre : 512 l’étape : (2,2Number Length: 512 Step: (2.2

Conv128 1 Taille : (3,3) Nombre : | Conv512 5 Taille : (3, 3) 128 Nombre : 512Conv128 1 Size: (3.3) Number: | Conv512 5 Size: (3, 3) 128 Number: 512

Conv128 2 Taille : (3,3) Nombre: | Conv512 6 Taille : (3, 3) 128 Nombre : 512Conv128 2 Size: (3.3) Number: | Conv512 6 Size: (3, 3) 128 Number: 512

Maxpool128 1 Taille : (3,3) Maxpool512 3 Taille : (3, 3)Maxpool128 1 Size: (3,3) Maxpool512 3 Size: (3, 3)

Longueur de Longueur de l’étape : (2,2 l’étape : (2, 2Step Length Length: (2,2 Step Length: (2, 2

Conv256 1 Taille : (3,3) _ Nombre : | FullyConn 1 Nombre : 4096Conv256 1 Size: (3.3) _ Number: | FullyConn 1 Number: 4096

) BE2023/5222) BE2023/5222

HiHi

Longueur de l’étape : (2,2Step length: (2.2

N.NOT.

[0048] L’homme du métier peut réaliser que les unités et les étapes de procédé de chaque exemple décrit en combinaison avec les modes de réalisation divulgués dans la présente divulgation peuvent être mises en œuvre par un matériel électronique, un logiciel informatique ou une combinaison des deux. Afin de décrire clairement l’interchangeabilité du matériel et du logiciel, la composition et les étapes de chaque exemple sont décrites généralement ci-dessus selon les fonctions. Le fait que ces fonctions soient exécutées par un matériel ou un logiciel dépend d’une application spécifique et de conditions de contraintes de conception de la solution technique. Les professionnels peuvent utiliser différents procédés pour mettre en œuvre les fonctions décrites pour chaque application spécifique, mais une telle mise en œuvre ne doit pas être considérée au-delà de la portée de la présente invention.[0048] Those skilled in the art may realize that the units and process steps of each example described in combination with the embodiments disclosed in the present disclosure may be implemented by electronic hardware, computer software, or a combination both. In order to clearly describe the interchangeability of hardware and software, the composition and steps of each example are generally described above according to functions. Whether these functions are performed by hardware or software depends on a specific application and design constraint conditions of the technical solution. Professionals may use different methods to implement the functions described for each specific application, but such implementation should not be considered beyond the scope of the present invention.

[0049] Dans les plusieurs modes de réalisation fournis dans la demande, il est entendu que les systèmes, dispositifs et procédés divulgués peuvent être réalisés dans d’autres modes. Par exemple, le mode de réalisation de l’appareil décrit ci-dessus est seulement donné à titre d’exemple. Par exemple, la division des unités est seulement une division de fonction logique, d’autres modes de division peuvent être adoptés en pratique.[0049] In the several embodiments provided in the application, it is understood that the systems, devices and methods disclosed can be realized in other modes. For example, the embodiment of the apparatus described above is only given by way of example. For example, the division of units is only a logical function division, other modes of division can be adopted in practice.

Par exemple, une pluralité d’unités ou de composants peuvent être combinés ou intégrés dans un autre système, ou certaines caractéristiques peuvent être omises ou ne sont pas exécutées. De plus, le couplage mutuel ou le couplage direct ou la connexion de communication affiché ou exposé peut être un couplage indirect ou une connexion de communication de dispositifs ou d’unités par le biais de certaines interfaces, et peutFor example, a plurality of units or components may be combined or integrated into another system, or certain features may be omitted or not performed. In addition, the mutual coupling or direct coupling or communication connection displayed or exposed may be an indirect coupling or communication connection of devices or units through certain interfaces, and may

0 BE2023/5222 également être sous des formes électriques, mécaniques ou autres formes.0 BE2023/5222 also be in electrical, mechanical or other forms.

[0050] Les unités illustrées comme des composants séparés peuvent être ou peuvent ne pas être physiquement séparées, et les composants affichés comme des unités peuvent être ou peuvent ne pas être des unités physiques, à savoir, les composants peuvent être positionnés à un endroit ou peuvent également être répartis sur une pluralité d’unités de réseau. Les objectifs des solutions des modes de réalisation de la présente invention peuvent être remplis en sélectionnant une partie ou la totalité des unités selon les besoins réels.[0050] Units shown as separate components may or may not be physically separate, and components shown as units may or may not be physical units, i.e., components may be positioned in one location or location. can also be distributed across a plurality of network units. The solution objectives of the embodiments of the present invention can be achieved by selecting some or all of the units according to actual needs.

[0051] De plus, les unités fonctionnelles dans les modes de réalisation de la présente invention peuvent être intégrées dans une unité de traitement, ou chacune des unités peut exister seule physiquement, ou deux unités ou plus peuvent être intégrées dans une unité. L’unité intégrée peut être mise en œuvre sous la forme de matériel, ou peut être mise en œuvre sous la forme d’une unité fonctionnelle logicielle.[0051] Additionally, the functional units in the embodiments of the present invention may be integrated into a processing unit, or each of the units may physically exist alone, or two or more units may be integrated into a unit. The integrated unit may be implemented in the form of hardware, or may be implemented in the form of a software functional unit.

[0052] Lorsque l’unité intégrée est réalisée sous la forme d’une unité fonctionnelle logicielle et vendue ou utilisée comme un produit indépendant, l’unité intégrée peut être stockée dans un support de stockage lisible par ordinateur. Sur la base d’une telle compréhension, la solution technique de la présente invention sensiblement, ou la partie de la présente invention contribuant à l’art antérieur, ou une partie de la solution technique peuvent être incorporées sous la forme d’un produit logiciel, et le produit logiciel informatique est stocké dans un support de stockage, qui comporte une pluralité d’instructions permettant à l’équipement informatique (qui peut être un ordinateur personnel, un serveur, ou un équipement de réseau et analogues) d’exécuter la totalité ou une partie des étapes dans les procédés des modes de réalisation de la présente invention.[0052] When the integrated unit is produced in the form of a software functional unit and sold or used as an independent product, the integrated unit can be stored in a computer-readable storage medium. Based on such understanding, the technical solution of the present invention substantially, or the part of the present invention contributing to the prior art, or part of the technical solution may be incorporated in the form of a software product , and the computer software product is stored in a storage medium, which includes a plurality of instructions enabling the computer equipment (which may be a personal computer, a server, or network equipment and the like) to execute the all or part of the steps in the methods of the embodiments of the present invention.

Le support de stockage susmentionné comporte : divers supports capables de stocker des codes de programme, tels qu’un disque U, un disque dur mobile, une mémoire morte (ROM), une mémoire vive (RAM), un disque magnétique ou un disque optique.The aforementioned storage medium includes: various media capable of storing program codes, such as U disk, mobile hard disk, read only memory (ROM), random access memory (RAM), magnetic disk or optical disk .

Claims (9)

5 REVENDICATIONS5 CLAIMS 1. Procédé d’identification de poissons en pisciculture, dans lequel le procédé comprend : l’élaboration d’une banque d’échantillons d’images de poisson ; l’extraction de formes et de positions de têtes de poisson et de queues de poisson à partir d’échantillons d’images de poisson pour élaborer une banque de caractéristiques d’identification de poissons conjointe de corps de poisson, de têtes de poisson et de queues de poisson ; et l’élaboration d’un modèle d’apprentissage par transfert d’identification de poissons, le pré-apprentissage de la banque d’échantillons d’images de poisson selon la banque de caractéristiques d’identification de poissons, et l’identification de poissons en pisciculture par le biais du modèle d’apprentissage par transfert d’identification de poissons.1. Method for identifying fish in fish farming, in which the method comprises: developing a bank of fish image samples; extracting shapes and positions of fish heads and fish tails from fish image samples to construct a joint fish identification feature bank of fish bodies, fish heads and fish tails; and developing a fish identification transfer learning model, pre-training the fish image sample bank according to the fish identification feature bank, and identifying fish in fish farming through transfer learning model of fish identification. 2. Procédé d’identification de poissons en pisciculture selon la revendication 1, comprenant en outre la construction d’un petit ensemble de données d’échantillons d’échantillons à tester ; l’entraînement du modèle de transfert d’identification de poissons pré-appris à nouveau en utilisant le petit ensemble d’échantillons ; et l’entrée des images de poisson obtenues dans le modèle de transfert d’identification de poissons pour identifier les poissons individuels et les espèces de poisson.2. Method for identifying fish in fish farming according to claim 1, further comprising constructing a small data set of samples of samples to be tested; training the pre-learned fish identification transfer model again using the small sample set; and inputting the resulting fish images into the fish identification transfer model to identify individual fish and fish species. 3. Procédé d’identification de poissons en pisciculture selon la revendication 2, comprenant en outre l’élaboration d’un rectangle de délimitation minimal des poissons individuels, et ensuite l’expansion de l’axe horizontal et de l’axe vertical du rectangle de délimitation minimal de n pixels respectivement pour élaborer une première zone d’identification ; l’identification de positions de têtes de poisson et de queues de poisson dans la première zone d’identification ; et3. Method for identifying fish in fish farming according to claim 2, further comprising developing a minimum bounding rectangle of individual fish, and then expanding the horizontal axis and the vertical axis of the rectangle minimum delimitation of n pixels respectively to develop a first identification zone; identifying positions of fish heads and fish tails in the first identification zone; And 1 BE2023/5222 le réglage de la direction d’une ligne reliant les queues de poisson aux têtes de poisson en tant que direction de forme de corps de poisson en prenant le point central du rectangle de délimitation minimal des têtes de poisson et des queues de poisson comme point de positionnement directionnel.1 BE2023/5222 setting the direction of a line connecting fish tails to fish heads as the direction of fish body shape by taking the center point of the minimum bounding rectangle of fish heads and fish tails fish as a directional positioning point. 4. Procédé d’identification de poissons en pisciculture selon la revendication 2, dans lequel des ensembles d’échantillons d’entraînement et de test sont construits sur la base de caractéristiques cibles de corps de poisson, de tête de poisson et de queue de poisson, et des images dans les ensembles d’échantillons sont étalonnées selon des images miroirs par rotation de -30°, -60°, 30° et 60° et mise à l’échelle 1:2, 1:0,75, 1:0,5 et 1:0,25 respectivement pour augmenter le nombre d’échantillons.4. Method for identifying fish in fish farming according to claim 2, wherein sets of training and test samples are constructed based on target features of fish body, fish head and fish tail , and images in the sample sets are mirror image calibrated by rotating -30°, -60°, 30° and 60° and scaling 1:2, 1:0.75, 1: 0.5 and 1:0.25 respectively to increase the number of samples. 5. Procédé d’identification de poissons en pisciculture selon la revendication 1, dans lequel une couche entièrement connectée est ajoutée à la fin d’un modèle pré-entraîné VGG19 pour élaborer le modèle d’apprentissage par transfert d’identification de poissons.5. A fish identification method in fish farming according to claim 1, wherein a fully connected layer is added at the end of a VGG19 pre-trained model to develop the fish identification transfer learning model. 6. Procédé d’identification de poissons en pisciculture selon la revendication 1, dans lequel les poissons sont classés en cyprinoideae, hypophthalmichthyinae, cobitinae, acipenserinae et bagridae pour élaborer la banque d’échantillons de poisson de familles et de genres.6. Method for identifying fish in fish farming according to claim 1, in which the fish are classified into cyprinoideae, hypophthalmichthyinae, cobitinae, acipenserinae and bagridae to develop the bank of fish samples of families and genera. 7. Plateforme d’identification de poissons en pisciculture, dans laquelle la plateforme comprend un serveur, le serveur ayant une mémoire et un processeur couplé à la mémoire, le processeur configuré pour exécuter des instructions stockées dans la mémoire, le processeur exécutant les opérations suivantes : élaboration d’une banque d’échantillons d’images de poisson ; extraction de formes et de positions de têtes de poisson et de queues de poisson à partir d’échantillons d’images de poisson pour élaborer une banque de caractéristiques d’identification de poissons conjointe de corps de poisson, de têtes de poisson et de queues7. Fish identification platform in fish farming, wherein the platform includes a server, the server having a memory and a processor coupled to the memory, the processor configured to execute instructions stored in the memory, the processor executing the following operations : development of a bank of fish image samples; extracting shapes and positions of fish heads and fish tails from sample fish images to construct a joint fish identification feature bank of fish bodies, fish heads and tails 5 de poisson ; élaboration d’un modèle d’apprentissage par transfert d’identification de poissons, pré-apprentissage de la banque d’échantillons d’images de poisson selon la banque de caractéristiques d’identification de poissons, et identification de poissons en pisciculture par le biais du modèle d’apprentissage par transfert d’identification de poissons ; construction d’un petit ensemble de données d’échantillons d’échantillons ; entraînement du modèle de transfert d’identification de poissons pré-appris à nouveau en utilisant le petit ensemble d’échantillons ; et entrée des images de poisson obtenues dans le modèle de transfert d’identification de poissons pour identifier les poissons individuels.5 of fish; developing a fish identification transfer learning model, pre-training the fish image sample bank according to the fish identification feature bank, and identifying fish in fish farming through fish identification transfer learning model; constructing a small dataset of sample samples; training the pre-learned fish identification transfer model again using the small sample set; and inputting the obtained fish images into the fish identification transfer model to identify individual fish. 8. Terminal d’identification de poissons en pisciculture, dans lequel le terminal a un dispositif d’acquisition d’images pour acquérir des images de poissons en pisciculture, et le terminal téléverse les images de poisson acquises dans la plateforme d’identification de poissons en pisciculture selon la revendication 7, et le serveur de la plateforme renvoie les résultats de l’identification au terminal d’identification après identification des poissons.8. Fish farming fish identification terminal, wherein the terminal has an image acquisition device for acquiring fish farming images, and the terminal uploads the acquired fish images to the fish identification platform in fish farming according to claim 7, and the platform server returns the results of the identification to the identification terminal after identification of the fish. 9. Support de stockage stockant un programme informatique sur celui-ci, dans lequel lorsque le programme est exécuté par un processeur, le procédé selon l’une quelconque des revendications 1 à 6 est mis en œuvre.9. Storage medium storing a computer program thereon, wherein when the program is executed by a processor, the method according to any one of claims 1 to 6 is implemented.
BE20235222A 2022-08-30 2023-03-23 METHOD, PLATFORM AND TERMINAL FOR FISH IDENTIFICATION IN FISH FISH FARMING BE1029938B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211044420.0A CN115375915A (en) 2022-08-30 2022-08-30 Fishery aquaculture fish identification method, platform and terminal

Publications (2)

Publication Number Publication Date
BE1029938A1 BE1029938A1 (en) 2023-06-14
BE1029938B1 true BE1029938B1 (en) 2023-12-13

Family

ID=84069331

Family Applications (1)

Application Number Title Priority Date Filing Date
BE20235222A BE1029938B1 (en) 2022-08-30 2023-03-23 METHOD, PLATFORM AND TERMINAL FOR FISH IDENTIFICATION IN FISH FISH FARMING

Country Status (2)

Country Link
CN (1) CN115375915A (en)
BE (1) BE1029938B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118135612B (en) * 2024-05-06 2024-08-13 浙江大学 Fish face recognition method and system coupled with body surface texture features and geometric features

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020023467A1 (en) * 2018-07-24 2020-01-30 Aquabyte, Inc. Unique identification of freely swimming fish in an aquaculture environment
KR20200109683A (en) * 2019-03-14 2020-09-23 경남과학기술대학교 산학협력단 Data Application System for Classification of Fish Species
CN113128251A (en) * 2019-12-30 2021-07-16 广东华风海洋信息系统服务有限公司 Fish face feature detection algorithm

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020023467A1 (en) * 2018-07-24 2020-01-30 Aquabyte, Inc. Unique identification of freely swimming fish in an aquaculture environment
KR20200109683A (en) * 2019-03-14 2020-09-23 경남과학기술대학교 산학협력단 Data Application System for Classification of Fish Species
CN113128251A (en) * 2019-12-30 2021-07-16 广东华风海洋信息系统服务有限公司 Fish face feature detection algorithm

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
XU XIAOLING ET AL: "Transfer learning and SE-ResNet152 networks-based for small-scale unbalanced fish species identification", COMPUTERS AND ELECTRONICS IN AGRICULTURE, ELSEVIER, AMSTERDAM, NL, vol. 180, 19 November 2020 (2020-11-19), XP086426230, ISSN: 0168-1699, [retrieved on 20201119], DOI: 10.1016/J.COMPAG.2020.105878 *

Also Published As

Publication number Publication date
CN115375915A (en) 2022-11-22
BE1029938A1 (en) 2023-06-14

Similar Documents

Publication Publication Date Title
Apolo-Apolo et al. Deep learning techniques for estimation of the yield and size of citrus fruits using a UAV
EP3789934A1 (en) Method for calculating deviation relations of a population
Andrea et al. Precise weed and maize classification through convolutional neuronal networks
US8600143B1 (en) Method and system for hierarchical tissue analysis and classification
CN109086826B (en) Wheat drought identification method based on image deep learning
BE1029938B1 (en) METHOD, PLATFORM AND TERMINAL FOR FISH IDENTIFICATION IN FISH FISH FARMING
Gélard et al. Model-based segmentation of 3D point clouds for phenotyping sunflower plants
CN115099297B (en) Soybean plant phenotype data statistical method based on improved YOLO v5 model
Bhattarai et al. A weakly-supervised approach for flower/fruit counting in apple orchards
Nagaraju et al. Fine-tuned mobilenet classifier for classification of strawberry and cherry fruit types
US12039733B2 (en) Method for identifying individuals of oplegnathus punctatus based on convolutional neural network
Sharma et al. A New Dawn for Tomato-spotted wilt virus Detection and Intensity Classification: A CNN and LSTM Ensemble Model
CN112861872A (en) Penaeus vannamei phenotype data determination method, device, computer equipment and storage medium
Yu et al. Maize tassel area dynamic monitoring based on near-ground and UAV RGB images by U-Net model
CN116295022A (en) Pig body ruler measurement method based on deep learning multi-parameter fusion
Armalivia et al. Automatic counting shrimp larvae based you only look once (YOLO)
Sangeetha et al. Prediction of Fruit Texture Features Using Deep Learning Techniques
Saeed et al. Cotton plant part 3D segmentation and architectural trait extraction using point voxel convolutional neural networks
Vijayakumar et al. A Deep Learning-based Approach for Tomato Plant Leaf Disease Detection and Classification
Guo et al. Panicle Ratio Network: streamlining rice panicle measurement by deep learning with ultra-high-definition aerial images in the field
Kongara et al. Classification and comparison study of rice plant diseases using pre-trained CNN models
WO2024113849A1 (en) Minimum inhibitory concentration recognition method, apparatus and device, and storage medium
Thotad et al. An Efficient Model for Plant Disease Detection in Agriculture Using Deep Learning Approaches
Poleshchenko et al. Detection of Sunflower Plants in UAV Photos
Nirmal et al. Farmer Friendly Smart App for Pomegranate Disease Identification

Legal Events

Date Code Title Description
FG Patent granted

Effective date: 20231213