BE1029938B1 - Procede, plateforme et terminal d'identification de poissons en pisciculture - Google Patents

Procede, plateforme et terminal d'identification de poissons en pisciculture Download PDF

Info

Publication number
BE1029938B1
BE1029938B1 BE20235222A BE202305222A BE1029938B1 BE 1029938 B1 BE1029938 B1 BE 1029938B1 BE 20235222 A BE20235222 A BE 20235222A BE 202305222 A BE202305222 A BE 202305222A BE 1029938 B1 BE1029938 B1 BE 1029938B1
Authority
BE
Belgium
Prior art keywords
fish
identification
samples
farming
bank
Prior art date
Application number
BE20235222A
Other languages
English (en)
Other versions
BE1029938A1 (fr
Inventor
Shijing Liu
Cheng Qian
Xueying Tu
Guondong Li
Original Assignee
Fishery Machinery & Instrument Res Inst Cafs
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fishery Machinery & Instrument Res Inst Cafs filed Critical Fishery Machinery & Instrument Res Inst Cafs
Publication of BE1029938A1 publication Critical patent/BE1029938A1/fr
Application granted granted Critical
Publication of BE1029938B1 publication Critical patent/BE1029938B1/fr

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K61/00Culture of aquatic animals
    • A01K61/90Sorting, grading, counting or marking live aquatic animals, e.g. sex determination
    • A01K61/95Sorting, grading, counting or marking live aquatic animals, e.g. sex determination specially adapted for fish
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/096Transfer learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/80Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in fisheries management
    • Y02A40/81Aquaculture, e.g. of fish

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Environmental Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Zoology (AREA)
  • Human Computer Interaction (AREA)
  • Animal Husbandry (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Est divulgué un procédé d'identification de poissons en pisciculture, comprenant : l'élaboration d'une banque d'échantillons d'images de poisson ; l'extraction de formes et de positions de têtes de poisson et de queues de poisson à partir d'échantillons d'images de poisson pour élaborer une banque de caractéristiques d'identification de poissons conjointe de corps de poisson, de têtes de poisson et de queues de poisson ; l'élaboration d'un modèle d'apprentissage par transfert d'identification de poissons, le pré-apprentissage de la banque d'échantillons d'images de poisson selon la banque de caractéristiques d'identification de poissons, et l'identification de poissons en pisciculture par le biais du modèle d'apprentissage par transfert d'identification de poissons ; la construction d'un petit ensemble de données d'échantillons d'échantillons à tester ; l'entraînement du modèle de transfert d'identification de poissons pré-appris à nouveau en utilisant le petit ensemble d'échantillons; et l'entrée des images de poisson obtenues dans le modèle de transfert d'identification de poissons pour identifier les poissons individuels et les espèces de poisson.

Description

PROCEDE, PLATEFORME ET TERMINAL D’IDENTIFICATION DE POISSONS EN
PISCICULTURE
CONTEXTE DE L'INVENTION
[0001] 1. Domaine technique
[0002] La présente invention appartient au domaine technique de la pisciculture, en particulier à un procédé, une plateforme et un terminal d’identification de poissons en pisciculture.
[0003] 2. Description de l’art connexe
[0004] Dans le processus de production de poisson et de surveillance de la protection de l’environnement, il est très important de guider la production aquacole en mesurant avec exactitude les statuts phénotypiques des poissons sous l’eau, et ensuite en obtenant les tailles des poissons et en estimant avec exactitude leurs stades de croissance.
Pour réaliser une mesure efficace sur les phénotypes des poissons sous l’eau, une identification exacte et efficace des poissons sous l’eau est une condition préalable. De plus, si les directions de forme de corps de poisson peuvent être identifiées sur la base de l’identification des poissons, la plage de recherche des points caractéristiques des mesures phénotypiques sera efficacement réduite, et une fondation sera posée pour réaliser une mesure à haut débit des cibles sous l’eau.
BREF RÉSUMÉ DE L'INVENTION
[0005] Un mode de réalisation de la présente invention porte sur un procédé intégré d’identification de poissons individuels sous l’eau et de directions de forme de corps sur la base d’un apprentissage par transfert, comportant les étapes de :
[0006] élaboration d’une banque d’échantillons d’images de poisson ;
[0007] extraction de formes et de positions de têtes de poisson et de queues de
° BE2023/5222 poisson à partir d’échantillons d'images de poisson pour élaborer une banque de caractéristiques d’identification de poissons conjointe de corps de poisson, de têtes de poisson et de queues de poisson ;
[0008] élaboration d’un modèle d’apprentissage par transfert d’identification de poissons, pré-apprentissage de la banque d’échantillons d’images de poisson selon la banque de caractéristiques d’identification de poissons, et identification de poissons en pisciculture par le biais du modèle d’apprentissage par transfert d’identification de poissons ;
[0009] construction d’un petit ensemble d’échantillons d’échantillons à tester, où le petit ensemble d’échantillons fait référence à un ensemble d’un nombre relativement petit d’échantillons dans un scénario spécifique ;
[0010] entraînement du modèle de transfert d’identification de poissons pré-appris à nouveau en utilisant le petit ensemble d’échantillons ; et
[0011] entrée des images de poisson obtenues dans le modèle de transfert d’identification de poissons pour identifier les poissons individuels.
BRÈVE DESCRIPTION DES PLUSIEURS VUES DES DESSINS
[0012] À la lecture de la description détaillée suivante en référence aux dessins joints, les objectifs, caractéristiques et avantages ci-dessus et autres objectifs, caractéristiques et avantages des modes de réalisation donnés à titre d’exemple de la présente invention seront plus faciles à comprendre. Sur les dessins, un certain nombre de modes de réalisation de la présente invention sont montrés d’une manière donnée à titre d’exemple et non limitative.
[0013] La Fig. 1 est un organigramme d’un procédé d’identification de poissons en pisciculture selon un mode de réalisation de la présente invention.
[0014] La Fig. 2 est un diagramme schématique structural d’un modèle de réseau
> BE2023/5222 d’identification de corps de poisson CNNF-1 selon un mode de réalisation de la présente invention.
DESCRIPTION DÉTAILLÉE DE L'INVENTION
[0015] À l’heure actuelle, la technologie d’identification pour les cibles de poissons sous l’eau emploie principalement un procédé d’identification pour un ensemble d’échantillons spécifique. Lorsque les changements de cibles identifiées dépassent un espace d’ensemble d’échantillons initial, il est nécessaire de créer un nouvel ensemble d’échantillons et de reconstruire un algorithme d’identification, ce qui est chronophage et laborieux et n’est pas propice à la popularisation et à l’application de la technologie. En particulier lorsqu’il existe peu d’échantillons de poisson observés, les procédés d’identification existants basés sur un ensemble d’échantillons spécifique ne peuvent pas permettre d’obtenir une identification efficace. De plus, les algorithmes d’apprentissage existants identifient seulement les poissons individuels, et il n’existe aucun procédé d’identification qui intègre une identification individuelle à une identification de la direction de forme de corps.
[0016] En tant que procédé important d’apprentissage incrémental, l’apprentissage par transfert a été largement utilisé dans de nombreux domaines, mais il n’existe toujours pas de modèle efficace d’identification de poisson. De plus, il existe peu d’échantillons de poisson dans la banque d’échantillons générale internationale à l’heure actuelle, ce qui ne peut pas répondre aux besoins de l’apprentissage par transfert de poisson.
[0017] Selon un ou plusieurs modes de réalisation, un procédé d’identification de poissons en pisciculture, telle que montré sur la Fig. 1, comporte les étapes suivantes :
[0018] S101, des poissons types présentant une signification représentative sont sélectionnés pour élaborer une banque d’échantillons de poisson, et des images sont prétraitées selon des normes unifiées ;
* BE2023/5222
[0019] S102, les positions de têtes de poisson et de queues de poisson sont extraites à partir de données prétraitées pour élaborer une banque de caractéristiques conjointes de corps de poisson, de têtes de poisson et de queues de poisson ;
[0020] S103, les données prétraitées sont classées pour obtenir un ensemble d’entraînement et un ensemble de test ;
[0021] S104, un modèle d’apprentissage par transfert de poisson est élaboré et pré-appris avec une banque d’échantillons de classification ;
[0022] S105, un petit ensemble de données d’échantillons d’échantillons à tester est construit ;
[0023] S106, le modèle de transfert pré-appris est ré-entraîné avec des petits échantillons ;
[0024] S107, des images de poisson sont entrées dans le modèle entraîné pour identifier les poissons individuels tout d’abord ;
[0025] S108, un rectangle de délimitation minimal des poissons individuels est élaboré, et ensuite l’axe horizontal et l’axe vertical du rectangle de délimitation subissent une expansion de 10 pixels respectivement pour élaborer une nouvelle zone d’identification, dans laquelle les positions de têtes de poisson et de queues de poisson sont identifiées en utilisant un algorithme d’apprentissage par transfert ;
[0026] S109, un positionnement intégré des poissons individuels et d’une direction de forme de corps est mis en œuvre en prenant le point central du rectangle de délimitation minimal des têtes de poisson et des queues de poisson comme point de positionnement directionnel, et la direction d’une ligne reliant les queues de poisson aux têtes de poisson comme direction de forme de corps.
[0027] Le mode de réalisation de la présente invention a l’effet bénéfique que l’efficacité et l’exactitude de l’identification d’image de poissons dans une pisciculture existante sont améliorées par le procédé intégré d’identification de poissons et
> BE2023/5222 d’identification de direction de forme de corps basée sur un apprentissage par transfert.
[0028] Selon un ou plusieurs modes de réalisation, un procédé d’identification de poissons en pisciculture comporte les étapes suivantes :
[0029] S1, pour les espèces aquacoles domestiques courantes et les espèces protégées, les poissons courants de cypriniformes et sliuriformes, tels que les carpes argentées, le cyprinoïde, le carassin, macrura reevesii, pelteobagrus fulvidraco, acipenser dabryanus et leiocassis longirostris, à partir desquels un grand nombre d’échantillons sont facilement obtenus, sont préalablement classés en cyprinoideae, hypophthalmichthyinae, cobitinae, acipenserinae et bagridae pour élaborer une banque d’échantillons de poisson de familles et de genres.
[0030] S2, des ensembles d’échantillons d’entraînement et de test sont construits sur la base de cibles de corps de poisson, de tête de poisson et de queue de poisson, et des images dans les ensembles d’échantillons sont étalonnées selon des images miroirs par rotation de -30°, -60°, 30° et 60° et mise à l’échelle 1:2, 1:0,75, 1:0,5 et 1:0,25 respectivement pour augmenter le nombre d’échantillons.
[0031] S3, une couche entièrement connectée est ajoutée à la fin d’un modèle pré-entraîné VGG19 pour élaborer un modèle d'apprentissage par transfert.
[0032] S4, un algorithme d’optimisation par descente de gradient par lots dans lequel BatchSize est défini comme étant 20 est sélectionné, un algorithme par descente de gradient aléatoire dans lequel le taux d’apprentissage est défini comme étant 0,0001 est sélectionné, et Softmax est sélectionné comme fonction de perte.
[0033] S5, les paramètres de toutes les couches convolutionnelles à l'extérieur de la couche entièrement connectée sont gelés, et le modèle élaboré est entraîné avec des classes de sous-famille en tant que classes de sortie de la couche entièrement connectée et la banque d’échantillons de poisson de familles et de genres en tant que base pour obtenir un progiciel de modèle convolutionnel de classification de poissons préliminaire.
© BE2023/5222
[0034] S6, des donnees d’objet cible d’un scenario de croisement specifique ou d’un scénario d’investigation biologique sont collectées, et une petite banque d’échantillons pour identifier les cibles avec exactitude est élaborée selon les cibles à identifier.
[0035] S7, le modèle d’apprentissage par transfert entraîné est ré-entraîné en ouvrant les paramètres de la couche entièrement connectée et des 1 à 3 couches convolutionnelles adjacentes.
[0036] S8, un petit algorithme d’optimisation par descente de gradient par lots dans lequel MiniBatchSize est défini comme étant 10 est sélectionné, un algorithme par descente de gradient aléatoire dans lequel le taux d’apprentissage est défini comme étant 0,0001 est sélectionné, Softmax est sélectionné comme fonction de perte, et les données sont remaniées une fois par cycle d’entraînement.
[0037] S9, les résultats expérimentaux sont comparés et analysés par intégration de l’exactitude de l’identification et de l’efficacité de l’identification, et des modèles de réseau sont déterminés lorsque quelques couches convolutionnelles adjacentes à la couche entièrement connectée sont sélectionnées et que l’erreur d’exactitude d’identification entre deux couches convolutionnelles sélectionnées est inférieure à 1%. Un réseau d’identification de corps de poisson CNNF-1, un réseau d’identification de tête de poisson
CNNFH-2 et un réseau d’identification de queue de poisson CNNFT-2 sont construits respectivement.
[0038] S10, des images de poisson dans un environnement de travail réel sont collectées, et des canaux RVB des images initiales sont filtrés au moyen d’un filtrage gaussien pour éliminer le bruit d’image.
[0039] S11, les données échantillonnées réelles sont identifiées en utilisant le modèle d'apprentissage par transfert entraîné, où les positions de poissons individuels dans les données sont tout d’abord identifiées en utilisant le modèle CNNF-1, et un
7 BE2023/5222 rectangle de délimitation minimal de cibles identifiées est déterminé.
[0040] S12, en prenant le centre du rectangle comme point de référence de positionnement, les directions de longueur et de largeur du rectangle de délimitation minimal subissent une expansion de 10 pixels respectivement pour augmenter la longueur de 20 pixels et la largeur de 20 pixels au total, pour construire une nouvelle zone à identifier.
[0041] S13, les positions de têtes de poisson et de queues de poisson sont identifiées dans la nouvelle zone à identifier, en utilisant les modèles CNNFH-2 et
CNNFT-2 respectivement.
[0042] S14, lorsque les positions de têtes de poisson et de queues de poisson peuvent être identifiées simultanément, les objets de poisson identifiés sont retenus pour déterminer les directions de mouvement à l’étape suivante ; ou lorsque les positions de têtes de poisson et de queues de poisson ne peuvent pas être identifiées simultanément, les cibles sont abandonnées, mais les cibles sont stockées comme images de banque d’échantillons de remplacement pour réserver les échantillons pour l’apprentissage incrémental.
[0043] S15, un rectangle de délimitation minimal des positions identifiées de têtes de poisson et de queues de poisson est construit, une position centrale du rectangle est calculée, les queues de poisson et les têtes de poisson sont reliées par des lignes droites, et les directions des lignes droites sont prises comme directions de déplacement cibles des poissons.
[0044] Selon un ou plusieurs modes de réalisation, des échantillons expérimentaux sont collectés avec des poissons cultivés courants et des espèces de poisson protégées cultivées dans un centre de protection comme cibles, où le modèle pré-appris collecte 12330 images de carpes de roseau, de cyprinoïde, de macrura reevesii, de carpes argentées tachetées, de carpes argentées, d’acipenser dabryanus, etc. Les poissons à tester,
sélectionnés à partir de la base de mise en œuvre, sont le carassin, parabramis pekinensis et leiocassis longirostris, et 200 images sont collectées à partir de chaque poisson. Le modèle pré-entraîné est entraîné avec des petits échantillons pour élaborer le modèle d’identification final.
[0045] Pendant la mise en œuvre sur le terrain, 280 images de carassin, 220 images de parabramis pekinensis, et 86 images de leiocassis longirostris sont collectées. Les résultats de l’identification de poissons montrent que le taux d’identification de carassin est de 99%, le taux d’identification de parabramis pekinensis est de 100 %, le taux d’identification de leiocassis longirostris est de 98,8 %, et l’exactitude d’identification globale des poissons atteint 99,6 %.
[0046] Des têtes de poisson et des queues de poisson sont positionnées et identifiées à partir des images de poisson identifiées, et les exactitudes d’identification sont pour le carassin (têtes de poisson : 99 %, queues de poisson : 98 %), parabramis pekinensis (têtes de poisson : 98 %, queues de poisson : 98 %), et leiocassis longirostris (têtes de poisson: 100%, queues de poisson: 97%). La structure du modèle d’apprentissage par transfert d’identification de poissons élaboré est comme suit.
[0047]
Nom de la couche de Paramètre Nom de la Paramètre réseau couche de réseau
ImageinputImageinput Taille : (224, 224, 3) Conv512 2 Taille : (3, 3)
Nombre : 512
Convé4_1 Taille : (3, 3) Nombre : 64 | Conv512 3 Taille : (3, 3)
Nombre : 512
Conv64 2 Taille: (3,3) Nombre: | Maxpool512 2 Taille : (3, 3) 64 Longueur de l’étape : (2,2
Maxpool64_1 Taille : (3, 3) Conv512_4 Taille : (3, 3)
Longueur de Nombre : 512 l’étape : (2,2
Conv128 1 Taille : (3,3) Nombre : | Conv512 5 Taille : (3, 3) 128 Nombre : 512
Conv128 2 Taille : (3,3) Nombre: | Conv512 6 Taille : (3, 3) 128 Nombre : 512
Maxpool128 1 Taille : (3,3) Maxpool512 3 Taille : (3, 3)
Longueur de Longueur de l’étape : (2,2 l’étape : (2, 2
Conv256 1 Taille : (3,3) _ Nombre : | FullyConn 1 Nombre : 4096
) BE2023/5222
Hi
Longueur de l’étape : (2,2
N.
[0048] L’homme du métier peut réaliser que les unités et les étapes de procédé de chaque exemple décrit en combinaison avec les modes de réalisation divulgués dans la présente divulgation peuvent être mises en œuvre par un matériel électronique, un logiciel informatique ou une combinaison des deux. Afin de décrire clairement l’interchangeabilité du matériel et du logiciel, la composition et les étapes de chaque exemple sont décrites généralement ci-dessus selon les fonctions. Le fait que ces fonctions soient exécutées par un matériel ou un logiciel dépend d’une application spécifique et de conditions de contraintes de conception de la solution technique. Les professionnels peuvent utiliser différents procédés pour mettre en œuvre les fonctions décrites pour chaque application spécifique, mais une telle mise en œuvre ne doit pas être considérée au-delà de la portée de la présente invention.
[0049] Dans les plusieurs modes de réalisation fournis dans la demande, il est entendu que les systèmes, dispositifs et procédés divulgués peuvent être réalisés dans d’autres modes. Par exemple, le mode de réalisation de l’appareil décrit ci-dessus est seulement donné à titre d’exemple. Par exemple, la division des unités est seulement une division de fonction logique, d’autres modes de division peuvent être adoptés en pratique.
Par exemple, une pluralité d’unités ou de composants peuvent être combinés ou intégrés dans un autre système, ou certaines caractéristiques peuvent être omises ou ne sont pas exécutées. De plus, le couplage mutuel ou le couplage direct ou la connexion de communication affiché ou exposé peut être un couplage indirect ou une connexion de communication de dispositifs ou d’unités par le biais de certaines interfaces, et peut
0 BE2023/5222 également être sous des formes électriques, mécaniques ou autres formes.
[0050] Les unités illustrées comme des composants séparés peuvent être ou peuvent ne pas être physiquement séparées, et les composants affichés comme des unités peuvent être ou peuvent ne pas être des unités physiques, à savoir, les composants peuvent être positionnés à un endroit ou peuvent également être répartis sur une pluralité d’unités de réseau. Les objectifs des solutions des modes de réalisation de la présente invention peuvent être remplis en sélectionnant une partie ou la totalité des unités selon les besoins réels.
[0051] De plus, les unités fonctionnelles dans les modes de réalisation de la présente invention peuvent être intégrées dans une unité de traitement, ou chacune des unités peut exister seule physiquement, ou deux unités ou plus peuvent être intégrées dans une unité. L’unité intégrée peut être mise en œuvre sous la forme de matériel, ou peut être mise en œuvre sous la forme d’une unité fonctionnelle logicielle.
[0052] Lorsque l’unité intégrée est réalisée sous la forme d’une unité fonctionnelle logicielle et vendue ou utilisée comme un produit indépendant, l’unité intégrée peut être stockée dans un support de stockage lisible par ordinateur. Sur la base d’une telle compréhension, la solution technique de la présente invention sensiblement, ou la partie de la présente invention contribuant à l’art antérieur, ou une partie de la solution technique peuvent être incorporées sous la forme d’un produit logiciel, et le produit logiciel informatique est stocké dans un support de stockage, qui comporte une pluralité d’instructions permettant à l’équipement informatique (qui peut être un ordinateur personnel, un serveur, ou un équipement de réseau et analogues) d’exécuter la totalité ou une partie des étapes dans les procédés des modes de réalisation de la présente invention.
Le support de stockage susmentionné comporte : divers supports capables de stocker des codes de programme, tels qu’un disque U, un disque dur mobile, une mémoire morte (ROM), une mémoire vive (RAM), un disque magnétique ou un disque optique.

Claims (9)

5 REVENDICATIONS
1. Procédé d’identification de poissons en pisciculture, dans lequel le procédé comprend : l’élaboration d’une banque d’échantillons d’images de poisson ; l’extraction de formes et de positions de têtes de poisson et de queues de poisson à partir d’échantillons d’images de poisson pour élaborer une banque de caractéristiques d’identification de poissons conjointe de corps de poisson, de têtes de poisson et de queues de poisson ; et l’élaboration d’un modèle d’apprentissage par transfert d’identification de poissons, le pré-apprentissage de la banque d’échantillons d’images de poisson selon la banque de caractéristiques d’identification de poissons, et l’identification de poissons en pisciculture par le biais du modèle d’apprentissage par transfert d’identification de poissons.
2. Procédé d’identification de poissons en pisciculture selon la revendication 1, comprenant en outre la construction d’un petit ensemble de données d’échantillons d’échantillons à tester ; l’entraînement du modèle de transfert d’identification de poissons pré-appris à nouveau en utilisant le petit ensemble d’échantillons ; et l’entrée des images de poisson obtenues dans le modèle de transfert d’identification de poissons pour identifier les poissons individuels et les espèces de poisson.
3. Procédé d’identification de poissons en pisciculture selon la revendication 2, comprenant en outre l’élaboration d’un rectangle de délimitation minimal des poissons individuels, et ensuite l’expansion de l’axe horizontal et de l’axe vertical du rectangle de délimitation minimal de n pixels respectivement pour élaborer une première zone d’identification ; l’identification de positions de têtes de poisson et de queues de poisson dans la première zone d’identification ; et
1 BE2023/5222 le réglage de la direction d’une ligne reliant les queues de poisson aux têtes de poisson en tant que direction de forme de corps de poisson en prenant le point central du rectangle de délimitation minimal des têtes de poisson et des queues de poisson comme point de positionnement directionnel.
4. Procédé d’identification de poissons en pisciculture selon la revendication 2, dans lequel des ensembles d’échantillons d’entraînement et de test sont construits sur la base de caractéristiques cibles de corps de poisson, de tête de poisson et de queue de poisson, et des images dans les ensembles d’échantillons sont étalonnées selon des images miroirs par rotation de -30°, -60°, 30° et 60° et mise à l’échelle 1:2, 1:0,75, 1:0,5 et 1:0,25 respectivement pour augmenter le nombre d’échantillons.
5. Procédé d’identification de poissons en pisciculture selon la revendication 1, dans lequel une couche entièrement connectée est ajoutée à la fin d’un modèle pré-entraîné VGG19 pour élaborer le modèle d’apprentissage par transfert d’identification de poissons.
6. Procédé d’identification de poissons en pisciculture selon la revendication 1, dans lequel les poissons sont classés en cyprinoideae, hypophthalmichthyinae, cobitinae, acipenserinae et bagridae pour élaborer la banque d’échantillons de poisson de familles et de genres.
7. Plateforme d’identification de poissons en pisciculture, dans laquelle la plateforme comprend un serveur, le serveur ayant une mémoire et un processeur couplé à la mémoire, le processeur configuré pour exécuter des instructions stockées dans la mémoire, le processeur exécutant les opérations suivantes : élaboration d’une banque d’échantillons d’images de poisson ; extraction de formes et de positions de têtes de poisson et de queues de poisson à partir d’échantillons d’images de poisson pour élaborer une banque de caractéristiques d’identification de poissons conjointe de corps de poisson, de têtes de poisson et de queues
5 de poisson ; élaboration d’un modèle d’apprentissage par transfert d’identification de poissons, pré-apprentissage de la banque d’échantillons d’images de poisson selon la banque de caractéristiques d’identification de poissons, et identification de poissons en pisciculture par le biais du modèle d’apprentissage par transfert d’identification de poissons ; construction d’un petit ensemble de données d’échantillons d’échantillons ; entraînement du modèle de transfert d’identification de poissons pré-appris à nouveau en utilisant le petit ensemble d’échantillons ; et entrée des images de poisson obtenues dans le modèle de transfert d’identification de poissons pour identifier les poissons individuels.
8. Terminal d’identification de poissons en pisciculture, dans lequel le terminal a un dispositif d’acquisition d’images pour acquérir des images de poissons en pisciculture, et le terminal téléverse les images de poisson acquises dans la plateforme d’identification de poissons en pisciculture selon la revendication 7, et le serveur de la plateforme renvoie les résultats de l’identification au terminal d’identification après identification des poissons.
9. Support de stockage stockant un programme informatique sur celui-ci, dans lequel lorsque le programme est exécuté par un processeur, le procédé selon l’une quelconque des revendications 1 à 6 est mis en œuvre.
BE20235222A 2022-08-30 2023-03-23 Procede, plateforme et terminal d'identification de poissons en pisciculture BE1029938B1 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211044420.0A CN115375915A (zh) 2022-08-30 2022-08-30 一种渔业养殖鱼类识别方法、平台和终端

Publications (2)

Publication Number Publication Date
BE1029938A1 BE1029938A1 (fr) 2023-06-14
BE1029938B1 true BE1029938B1 (fr) 2023-12-13

Family

ID=84069331

Family Applications (1)

Application Number Title Priority Date Filing Date
BE20235222A BE1029938B1 (fr) 2022-08-30 2023-03-23 Procede, plateforme et terminal d'identification de poissons en pisciculture

Country Status (2)

Country Link
CN (1) CN115375915A (fr)
BE (1) BE1029938B1 (fr)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020023467A1 (fr) * 2018-07-24 2020-01-30 Aquabyte, Inc. Identification unique de poissons nageant librement dans un environnement d'aquaculture
KR20200109683A (ko) * 2019-03-14 2020-09-23 경남과학기술대학교 산학협력단 어종 분류를 위한 데이터 적용 시스템
CN113128251A (zh) * 2019-12-30 2021-07-16 广东华风海洋信息系统服务有限公司 一种鱼脸特征检测算法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020023467A1 (fr) * 2018-07-24 2020-01-30 Aquabyte, Inc. Identification unique de poissons nageant librement dans un environnement d'aquaculture
KR20200109683A (ko) * 2019-03-14 2020-09-23 경남과학기술대학교 산학협력단 어종 분류를 위한 데이터 적용 시스템
CN113128251A (zh) * 2019-12-30 2021-07-16 广东华风海洋信息系统服务有限公司 一种鱼脸特征检测算法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
XU XIAOLING ET AL: "Transfer learning and SE-ResNet152 networks-based for small-scale unbalanced fish species identification", COMPUTERS AND ELECTRONICS IN AGRICULTURE, ELSEVIER, AMSTERDAM, NL, vol. 180, 19 November 2020 (2020-11-19), XP086426230, ISSN: 0168-1699, [retrieved on 20201119], DOI: 10.1016/J.COMPAG.2020.105878 *

Also Published As

Publication number Publication date
BE1029938A1 (fr) 2023-06-14
CN115375915A (zh) 2022-11-22

Similar Documents

Publication Publication Date Title
Elnashef et al. Tensor-based classification and segmentation of three-dimensional point clouds for organ-level plant phenotyping and growth analysis
Vaishnnave et al. Detection and classification of groundnut leaf diseases using KNN classifier
US8600143B1 (en) Method and system for hierarchical tissue analysis and classification
CN109086826B (zh) 基于图像深度学习的小麦干旱识别方法
EP3832524A1 (fr) Système et procédé permettant de déterminer les dommages causés à des cultures
SE545381C2 (en) Method for calculating the deviation relation of a population registered on image for calculating pest infestation on a bee population
US20210383149A1 (en) Method for identifying individuals of oplegnathus punctatus based on convolutional neural network
US20240119747A1 (en) Deep neural network-based method for detecting living cell morphology, and related product
Nagaraju et al. Fine-tuned mobilenet classifier for classification of strawberry and cherry fruit types
Bhattarai et al. A weakly-supervised approach for flower/fruit counting in apple orchards
CN112861872A (zh) 一种南美白对虾表型数据测定方法、装置、计算机设备及存储介质
Gené-Mola et al. Looking behind occlusions: A study on amodal segmentation for robust on-tree apple fruit size estimation
Armalivia et al. Automatic counting shrimp larvae based you only look once (YOLO)
BE1029938B1 (fr) Procede, plateforme et terminal d'identification de poissons en pisciculture
Sharma et al. A New Dawn for Tomato-spotted wilt virus Detection and Intensity Classification: A CNN and LSTM Ensemble Model
Kale et al. Analysis of Crop disease detection with SVM, KNN and Random forest classification
Vijayakumar et al. A Deep Learning-based Approach for Tomato Plant Leaf Disease Detection and Classification
Poleshchenko et al. Detection of Sunflower Plants in UAV Photos
Nirmal et al. Farmer Friendly Smart App for Pomegranate Disease Identification
Thotad et al. An Efficient Model for Plant Disease Detection in Agriculture Using Deep Learning Approaches
Sangeetha et al. Prediction of Fruit Texture Features Using Deep Learning Techniques
Kongara et al. Classification and Comparison Study of Rice Plant Diseases using Pre-Trained CNN Models
Dong et al. Three-dimensional quantification of apple phenotypic traits based on deep learning instance segmentation
WO2024113849A1 (fr) Procédé, appareil et dispositif de reconnaissance de concentration minimale inhibitrice, et support de stockage
Daniya et al. Rice leaf Disease Recognition based on deep learning using Zippier S-Method

Legal Events

Date Code Title Description
FG Patent granted

Effective date: 20231213