BE1029938B1 - Procede, plateforme et terminal d'identification de poissons en pisciculture - Google Patents
Procede, plateforme et terminal d'identification de poissons en pisciculture Download PDFInfo
- Publication number
- BE1029938B1 BE1029938B1 BE20235222A BE202305222A BE1029938B1 BE 1029938 B1 BE1029938 B1 BE 1029938B1 BE 20235222 A BE20235222 A BE 20235222A BE 202305222 A BE202305222 A BE 202305222A BE 1029938 B1 BE1029938 B1 BE 1029938B1
- Authority
- BE
- Belgium
- Prior art keywords
- fish
- identification
- samples
- farming
- bank
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000009372 pisciculture Methods 0.000 title claims abstract description 21
- 241000251468 Actinopterygii Species 0.000 claims abstract description 173
- 238000013526 transfer learning Methods 0.000 claims abstract description 19
- 238000012549 training Methods 0.000 claims abstract description 11
- 238000012546 transfer Methods 0.000 claims abstract description 9
- 238000012360 testing method Methods 0.000 claims abstract description 5
- 230000037237 body shape Effects 0.000 claims description 7
- 238000003860 storage Methods 0.000 claims description 4
- 238000011161 development Methods 0.000 claims description 3
- 241000561013 Acipenserinae Species 0.000 claims description 2
- 241001441703 Bagridae Species 0.000 claims description 2
- 241000487081 Cobitinae Species 0.000 claims description 2
- 238000004590 computer program Methods 0.000 claims 1
- 230000006870 function Effects 0.000 description 6
- 241001609213 Carassius carassius Species 0.000 description 5
- 241000746780 Leiocassis longirostris Species 0.000 description 5
- 241001275902 Parabramis pekinensis Species 0.000 description 4
- 241000252234 Hypophthalmichthys nobilis Species 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 241000876433 Acipenser dabryanus Species 0.000 description 2
- 241000191442 Tenualosa reevesii Species 0.000 description 2
- 244000144974 aquaculture Species 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 241000252230 Ctenopharyngodon idella Species 0.000 description 1
- 241000252206 Cypriniformes Species 0.000 description 1
- 241000376029 Tachysurus fulvidraco Species 0.000 description 1
- 238000009360 aquaculture Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 241000894007 species Species 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01K—ANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
- A01K61/00—Culture of aquatic animals
- A01K61/90—Sorting, grading, counting or marking live aquatic animals, e.g. sex determination
- A01K61/95—Sorting, grading, counting or marking live aquatic animals, e.g. sex determination specially adapted for fish
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/772—Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/80—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in fisheries management
- Y02A40/81—Aquaculture, e.g. of fish
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Environmental Sciences (AREA)
- Biodiversity & Conservation Biology (AREA)
- Zoology (AREA)
- Human Computer Interaction (AREA)
- Animal Husbandry (AREA)
- Marine Sciences & Fisheries (AREA)
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Est divulgué un procédé d'identification de poissons en pisciculture, comprenant : l'élaboration d'une banque d'échantillons d'images de poisson ; l'extraction de formes et de positions de têtes de poisson et de queues de poisson à partir d'échantillons d'images de poisson pour élaborer une banque de caractéristiques d'identification de poissons conjointe de corps de poisson, de têtes de poisson et de queues de poisson ; l'élaboration d'un modèle d'apprentissage par transfert d'identification de poissons, le pré-apprentissage de la banque d'échantillons d'images de poisson selon la banque de caractéristiques d'identification de poissons, et l'identification de poissons en pisciculture par le biais du modèle d'apprentissage par transfert d'identification de poissons ; la construction d'un petit ensemble de données d'échantillons d'échantillons à tester ; l'entraînement du modèle de transfert d'identification de poissons pré-appris à nouveau en utilisant le petit ensemble d'échantillons; et l'entrée des images de poisson obtenues dans le modèle de transfert d'identification de poissons pour identifier les poissons individuels et les espèces de poisson.
Description
PROCEDE, PLATEFORME ET TERMINAL D’IDENTIFICATION DE POISSONS EN
PISCICULTURE
[0001] 1. Domaine technique
[0002] La présente invention appartient au domaine technique de la pisciculture, en particulier à un procédé, une plateforme et un terminal d’identification de poissons en pisciculture.
[0003] 2. Description de l’art connexe
[0004] Dans le processus de production de poisson et de surveillance de la protection de l’environnement, il est très important de guider la production aquacole en mesurant avec exactitude les statuts phénotypiques des poissons sous l’eau, et ensuite en obtenant les tailles des poissons et en estimant avec exactitude leurs stades de croissance.
Pour réaliser une mesure efficace sur les phénotypes des poissons sous l’eau, une identification exacte et efficace des poissons sous l’eau est une condition préalable. De plus, si les directions de forme de corps de poisson peuvent être identifiées sur la base de l’identification des poissons, la plage de recherche des points caractéristiques des mesures phénotypiques sera efficacement réduite, et une fondation sera posée pour réaliser une mesure à haut débit des cibles sous l’eau.
[0005] Un mode de réalisation de la présente invention porte sur un procédé intégré d’identification de poissons individuels sous l’eau et de directions de forme de corps sur la base d’un apprentissage par transfert, comportant les étapes de :
[0006] élaboration d’une banque d’échantillons d’images de poisson ;
[0007] extraction de formes et de positions de têtes de poisson et de queues de
° BE2023/5222 poisson à partir d’échantillons d'images de poisson pour élaborer une banque de caractéristiques d’identification de poissons conjointe de corps de poisson, de têtes de poisson et de queues de poisson ;
[0008] élaboration d’un modèle d’apprentissage par transfert d’identification de poissons, pré-apprentissage de la banque d’échantillons d’images de poisson selon la banque de caractéristiques d’identification de poissons, et identification de poissons en pisciculture par le biais du modèle d’apprentissage par transfert d’identification de poissons ;
[0009] construction d’un petit ensemble d’échantillons d’échantillons à tester, où le petit ensemble d’échantillons fait référence à un ensemble d’un nombre relativement petit d’échantillons dans un scénario spécifique ;
[0010] entraînement du modèle de transfert d’identification de poissons pré-appris à nouveau en utilisant le petit ensemble d’échantillons ; et
[0011] entrée des images de poisson obtenues dans le modèle de transfert d’identification de poissons pour identifier les poissons individuels.
[0012] À la lecture de la description détaillée suivante en référence aux dessins joints, les objectifs, caractéristiques et avantages ci-dessus et autres objectifs, caractéristiques et avantages des modes de réalisation donnés à titre d’exemple de la présente invention seront plus faciles à comprendre. Sur les dessins, un certain nombre de modes de réalisation de la présente invention sont montrés d’une manière donnée à titre d’exemple et non limitative.
[0013] La Fig. 1 est un organigramme d’un procédé d’identification de poissons en pisciculture selon un mode de réalisation de la présente invention.
[0014] La Fig. 2 est un diagramme schématique structural d’un modèle de réseau
> BE2023/5222 d’identification de corps de poisson CNNF-1 selon un mode de réalisation de la présente invention.
[0015] À l’heure actuelle, la technologie d’identification pour les cibles de poissons sous l’eau emploie principalement un procédé d’identification pour un ensemble d’échantillons spécifique. Lorsque les changements de cibles identifiées dépassent un espace d’ensemble d’échantillons initial, il est nécessaire de créer un nouvel ensemble d’échantillons et de reconstruire un algorithme d’identification, ce qui est chronophage et laborieux et n’est pas propice à la popularisation et à l’application de la technologie. En particulier lorsqu’il existe peu d’échantillons de poisson observés, les procédés d’identification existants basés sur un ensemble d’échantillons spécifique ne peuvent pas permettre d’obtenir une identification efficace. De plus, les algorithmes d’apprentissage existants identifient seulement les poissons individuels, et il n’existe aucun procédé d’identification qui intègre une identification individuelle à une identification de la direction de forme de corps.
[0016] En tant que procédé important d’apprentissage incrémental, l’apprentissage par transfert a été largement utilisé dans de nombreux domaines, mais il n’existe toujours pas de modèle efficace d’identification de poisson. De plus, il existe peu d’échantillons de poisson dans la banque d’échantillons générale internationale à l’heure actuelle, ce qui ne peut pas répondre aux besoins de l’apprentissage par transfert de poisson.
[0017] Selon un ou plusieurs modes de réalisation, un procédé d’identification de poissons en pisciculture, telle que montré sur la Fig. 1, comporte les étapes suivantes :
[0018] S101, des poissons types présentant une signification représentative sont sélectionnés pour élaborer une banque d’échantillons de poisson, et des images sont prétraitées selon des normes unifiées ;
* BE2023/5222
[0019] S102, les positions de têtes de poisson et de queues de poisson sont extraites à partir de données prétraitées pour élaborer une banque de caractéristiques conjointes de corps de poisson, de têtes de poisson et de queues de poisson ;
[0020] S103, les données prétraitées sont classées pour obtenir un ensemble d’entraînement et un ensemble de test ;
[0021] S104, un modèle d’apprentissage par transfert de poisson est élaboré et pré-appris avec une banque d’échantillons de classification ;
[0022] S105, un petit ensemble de données d’échantillons d’échantillons à tester est construit ;
[0023] S106, le modèle de transfert pré-appris est ré-entraîné avec des petits échantillons ;
[0024] S107, des images de poisson sont entrées dans le modèle entraîné pour identifier les poissons individuels tout d’abord ;
[0025] S108, un rectangle de délimitation minimal des poissons individuels est élaboré, et ensuite l’axe horizontal et l’axe vertical du rectangle de délimitation subissent une expansion de 10 pixels respectivement pour élaborer une nouvelle zone d’identification, dans laquelle les positions de têtes de poisson et de queues de poisson sont identifiées en utilisant un algorithme d’apprentissage par transfert ;
[0026] S109, un positionnement intégré des poissons individuels et d’une direction de forme de corps est mis en œuvre en prenant le point central du rectangle de délimitation minimal des têtes de poisson et des queues de poisson comme point de positionnement directionnel, et la direction d’une ligne reliant les queues de poisson aux têtes de poisson comme direction de forme de corps.
[0027] Le mode de réalisation de la présente invention a l’effet bénéfique que l’efficacité et l’exactitude de l’identification d’image de poissons dans une pisciculture existante sont améliorées par le procédé intégré d’identification de poissons et
> BE2023/5222 d’identification de direction de forme de corps basée sur un apprentissage par transfert.
[0028] Selon un ou plusieurs modes de réalisation, un procédé d’identification de poissons en pisciculture comporte les étapes suivantes :
[0029] S1, pour les espèces aquacoles domestiques courantes et les espèces protégées, les poissons courants de cypriniformes et sliuriformes, tels que les carpes argentées, le cyprinoïde, le carassin, macrura reevesii, pelteobagrus fulvidraco, acipenser dabryanus et leiocassis longirostris, à partir desquels un grand nombre d’échantillons sont facilement obtenus, sont préalablement classés en cyprinoideae, hypophthalmichthyinae, cobitinae, acipenserinae et bagridae pour élaborer une banque d’échantillons de poisson de familles et de genres.
[0030] S2, des ensembles d’échantillons d’entraînement et de test sont construits sur la base de cibles de corps de poisson, de tête de poisson et de queue de poisson, et des images dans les ensembles d’échantillons sont étalonnées selon des images miroirs par rotation de -30°, -60°, 30° et 60° et mise à l’échelle 1:2, 1:0,75, 1:0,5 et 1:0,25 respectivement pour augmenter le nombre d’échantillons.
[0031] S3, une couche entièrement connectée est ajoutée à la fin d’un modèle pré-entraîné VGG19 pour élaborer un modèle d'apprentissage par transfert.
[0032] S4, un algorithme d’optimisation par descente de gradient par lots dans lequel BatchSize est défini comme étant 20 est sélectionné, un algorithme par descente de gradient aléatoire dans lequel le taux d’apprentissage est défini comme étant 0,0001 est sélectionné, et Softmax est sélectionné comme fonction de perte.
[0033] S5, les paramètres de toutes les couches convolutionnelles à l'extérieur de la couche entièrement connectée sont gelés, et le modèle élaboré est entraîné avec des classes de sous-famille en tant que classes de sortie de la couche entièrement connectée et la banque d’échantillons de poisson de familles et de genres en tant que base pour obtenir un progiciel de modèle convolutionnel de classification de poissons préliminaire.
© BE2023/5222
[0034] S6, des donnees d’objet cible d’un scenario de croisement specifique ou d’un scénario d’investigation biologique sont collectées, et une petite banque d’échantillons pour identifier les cibles avec exactitude est élaborée selon les cibles à identifier.
[0035] S7, le modèle d’apprentissage par transfert entraîné est ré-entraîné en ouvrant les paramètres de la couche entièrement connectée et des 1 à 3 couches convolutionnelles adjacentes.
[0036] S8, un petit algorithme d’optimisation par descente de gradient par lots dans lequel MiniBatchSize est défini comme étant 10 est sélectionné, un algorithme par descente de gradient aléatoire dans lequel le taux d’apprentissage est défini comme étant 0,0001 est sélectionné, Softmax est sélectionné comme fonction de perte, et les données sont remaniées une fois par cycle d’entraînement.
[0037] S9, les résultats expérimentaux sont comparés et analysés par intégration de l’exactitude de l’identification et de l’efficacité de l’identification, et des modèles de réseau sont déterminés lorsque quelques couches convolutionnelles adjacentes à la couche entièrement connectée sont sélectionnées et que l’erreur d’exactitude d’identification entre deux couches convolutionnelles sélectionnées est inférieure à 1%. Un réseau d’identification de corps de poisson CNNF-1, un réseau d’identification de tête de poisson
CNNFH-2 et un réseau d’identification de queue de poisson CNNFT-2 sont construits respectivement.
[0038] S10, des images de poisson dans un environnement de travail réel sont collectées, et des canaux RVB des images initiales sont filtrés au moyen d’un filtrage gaussien pour éliminer le bruit d’image.
[0039] S11, les données échantillonnées réelles sont identifiées en utilisant le modèle d'apprentissage par transfert entraîné, où les positions de poissons individuels dans les données sont tout d’abord identifiées en utilisant le modèle CNNF-1, et un
7 BE2023/5222 rectangle de délimitation minimal de cibles identifiées est déterminé.
[0040] S12, en prenant le centre du rectangle comme point de référence de positionnement, les directions de longueur et de largeur du rectangle de délimitation minimal subissent une expansion de 10 pixels respectivement pour augmenter la longueur de 20 pixels et la largeur de 20 pixels au total, pour construire une nouvelle zone à identifier.
[0041] S13, les positions de têtes de poisson et de queues de poisson sont identifiées dans la nouvelle zone à identifier, en utilisant les modèles CNNFH-2 et
CNNFT-2 respectivement.
[0042] S14, lorsque les positions de têtes de poisson et de queues de poisson peuvent être identifiées simultanément, les objets de poisson identifiés sont retenus pour déterminer les directions de mouvement à l’étape suivante ; ou lorsque les positions de têtes de poisson et de queues de poisson ne peuvent pas être identifiées simultanément, les cibles sont abandonnées, mais les cibles sont stockées comme images de banque d’échantillons de remplacement pour réserver les échantillons pour l’apprentissage incrémental.
[0043] S15, un rectangle de délimitation minimal des positions identifiées de têtes de poisson et de queues de poisson est construit, une position centrale du rectangle est calculée, les queues de poisson et les têtes de poisson sont reliées par des lignes droites, et les directions des lignes droites sont prises comme directions de déplacement cibles des poissons.
[0044] Selon un ou plusieurs modes de réalisation, des échantillons expérimentaux sont collectés avec des poissons cultivés courants et des espèces de poisson protégées cultivées dans un centre de protection comme cibles, où le modèle pré-appris collecte 12330 images de carpes de roseau, de cyprinoïde, de macrura reevesii, de carpes argentées tachetées, de carpes argentées, d’acipenser dabryanus, etc. Les poissons à tester,
sélectionnés à partir de la base de mise en œuvre, sont le carassin, parabramis pekinensis et leiocassis longirostris, et 200 images sont collectées à partir de chaque poisson. Le modèle pré-entraîné est entraîné avec des petits échantillons pour élaborer le modèle d’identification final.
[0045] Pendant la mise en œuvre sur le terrain, 280 images de carassin, 220 images de parabramis pekinensis, et 86 images de leiocassis longirostris sont collectées. Les résultats de l’identification de poissons montrent que le taux d’identification de carassin est de 99%, le taux d’identification de parabramis pekinensis est de 100 %, le taux d’identification de leiocassis longirostris est de 98,8 %, et l’exactitude d’identification globale des poissons atteint 99,6 %.
[0046] Des têtes de poisson et des queues de poisson sont positionnées et identifiées à partir des images de poisson identifiées, et les exactitudes d’identification sont pour le carassin (têtes de poisson : 99 %, queues de poisson : 98 %), parabramis pekinensis (têtes de poisson : 98 %, queues de poisson : 98 %), et leiocassis longirostris (têtes de poisson: 100%, queues de poisson: 97%). La structure du modèle d’apprentissage par transfert d’identification de poissons élaboré est comme suit.
[0047]
Nom de la couche de Paramètre Nom de la Paramètre réseau couche de réseau
ImageinputImageinput Taille : (224, 224, 3) Conv512 2 Taille : (3, 3)
Nombre : 512
Convé4_1 Taille : (3, 3) Nombre : 64 | Conv512 3 Taille : (3, 3)
Nombre : 512
Conv64 2 Taille: (3,3) Nombre: | Maxpool512 2 Taille : (3, 3) 64 Longueur de l’étape : (2,2
Maxpool64_1 Taille : (3, 3) Conv512_4 Taille : (3, 3)
Longueur de Nombre : 512 l’étape : (2,2
Conv128 1 Taille : (3,3) Nombre : | Conv512 5 Taille : (3, 3) 128 Nombre : 512
Conv128 2 Taille : (3,3) Nombre: | Conv512 6 Taille : (3, 3) 128 Nombre : 512
Maxpool128 1 Taille : (3,3) Maxpool512 3 Taille : (3, 3)
Longueur de Longueur de l’étape : (2,2 l’étape : (2, 2
Conv256 1 Taille : (3,3) _ Nombre : | FullyConn 1 Nombre : 4096
) BE2023/5222
Hi
Longueur de l’étape : (2,2
N.
[0048] L’homme du métier peut réaliser que les unités et les étapes de procédé de chaque exemple décrit en combinaison avec les modes de réalisation divulgués dans la présente divulgation peuvent être mises en œuvre par un matériel électronique, un logiciel informatique ou une combinaison des deux. Afin de décrire clairement l’interchangeabilité du matériel et du logiciel, la composition et les étapes de chaque exemple sont décrites généralement ci-dessus selon les fonctions. Le fait que ces fonctions soient exécutées par un matériel ou un logiciel dépend d’une application spécifique et de conditions de contraintes de conception de la solution technique. Les professionnels peuvent utiliser différents procédés pour mettre en œuvre les fonctions décrites pour chaque application spécifique, mais une telle mise en œuvre ne doit pas être considérée au-delà de la portée de la présente invention.
[0049] Dans les plusieurs modes de réalisation fournis dans la demande, il est entendu que les systèmes, dispositifs et procédés divulgués peuvent être réalisés dans d’autres modes. Par exemple, le mode de réalisation de l’appareil décrit ci-dessus est seulement donné à titre d’exemple. Par exemple, la division des unités est seulement une division de fonction logique, d’autres modes de division peuvent être adoptés en pratique.
Par exemple, une pluralité d’unités ou de composants peuvent être combinés ou intégrés dans un autre système, ou certaines caractéristiques peuvent être omises ou ne sont pas exécutées. De plus, le couplage mutuel ou le couplage direct ou la connexion de communication affiché ou exposé peut être un couplage indirect ou une connexion de communication de dispositifs ou d’unités par le biais de certaines interfaces, et peut
0 BE2023/5222 également être sous des formes électriques, mécaniques ou autres formes.
[0050] Les unités illustrées comme des composants séparés peuvent être ou peuvent ne pas être physiquement séparées, et les composants affichés comme des unités peuvent être ou peuvent ne pas être des unités physiques, à savoir, les composants peuvent être positionnés à un endroit ou peuvent également être répartis sur une pluralité d’unités de réseau. Les objectifs des solutions des modes de réalisation de la présente invention peuvent être remplis en sélectionnant une partie ou la totalité des unités selon les besoins réels.
[0051] De plus, les unités fonctionnelles dans les modes de réalisation de la présente invention peuvent être intégrées dans une unité de traitement, ou chacune des unités peut exister seule physiquement, ou deux unités ou plus peuvent être intégrées dans une unité. L’unité intégrée peut être mise en œuvre sous la forme de matériel, ou peut être mise en œuvre sous la forme d’une unité fonctionnelle logicielle.
[0052] Lorsque l’unité intégrée est réalisée sous la forme d’une unité fonctionnelle logicielle et vendue ou utilisée comme un produit indépendant, l’unité intégrée peut être stockée dans un support de stockage lisible par ordinateur. Sur la base d’une telle compréhension, la solution technique de la présente invention sensiblement, ou la partie de la présente invention contribuant à l’art antérieur, ou une partie de la solution technique peuvent être incorporées sous la forme d’un produit logiciel, et le produit logiciel informatique est stocké dans un support de stockage, qui comporte une pluralité d’instructions permettant à l’équipement informatique (qui peut être un ordinateur personnel, un serveur, ou un équipement de réseau et analogues) d’exécuter la totalité ou une partie des étapes dans les procédés des modes de réalisation de la présente invention.
Le support de stockage susmentionné comporte : divers supports capables de stocker des codes de programme, tels qu’un disque U, un disque dur mobile, une mémoire morte (ROM), une mémoire vive (RAM), un disque magnétique ou un disque optique.
Claims (9)
1. Procédé d’identification de poissons en pisciculture, dans lequel le procédé comprend : l’élaboration d’une banque d’échantillons d’images de poisson ; l’extraction de formes et de positions de têtes de poisson et de queues de poisson à partir d’échantillons d’images de poisson pour élaborer une banque de caractéristiques d’identification de poissons conjointe de corps de poisson, de têtes de poisson et de queues de poisson ; et l’élaboration d’un modèle d’apprentissage par transfert d’identification de poissons, le pré-apprentissage de la banque d’échantillons d’images de poisson selon la banque de caractéristiques d’identification de poissons, et l’identification de poissons en pisciculture par le biais du modèle d’apprentissage par transfert d’identification de poissons.
2. Procédé d’identification de poissons en pisciculture selon la revendication 1, comprenant en outre la construction d’un petit ensemble de données d’échantillons d’échantillons à tester ; l’entraînement du modèle de transfert d’identification de poissons pré-appris à nouveau en utilisant le petit ensemble d’échantillons ; et l’entrée des images de poisson obtenues dans le modèle de transfert d’identification de poissons pour identifier les poissons individuels et les espèces de poisson.
3. Procédé d’identification de poissons en pisciculture selon la revendication 2, comprenant en outre l’élaboration d’un rectangle de délimitation minimal des poissons individuels, et ensuite l’expansion de l’axe horizontal et de l’axe vertical du rectangle de délimitation minimal de n pixels respectivement pour élaborer une première zone d’identification ; l’identification de positions de têtes de poisson et de queues de poisson dans la première zone d’identification ; et
1 BE2023/5222 le réglage de la direction d’une ligne reliant les queues de poisson aux têtes de poisson en tant que direction de forme de corps de poisson en prenant le point central du rectangle de délimitation minimal des têtes de poisson et des queues de poisson comme point de positionnement directionnel.
4. Procédé d’identification de poissons en pisciculture selon la revendication 2, dans lequel des ensembles d’échantillons d’entraînement et de test sont construits sur la base de caractéristiques cibles de corps de poisson, de tête de poisson et de queue de poisson, et des images dans les ensembles d’échantillons sont étalonnées selon des images miroirs par rotation de -30°, -60°, 30° et 60° et mise à l’échelle 1:2, 1:0,75, 1:0,5 et 1:0,25 respectivement pour augmenter le nombre d’échantillons.
5. Procédé d’identification de poissons en pisciculture selon la revendication 1, dans lequel une couche entièrement connectée est ajoutée à la fin d’un modèle pré-entraîné VGG19 pour élaborer le modèle d’apprentissage par transfert d’identification de poissons.
6. Procédé d’identification de poissons en pisciculture selon la revendication 1, dans lequel les poissons sont classés en cyprinoideae, hypophthalmichthyinae, cobitinae, acipenserinae et bagridae pour élaborer la banque d’échantillons de poisson de familles et de genres.
7. Plateforme d’identification de poissons en pisciculture, dans laquelle la plateforme comprend un serveur, le serveur ayant une mémoire et un processeur couplé à la mémoire, le processeur configuré pour exécuter des instructions stockées dans la mémoire, le processeur exécutant les opérations suivantes : élaboration d’une banque d’échantillons d’images de poisson ; extraction de formes et de positions de têtes de poisson et de queues de poisson à partir d’échantillons d’images de poisson pour élaborer une banque de caractéristiques d’identification de poissons conjointe de corps de poisson, de têtes de poisson et de queues
5 de poisson ; élaboration d’un modèle d’apprentissage par transfert d’identification de poissons, pré-apprentissage de la banque d’échantillons d’images de poisson selon la banque de caractéristiques d’identification de poissons, et identification de poissons en pisciculture par le biais du modèle d’apprentissage par transfert d’identification de poissons ; construction d’un petit ensemble de données d’échantillons d’échantillons ; entraînement du modèle de transfert d’identification de poissons pré-appris à nouveau en utilisant le petit ensemble d’échantillons ; et entrée des images de poisson obtenues dans le modèle de transfert d’identification de poissons pour identifier les poissons individuels.
8. Terminal d’identification de poissons en pisciculture, dans lequel le terminal a un dispositif d’acquisition d’images pour acquérir des images de poissons en pisciculture, et le terminal téléverse les images de poisson acquises dans la plateforme d’identification de poissons en pisciculture selon la revendication 7, et le serveur de la plateforme renvoie les résultats de l’identification au terminal d’identification après identification des poissons.
9. Support de stockage stockant un programme informatique sur celui-ci, dans lequel lorsque le programme est exécuté par un processeur, le procédé selon l’une quelconque des revendications 1 à 6 est mis en œuvre.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211044420.0A CN115375915A (zh) | 2022-08-30 | 2022-08-30 | 一种渔业养殖鱼类识别方法、平台和终端 |
Publications (2)
Publication Number | Publication Date |
---|---|
BE1029938A1 BE1029938A1 (fr) | 2023-06-14 |
BE1029938B1 true BE1029938B1 (fr) | 2023-12-13 |
Family
ID=84069331
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BE20235222A BE1029938B1 (fr) | 2022-08-30 | 2023-03-23 | Procede, plateforme et terminal d'identification de poissons en pisciculture |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN115375915A (fr) |
BE (1) | BE1029938B1 (fr) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020023467A1 (fr) * | 2018-07-24 | 2020-01-30 | Aquabyte, Inc. | Identification unique de poissons nageant librement dans un environnement d'aquaculture |
KR20200109683A (ko) * | 2019-03-14 | 2020-09-23 | 경남과학기술대학교 산학협력단 | 어종 분류를 위한 데이터 적용 시스템 |
CN113128251A (zh) * | 2019-12-30 | 2021-07-16 | 广东华风海洋信息系统服务有限公司 | 一种鱼脸特征检测算法 |
-
2022
- 2022-08-30 CN CN202211044420.0A patent/CN115375915A/zh active Pending
-
2023
- 2023-03-23 BE BE20235222A patent/BE1029938B1/fr active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020023467A1 (fr) * | 2018-07-24 | 2020-01-30 | Aquabyte, Inc. | Identification unique de poissons nageant librement dans un environnement d'aquaculture |
KR20200109683A (ko) * | 2019-03-14 | 2020-09-23 | 경남과학기술대학교 산학협력단 | 어종 분류를 위한 데이터 적용 시스템 |
CN113128251A (zh) * | 2019-12-30 | 2021-07-16 | 广东华风海洋信息系统服务有限公司 | 一种鱼脸特征检测算法 |
Non-Patent Citations (1)
Title |
---|
XU XIAOLING ET AL: "Transfer learning and SE-ResNet152 networks-based for small-scale unbalanced fish species identification", COMPUTERS AND ELECTRONICS IN AGRICULTURE, ELSEVIER, AMSTERDAM, NL, vol. 180, 19 November 2020 (2020-11-19), XP086426230, ISSN: 0168-1699, [retrieved on 20201119], DOI: 10.1016/J.COMPAG.2020.105878 * |
Also Published As
Publication number | Publication date |
---|---|
BE1029938A1 (fr) | 2023-06-14 |
CN115375915A (zh) | 2022-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Elnashef et al. | Tensor-based classification and segmentation of three-dimensional point clouds for organ-level plant phenotyping and growth analysis | |
Vaishnnave et al. | Detection and classification of groundnut leaf diseases using KNN classifier | |
US8600143B1 (en) | Method and system for hierarchical tissue analysis and classification | |
CN109086826B (zh) | 基于图像深度学习的小麦干旱识别方法 | |
EP3832524A1 (fr) | Système et procédé permettant de déterminer les dommages causés à des cultures | |
SE545381C2 (en) | Method for calculating the deviation relation of a population registered on image for calculating pest infestation on a bee population | |
US20210383149A1 (en) | Method for identifying individuals of oplegnathus punctatus based on convolutional neural network | |
US20240119747A1 (en) | Deep neural network-based method for detecting living cell morphology, and related product | |
Nagaraju et al. | Fine-tuned mobilenet classifier for classification of strawberry and cherry fruit types | |
Bhattarai et al. | A weakly-supervised approach for flower/fruit counting in apple orchards | |
CN112861872A (zh) | 一种南美白对虾表型数据测定方法、装置、计算机设备及存储介质 | |
Gené-Mola et al. | Looking behind occlusions: A study on amodal segmentation for robust on-tree apple fruit size estimation | |
Armalivia et al. | Automatic counting shrimp larvae based you only look once (YOLO) | |
BE1029938B1 (fr) | Procede, plateforme et terminal d'identification de poissons en pisciculture | |
Sharma et al. | A New Dawn for Tomato-spotted wilt virus Detection and Intensity Classification: A CNN and LSTM Ensemble Model | |
Kale et al. | Analysis of Crop disease detection with SVM, KNN and Random forest classification | |
Vijayakumar et al. | A Deep Learning-based Approach for Tomato Plant Leaf Disease Detection and Classification | |
Poleshchenko et al. | Detection of Sunflower Plants in UAV Photos | |
Nirmal et al. | Farmer Friendly Smart App for Pomegranate Disease Identification | |
Thotad et al. | An Efficient Model for Plant Disease Detection in Agriculture Using Deep Learning Approaches | |
Sangeetha et al. | Prediction of Fruit Texture Features Using Deep Learning Techniques | |
Kongara et al. | Classification and Comparison Study of Rice Plant Diseases using Pre-Trained CNN Models | |
Dong et al. | Three-dimensional quantification of apple phenotypic traits based on deep learning instance segmentation | |
WO2024113849A1 (fr) | Procédé, appareil et dispositif de reconnaissance de concentration minimale inhibitrice, et support de stockage | |
Daniya et al. | Rice leaf Disease Recognition based on deep learning using Zippier S-Method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FG | Patent granted |
Effective date: 20231213 |