FR3110743A1 - Procede et systeme de controle de traitement agricole - Google Patents

Procede et systeme de controle de traitement agricole Download PDF

Info

Publication number
FR3110743A1
FR3110743A1 FR2005355A FR2005355A FR3110743A1 FR 3110743 A1 FR3110743 A1 FR 3110743A1 FR 2005355 A FR2005355 A FR 2005355A FR 2005355 A FR2005355 A FR 2005355A FR 3110743 A1 FR3110743 A1 FR 3110743A1
Authority
FR
France
Prior art keywords
agricultural
treatment
sensor
image
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR2005355A
Other languages
English (en)
Other versions
FR3110743B1 (fr
Inventor
Gérald Germain
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carbon Bee
Original Assignee
Carbon Bee
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carbon Bee filed Critical Carbon Bee
Priority to FR2005355A priority Critical patent/FR3110743B1/fr
Priority to AU2021276550A priority patent/AU2021276550A1/en
Priority to US17/999,380 priority patent/US20230206627A1/en
Priority to PCT/EP2021/063397 priority patent/WO2021234063A1/fr
Priority to EP21727139.4A priority patent/EP4152924A1/fr
Publication of FR3110743A1 publication Critical patent/FR3110743A1/fr
Application granted granted Critical
Publication of FR3110743B1 publication Critical patent/FR3110743B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M7/00Special adaptations or arrangements of liquid-spraying apparatus for purposes covered by this subclass
    • A01M7/0089Regulating or controlling systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Abstract

PROCEDE ET SYSTEME DE CONTROLE DE TRAITEMENT AGRICOLE Procédé informatisé de contrôle d’un traitement agricole dans lequel :. un module de réception reçoit une image bidimensionnelle d’une zone agricole acquise par un capteur, . un module de traitement (16) détermine un intervalle de temps d’activation d’un dispositif de traitement agricole pour le traitement agricole d’une portion de la zone agricole identifiée comme nécessitant un traitement agricole avec un réseau de neurones (20) traitant l’image. L’intervalle de temps présente une durée prédéterminée qui inclut un instant de traitement de la portion de la zone agricole autour d’un instant moyen déterminé pour une portion virtuelle de la zone agricole identifiée comme nécessitant un traitement agricole déterminée dans le plan horizontal du dispositif de traitement agricole (3). Figure pour l’abrégé : Fig. 1

Description

PROCEDE ET SYSTEME DE CONTROLE DE TRAITEMENT AGRICOLE
  1. DOMAINE DE L’INVENTION
La présente invention se rapporte aux procédés et aux systèmes de contrôle de traitement agricole.
ARRIERE-PLAN TECHNOLOGIQUE
Les cultures agricoles nécessitent un entretien régulier afin d’optimiser la production agricole. Les traitements de fertilisation, de désherbage, de lutte contre les carences, ou de lutte contre les maladies ou nuisibles sont nécessaires afin d’optimiser le rendement de production de ces cultures.
Les techniques culturales modernes tendent à réduire les intrants et traitements, dans cet objectif, elles proposent différentes méthodes afin de traiter ces problématiques.
Les mesures prophylactiques, dont l’objectif est de réduire au maximum le nombre d’adventices présents sur une parcelle agricole entrant en concurrence avec la culture sont largement employées dans les itinéraires techniques des grandes cultures et cultures maraîchères. Les méthodes suivantes sont recommandées dans cet objectif :
– Les rotations de cultures fut l’une des premières méthodes théorisée dès le début du XXe siècle, tel que décrit dans le document « Clyde E. Leighty, 1938 Yearbook of Agriculture », consistant en une alternance des cultures automnales et printanières cela afin de rompre certains cycles biologiques des adventices ;
– le labour permet de réduire le nombre d’adventices dans la culture par enfouissement des graines de ceux-ci ;
– le faux semis, tel que décrit dans le document « Evaluating Cover Crops for Benefits, Costs and Performance within Cropping System Niches. » Agronomy Journal 97 (1). American Society of Agronomy: 322–32, en faisant lever des adventices à levée rapide, détruits avant le semis de la culture permet également de réduire le taux d’adventices présents dans la culture.
Les mesures curatives, dont l’objectif est d’éviter les levées d’adventices dans la culture, et d’avoir une incidence sur le rendement de celle-ci recommandées sont les suivantes :
– Le désherbage chimique, tel que décrit dans le document « Pulvérisation en grandes cultures. Les clés de la réussite », Arvalis, permet d’éviter les levées d’adventices dans la culture. Les produits phytosanitaires dédiés au désherbage chimique sont adaptés soit à un traitement pré-levée permettant d’éviter la germination des adventices présents à l’état de graines, soit à un traitement post-levée, permettant de détruire les adventices ayant levé dans la culture. Le désherbage chimique est soit sélectif, permettant de traiter une typologie d’adventice, soit non-sélectif, permettant de détruire l’ensemble des végétaux présent dans la parcelle au moment du traitement. L’utilisation répétée d’un même groupe chimique de désherbant entraîne l’apparition de résistances des adventices, ainsi qu’une phytotoxicité ayant un impact sur le rendement de la culture. Les désherbants chimiques sont appliqués sur la parcelle au moyen d’un pulvérisateur ;
– le désherbage mécanique tel que décrit dans le document « La bineuse, un outil adapté à une large gamme de sol », Arvalis, en pré-levée ou post-levée, permet de détruire soit les plantules d’adventices, soit les adventices à un stade plus avancé. Ce procédé de désherbage améliore la structure du sol et perturbe également le cycle de certains ravageurs. Les outils employés pour un désherbage mécanique sont les herses étrilles ou houes rotatives pour un désherbage complet ou les bineuses à dents pour un traitement inter-rang ou sous le rang ;
– des méthodes alternatives sont développées, tel que décrit dans le document «Alternative methods in weed management to the use of glyphosate and other herbicide », pesticide action network europe, 2018 (second edition), avec notamment, le traitement des adventices par injection d’un courant électrique, consistant à détruire chaque adventice levé par éclatement des cellules biologiques en provoquant une évaporation de l’eau contenue dans celles-ci, les traitements des adventices par chaleur, dont les procédés sont basés sur l’utilisation de laser, ou d’eau chaude haute pression, permettent de détruire sélectivement les adventices par un apport calorique suffisant à la destruction des cellules biologiques de l’adventice.
Les méthodes de traitement des carences et des maladies ou de lutte contre les nuisibles recommandées sont essentiellement basées sur des traitements chimiques.
Les traitements, qu’ils soient chimiques, mécaniques ou alternatifs, sont exécutés par un engin, généralement attachés à un véhicule motorisé qui se déplace dans la culture.
Ces traitements, sont traditionnellement larges et ne prennent pas en compte la présence ou non d’adventices, des nuisibles, des carences ou des maladies, en traitant la totalité de la parcelle agricole de façon homogène. Ce mode de contrôle est peu précis et entraîne une surutilisation des produits phytosanitaires lorsque le traitement est chimique, ou un débit de chantier réduit lorsque le traitement est mécanique ou alternatif.
Dans ce contexte, la thèse « Segmentation d’images pour la localisation d’adventices. Application à la réalisation d’un système de vision pour une pulvérisation spécifique en temps réel », Jérémie Bossu, Université de Bourgogne/CNRS 5158, 4 décembre 2007, décrit un dispositif expérimental de pilotage d’épandage comprenant une caméra montée sur un engin agricole, une unité centrale de détection et de calcul de l’instant optimal de pulvérisation, prenant en compte la position des plantes dans les images acquises par la caméra. Le prototype est testé sur une route peinte.
Le document WO2012/032245, « Système de commande pour épandage agricole », décrit un système de commande d’épandage comprenant un ensemble de buses d’épandage, des moyens de cartographie de plantes à traiter utilisant, dans une forme de réalisation, des caméras, et des moyens pour piloter l’épandage en fonction des données de cartographie produite. Ce système de commande, nécessitent un premier passage du système dans la parcelle agricole afin de produire une cartographie de cette parcelle agricole utilisée dans un deuxième passage pour l’application du traitement.
Le document WO2012/122988, « Rampe de pulvérisation pour pulvériser de manière sélective une composition désherbante sur des dicotylédones », décrit un procédé permettant de discerner une catégorie d’adventices parmi d’autres adventices afin de sélectivement traiter les adventices concernées par la détection. Ce procédé utilise une caméra stéréoscopique afin de discerner les adventices, et ne permet pas de discerner les adventices de la même famille, par exemple dicotylédones, à des stades précoces. De la même façon, ce procédé n’est pas adapté à une détection de symptômes foliaires de carences ou maladies.
Le document US2018/0240228, « Selective plant detection and treatment using green luminance photometric machine vision scan with real time chromaticity operations and image parameter floors for low processing load », décrit un procédé permettant la détection de végétaux dans une image et de cibler ceux-ci dans un traitement. Ce procédé n’est pas adapté à une détection sélective des familles d’adventices, ni à la détection de symptômes foliaires de carences ou maladies.
Le document FR 3 063 206 nécessite un système de mesure de distance utilisé pour acquérir en temps réel une information de la distance au sol de la caméra. Dans le domaine agricole, on tente toutefois tant que possible de limiter au maximum l’utilisation de composants électroniques embarqués, qui sont soumis à rude épreuve dans cet environnement, ce qui implique également une maintenance importante et les coûts associés.
Plus précisément, l’invention se rapporte à un procédé informatisé de contrôle d’un traitement agricole.
Un module de réception reçoit au moins une image bidimensionnelle d’une zone agricole acquise par un capteur.
Un module de traitement détermine un intervalle de temps d’activation d’un dispositif de traitement agricole pour le traitement agricole d’une portion de la zone agricole identifiée comme nécessitant un traitement agricole en utilisant un réseau de neurones traitant ladite image. Le module de traitement utilise également une localisation relative d’un dispositif de traitement agricole et du capteur, et une vitesse de déplacement du capteur.
L’invention vise ainsi à permettre un traitement en temps réel de la parcelle agricole, qui soit dimensionné à l’échelle des portions nécessitant réellement d’être traitées.
Ainsi, l’invention se rapporte à un procédé de contrôle de traitement agricole qui, outre les caractéristiques présentées ci-dessus, est caractérisé en ce que l’intervalle de temps présente une durée prédéterminée incluant un instant de traitement de la portion de la zone agricole autour d’un instant moyen déterminé pour une portion virtuelle de la zone agricole identifiée comme nécessitant un traitement agricole déterminée dans le plan horizontal du dispositif de traitement agricole.
Grâce à ces dispositions, un traitement contrôlé de la parcelle agricole est possible.
Selon différents aspects, il est possible de prévoir l’une et/ou l’autre des dispositions ci-dessous.
Selon une réalisation, l’image bidimensionnelle comprend au moins une diffraction comprenant des caractéristiques hyperspectrales, et dans lequel le réseau de neurones traite lesdites informations hyperspectrales.
Selon une réalisation, le réseau de neurones traite en outre une image bidimensionnelle non diffractée de la zone agricole.
Selon une réalisation, le module de traitement met en œuvre une projection prenant en compte l’orientation instantanée du capteur.
Selon une réalisation, le capteur acquière l’image bidimensionnelle de la zone agricole, et transmet l’image bidirectionnelle au module de réception
Selon un aspect, l’invention se rapporte à un procédé de traitement agricole, dans lequel on applique ce procédé informatisé de contrôle de traitement agricole, et dans lequel on applique un traitement agricole pendant l’intervalle de temps déterminé.
Selon une réalisation, on sélectionne un dispositif de traitement agricole parmi une pluralité de dispositifs de traitement agricole à partir des localisations d’une pluralité de dispositifs de traitement agricole.
Selon un aspect, l’invention se rapporte à un programme d’ordinateur comprenant des instructions de code de programme pour l’exécution de ce procédé lorsque le programme est exécuté sur un ordinateur.
Selon un aspect, l’invention se rapporte à un système informatisé de contrôle d’un traitement agricole comprenant :
. un module de réception adapté pour recevoir au moins une image bidimensionnelle d’une zone agricole acquise par un capteur,
. un module de traitement adapté pour déterminer un intervalle de temps d’activation d’un dispositif de traitement agricole pour le traitement agricole d’une portion de la zone agricole identifiée comme nécessitant un traitement agricole en utilisant un réseau de neurones traitant ladite image, une localisation relative d’un dispositif de traitement agricole et du capteur, et une vitesse de déplacement du capteur,
caractérisé en ce quel’intervalle de temps présente une durée prédéterminée incluant un instant de traitement de la portion de la zone agricole autour d’un instant moyen déterminé pour une portion virtuelle de la zone agricole identifiée comme nécessitant un traitement agricole déterminée dans un plan horizontal du dispositif de traitement agricole.
Selon un aspect, l’invention se rapporte à une machine agricole comprenant un tel système informatisé de contrôle de traitement agricole, un capteur adapté pour acquérir l’image bidimensionnelle, et un dispositif de traitement agricole adapté pour traiter la parcelle agricole pendant l’intervalle de temps déterminé par le système informatisé de contrôle de traitement agricole.
Des modes de réalisation de l’invention seront décrits ci-dessous par référence aux dessins, décrits brièvement ci-dessous :
: une représentation schématique du dispositif complet ; et
: une représentation schématique structurelle des éléments du dispositif de la Fig. 1 ;
- : une représentation schématique de face d'un dispositif de capture d'une image hyperspectrale selon un mode de réalisation de l'invention ;
- : une représentation schématique structurelle des éléments du dispositif de la figure 3 ;
- : une représentation schématique structurelle des éléments d’un dispositif de capture et de détection dans une scène hyperspectrale selon un mode de réalisation de l’invention ;
- : une représentation schématique structurelle alternative des éléments du dispositif de la Fig. 5 ;
- : une représentation schématique des diffractions obtenues par le dispositif d’acquisition de la Fig. 5 ;
- : une représentation schématique de l’architecture du réseau de neurones de la Fig. 5 ;
- : une représentation schématique structurelle des éléments d’un dispositif de capture et de détection dans une scène hyperspectrale selon un mode de réalisation de l’invention ;
- : une représentation schématique de l’architecture du réseau de neurones de la Fig. 9.
: une représentation schématique structurelle, vue en projection, des éléments du dispositif de la Fig. 1.
Sur les dessins, des références identiques désignent des objets identiques ou similaires.
DESCRIPTION DETAILLEE
La Fig. 1 illustre un dispositif de contrôle de traitement agricole coopératif destiné à être monté sur une machine agricole 1, ladite machine agricole 1 comprenant au moins un dispositif de traitement agricole contrôlable 3 ; ledit dispositif de contrôle de traitement agricole comprenant au moins un système de détection 2 d’adventices ou de symptômes foliaires de carences ou maladie, chacun étant adapté mécaniquement pour une fixation sur la machine agricole 1 et présentant un angle de visée de l’objectif d’acquisition en direction du sens d’avancement de ladite machine agricole 1. Comme on peut le voir en particulier sur la figure 1, la machine agricole se déplace dans la parcelle agricole 5 selon une direction d’avancement. Les systèmes de détection 2 peuvent être disposés espacés les uns par rapport aux autres selon une direction horizontale transversale à la direction d’avancement. Ils peuvent être par exemple portés par une poutre transversale de la machine agricole. Pour fixer les idées, on peut définir l’axe « x » comme l’axe d’avancement de la machine agricole, et « y » l’axe horizontal transversal (sensiblement parallèle à la direction principale de la poutre). Le dispositif de traitement agricole 3 est contrôlable pour traiter une zone à traiter en aval de la zone imagée par le système de détection 2 d’adventices ou de symptômes foliaires de carences ou de maladies le long du déplacement de la machine agricole.
Tel qu’illustré sur la Fig. 2, les systèmes de détection 2 d’adventices ou de symptômes foliaires de carences ou maladies sont fixés sur la machine agricole de façon à capturer les informations visuelles de la parcelle agricole 5. Dans l’exemple de réalisation, les systèmes de détection 2 d’adventices ou de symptômes foliaires de carence ou maladies présentent un champ de vision orienté dans le sens d’avancement de la machine agricole. De plus, les systèmes de détection 2 d’adventices ou de symptômes foliaires de carence ou maladies sont au-dessus du sol. Par conséquent, les systèmes de détection 2 d’adventices ou de symptômes foliaires de carence ou maladies sont orientés de sorte que leur axe focal est incliné par rapport au plan horizontal. On prévoit par exemple une orientation de 30°, une orientation de 45°, ou une orientation de 60° par rapport au plan horizontal. Par exemple, un capteur hyperspectral, tel que décrit dans le document FR1873313, « Dispositif de détection à acquisition hyperspectrale » ou dans le document FR1901202, « Dispositif de détection hyperspectrale par fusion de capteurs », ou dans le document FR1905916, « Dispositif de détection hyperspectrale », ou dans le document WO2019EP85847, « Dispositif de détection hyperspectrale », peut être utilisé pour chacun desdits systèmes de détection 2 d’adventices ou de symptômes foliaires de carences ou maladies.
Selon un premier mode de réalisation, le système de détection 2 d’adventices ou de symptômes foliaires de carences ou maladies comprend un dispositif de capture 10 et un module informatisé de caractérisation 21. La figure 3 illustre un dispositif de capture 10 comportant trois capteurs juxtaposés 11-13. La figure 3 est présentée dans le plan incliné formé par les axes focaux parallèles des trois capteurs. Un premier capteur 11 permet d'obtenir une image compressée 14' d'un plan focal P11' d'une scène observée. Tel qu'illustré sur la figure 4, ce premier capteur 11 comporte une première lentille convergente 30 qui focalise le plan focal P11' sur une ouverture 31. Un collimateur 32 capte les rayons traversant l'ouverture 31 et transmet ces rayons à un réseau de diffraction 33. Une seconde lentille convergente 34 focalise ces rayons issus du réseau de diffraction 33 sur une surface de captation 35.
La structure de ce réseau optique est relativement similaire à celle décrite dans la publication scientifique « Computed-tomography imaging spectrometer : expérimental calibration and reconstruction results », publiée dans APPLIED OPTICS, volume 34 (1995) nombre 22.
Cette structure optique permet d'obtenir une image compressée 14’, illustrée sur la figure 7, présentant plusieurs diffractions R0-R7 du plan focal P11' disposées autour d'une image non diffractée de petite taille. Dans l'exemple des figures 3, 4 et 7, l'image compressée présente huit diffractions R0-R7 distinctes obtenues avec deux axes de diffraction du réseau de diffraction 33 disposés aussi éloignés que possible l’un de l’autre dans un plan normal à l’axe optique, c’est-à-dire sensiblement orthogonaux l’un à l’autre.
La surface de captation 35 peut correspondre à un capteur CCD (pour « charge- coupled device » dans la littérature anglo-saxonne, c'est-à-dire un dispositif à transfert de charge), à un capteur CMOS (pour « complementary metal-oxide-semiconductor » dans la littérature anglo-saxonne, une technologie de fabrication de composants électroniques), ou à tout autre capteur connu. Par exemple, la publication scientifique « Practical Spectral Photography », publiée dans Eurographics, volume 31 (2012) nombre 2, propose d'associer cette structure optique à un appareil photo numérique standard pour capter l'image compressée.
De préférence, chaque pixel de l'image compressée 14’ est codé sur 8 bits permettant ainsi de représenter 256 couleurs.
Un second capteur 12 permet d'obtenir une image non diffractée 17' d'un plan focal P12' de la même scène observée, mais avec un décalage induit par le décalage entre le premier 11 et le second capteur 12. Ce second capteur 12 correspond à un capteur RVB, c'est-à-dire un capteur permettant de coder l'influence des trois couleurs Rouge, Verte et Bleue du plan focal P12'. Il permet de rendre compte de l'influence de l'utilisation d'un filtre bleu F1, d'un filtre vert F2 et d'un filtre rouge F3 sur la scène observée.
Ce capteur 12 peut être réalisé par un capteur CMOS ou CCD associé à filtre de Bayer. En variante, tout autre capteur peut être utilisé pour acquérir cette image RVB 17'. De préférence, chaque couleur de chaque pixel de l'image RVB 17' est codée sur 8 bits. Ainsi, chaque pixel de l'image RVB 17' est codé sur 3 fois 8 bits. En variante, on pourrait utiliser un capteur monochrome.
Un troisième capteur 13 permet d'obtenir une image infrarouge 18', IR, d'un troisième plan focal P13' de la même scène observée avec également un décalage avec le premier 11 et le second capteurs 12. Ce capteur 13 permet de rendre compte de l'influence de l'utilisation d'un filtre infrarouge F4 sur la scène observée.
Tout type de capteur connu peut être utilisé pour acquérir cette image IR 18. De préférence, chaque pixel de l'image IR 18 est codé sur 8 bits. En variante, on utilise seulement l’un ou l’autre du capteur 12 et du capteur 13.
La distance entre les trois capteurs 11-13 peut être inférieure à 1 cm de sorte à obtenir un recoupement important des plans focaux P11'-P13' par les trois capteurs 11-13. Les capteurs sont par exemple alignés selon l’axe x. La topologie et le nombre des capteurs peuvent varier sans changer l'invention.
Par exemple, les capteurs 11-13 peuvent acquérir une image de la même scène observée en utilisant des miroirs semi-transparents pour transmettre les informations de la scène observée aux différents capteurs 11-13. La figure 3 illustre un dispositif 10 comportant trois capteurs 11-13. En variante, d'autres capteurs peuvent être montés sur le dispositif 10 pour augmenter les informations contenues dans l'image hyperspectrale. Par exemple, le dispositif 10 peut intégrer un capteur dont la longueur d'onde est comprise entre 0,001 nanomètre et 10 nanomètres ou un capteur dont la longueur d'onde est comprise entre 10000 nanomètres et 20000 nanomètres.
Tel qu'illustré sur la figure 4, le dispositif 10 comporte également un module de traitement 16 à partir des différentes diffractions R0- R7 de l'image diffractée 14’ et des images non-diffractées 17’, 18’.
Dans l'exemple des figures 3 et 4, dans lequel les capteurs 11-13 sont juxtaposés, une étape de prétraitement est réalisée pour extraire un plan focal P11–P13 présent sur chacune des images 14', 17'-18' acquises par les trois capteurs 11-13. Ce prétraitement consiste, pour chaque plan focal P11'-P13', à isoler 25 la partie commune des plans focaux P11'-P13' puis à extraire 26 cette partie commune pour former l'image 14, 17- 18 de chaque plan focal P11-P13 observé par le capteur 11-13 spécifique. La partie de chaque image 14', 17'-18' à isoler peut être définie directement dans une mémoire du dispositif de capture 10 en fonction des choix de positionnement des capteurs 11-13 entre eux, ou une étape d'apprentissage peut être utilisée pour identifier la partie à isoler 25.
De préférence, les images 17'-18' issues de capteurs RVB et IR sont recoupées en utilisant une corrélation croisée en deux dimensions. L'extraction du plan focal de l'image diffractée 14' est calculée par interpolation des décalages en x et y entre les capteurs 12-13 ramenés à la position du capteur 11 de l'image diffractée en connaissant la distance entre chaque capteur 11-13. Cette étape de prétraitement n'est pas toujours nécessaire, notamment, lorsque les capteurs 11-13 sont configurés pour capturer le même plan focal, par exemple avec l'utilisation de miroirs semi-transparents.
En variante, tel qu'illustré sur la Fig. 6, le dispositif de capture 202 peut comporter une première lentille convergente 241 qui focalise le plan focal 303 sur un masque 242. Un collimateur 243 capte les rayons traversant le masque 242 et transmet ces rayons à un prisme 244. Une seconde lentille convergente 245 focalise ces rayons issus du prisme 244 sur une surface de captation 246. Le masque 242 définit un codage pour l’image 211.
La structure de cet assemblage optique est relativement similaire à celle décrite dans la publication scientifique « Compressive Coded Aperture Spectral Imaging », IEEE Signal Processing Magazine, Volume 31, Issue 1, Gonzalo R. Arce, David J. Brady, Lawrence Carin, Henry Arguello, and David S. Kittle.
En variante, les surfaces de captation 35 ou 246 peuvent correspondre au dispositif d'acquisition photographique d'un ordiphone ou tout autre dispositif portable incluant un dispositif d'acquisition photographique, en ajoutant le dispositif de capture 202 de la scène hyperspectrale devant le dispositif d'acquisition photographique.
En variante, le système d’acquisition peut comprendre une réalisation mécanique compacte et intégrable dans un dispositif portable et autonome et le système de détection est inclus dans ledit dispositif portable et autonome.
En variante, les surfaces de captation 35 ou 246 peuvent être un dispositif dont les longueurs d'ondes captées ne sont pas dans la partie visible. Par exemple, le dispositif 202 peut intégrer des capteurs dont la longueur d'onde est comprise entre 0,001 nanomètre et 10 nanomètres ou un capteur dont la longueur d'onde est comprise entre 10000 nanomètres et 20000 nanomètres, ou un capteur dont la longueur d'onde est comprise entre 300 nanomètres et 2000 nanomètres. Il peut s’agir d’un dispositif infrarouge.
Ainsi, le module de réception du système de contrôle de traitement agricole reçoit la ou les images bidimensionnelles acquises par le système d’acquisition.
De plus, chaque système de détection 2 peut comprendre un système de localisation, du type comprenant une centrale inertielle et/ou un système de géolocalisation. Le système de localisation est utilisé pour déterminer la localisation de l’adventice ou du symptôme foliaire de carences ou maladies dans un référentiel terrestre attaché à la machine agricole.
La projection de ladite donnée image est calculée suivant les relations suivantes :
Imgprojetée= R-1.Imgacquise
R=Rz.Ry.Rx
Où :
– Imgprojetéeest le tenseur contenant les pixels de l’image projetée ; et
– Imgacquiseest le tenseur contenant les pixels de ladite donnée image brute dans le plan du capteur; et
– R est la matrice contenant les rotations du capteur suivant les trois axes de roulis, tangage et lacet par rapport au référentiel terrestre; et
– α est l’angle de lacet ; et
– β est l’angle de roulis ; et
– γ est l’angle de tangage.
Les angles α, β, et γ, correspondent respectivement aux angles de lacet, roulis et tangage actuels du dispositif de capture 10 tels que calculés à partir des données brutes de la centrale inertielle embarquée dans le dispositif de capture 10 ; ces informations de roulis, tangage et lacet sont calculées en continu et maintenues à jour par le système de détection 2 d'adventices ou de symptômes foliaires de carences ou maladies considéré au moyen d’un algorithme d’estimation d’attitude utilisant les informations brutes de ladite centrale inertielle embarquée dans le dispositif de capture 10 considéré.
La matrice Imgacquiseest une matrice rectangulaire dont les dimensions sont les dimensions du capteur. Cette matrice correspond à une zone sensiblement en forme de trapèze du sol. La matrice Imgprojetéeest une matrice comprenant une zone proche d’un trapèze. Le grand côté du trapèze correspondant sensiblement aux pixels les plus hauts du capteur, captant l’image de la partie la plus éloignée du sol, alors que le petit côté du trapèze correspondant sensiblement aux pixels les plus bas du capteur, captant l’image de la partie la plus proche du sol. La zone non nulle a une forme de trapèze si deux des angles de lacet, roulis et tangage sont nuls. Le plus souvent, ces angles seront en effet proches de zéro. La matrice est complétée de pixels d’intensité nulle de manière à former une matrice rectangulaire.
Plus précisément, la projection définie ci-dessus permet de déterminer une matrice Imgprojetéedans un plan horizontal.
Tel qu’illustré sur la Fig.11 l’ortho-projection des informations d’image acquise de la parcelle agricole 5 parcourue permet d’obtenir les images projetées 7.1 et 7.2 à partir des images 6.1 et 6.2. En particulier, étant donné qu’il n’est pas possible de connaître exactement l’élévation du sol à l’endroit de l’acquisition de l’image, les images projetées 7.1 ou 7.2 représentent une portion virtuelle de la zone agricole dans un plan horizontal.
Comme représenté sur la figure 5, lorsque l’image 211 du plan focal hyperspectral observé est obtenue, le système de détection 2 met en œuvre un réseau de neurones 212 pour détecter une particularité dans la scène observée à partir des informations de l’image compressée 211.
Ce réseau de neurones 212 vise à déterminer la probabilité de présence de la particularité recherchée pour chaque pixel localisé aux coordonnées x et y de la scène hyperspectrale observée.
Pour ce faire, tel qu'illustré sur la Fig. 8, le réseau de neurones 212 comporte une couche d'entrée 230, apte à extraire les informations de l'image projetée 211 et une couche de sortie 231, apte à traiter ces informations de sorte à générer une image dont l'intensité de chaque pixel aux coordonnées x et y, correspond à la probabilité de présence de la particularité aux coordonnées x et y de la scène hyperspectrale.
La couche d’entrée 230 est peuplée à partir des pixels formant l’image compressée. Ainsi, la couche d'entrée est un tenseur d'ordre trois, et possède deux dimensions spatiales de taille XMAXet YMAX, et une dimension de profondeur de taille DMAX, correspondant au nombre de sous-ensembles de l’image compressée copiés dans la couche d’entrée. L'invention utilise la relation non linéaire f(xt, yt, dt) → (ximg, yimg) définie pour xt[0..XMAX[, yt[0..YMAX[ et dt[0..DMAX[ permettant de calculer les coordonnées ximget yimgdu pixel de l’image compressée dont l'intensité est copiée dans le tenseur d'ordre trois de ladite couche d'entrée du réseau de neurones aux coordonnées (xt, yt, dt).
Par exemple, dans le cas d’une image compressée 211 obtenue à partir du dispositif de capture de la figure 5, la couche d’entrée 230 peut être peuplée de la manière suivante :
avec :
n=floor(M(dt-1)⁄DMAX) ;
n compris entre 0 et M, le nombre de diffractions de l'image compressée ;
λ=(dt-1)mod(DMAX/M) ;
dtcompris entre 1 et DMAX;
xtcompris entre 0 et XMAX;
ytcompris entre 0 et YMAX;
XMAXla taille selon l’axe x du tenseur d’ordre trois de la couche d’entrée ;
YMAXla taille selon l’axe y du tenseur d’ordre trois de la couche d’entrée ;
DMAXla profondeur du tenseur d’ordre trois de la couche d’entrée ;
λsliceX, la constante du pas spectral selon l’axe x de ladite image compressée ;
λsliceY, la constante du pas spectral selon l’axe y de ladite image compressée ;
xoffsetX(n) correspondant au décalage suivant l'axe x de la diffraction n ;
yoffsetY(n) correspondant au décalage suivant l'axe y de la diffraction n.
Floor est un opérateur de troncature bien connu.
Mod représente l’opérateur mathématique modulo.
Comme il est en particulier bien visible sur la figure 8, chaque tranche, en profondeur, du tenseur d’entrée d’ordre trois du réseau de neurones, reçoit une partie d’un lobe de diffraction correspondant sensiblement à un intervalle de longueurs d’onde.
En variante, l’invention permet de corréler les informations contenues dans les différentes diffractions de l’image diffractée avec des informations contenues dans la partie centrale non-diffractée de l’image.
Selon cette variante, on peut rajouter une tranche supplémentaire dans la direction de la profondeur de la couche d’entrée, dont les neurones seront peuplés avec l’intensité détectées dans les pixels de l’image compressée correspondant à la détection non-diffractée. Par exemple, si on affecte à cette tranche la coordonnée dt=0, on peut conserver la formule ci-dessus pour le peuplement de la couche d’entrée pour dtsupérieur ou égal à 1, et peupler la couche dt=0 de la manière suivante :
ximg=(Imgwidth/2)-XMAX+xt;
yimg=(Imgheight/2)-YMAX+yt;
Avec :
Imgwidthla taille de l’image compressée selon l’axe x ;
Imgheightla taille de l’image compressée selon l’axe y.
L’image compressée obtenue par le système optique contient le plan focal de la scène non diffractée au centre, ainsi que les projections diffractées suivant les axes des différents filtres de diffractions. Ainsi, le réseau de neurones utilise, pour la détection directe des particularités recherchées, les informations de ladite au moins une image diffractée suivantes :
- l'intensité lumineuse dans la partie centrale et non-diffractée du plan focal de la scène aux coordonnées x et y ; et
- des intensités lumineuses dans chacune des diffractions de ladite image compressée dont les coordonnées x' et y' sont dépendantes des coordonnées x et y de la partie centrale non diffractée du plan focal de la scène.
En variante, dans le cas d’une image compressée 211 obtenue à partir du dispositif de capture de la figure 6, la couche d’entrée 230 peut être peuplée de la manière suivante :
f(xt,yt,dt)={(ximg=xt) ;(yimg=yt)}(Img=MASK si dt=0 ; Img=CASSI si dt>0),
Avec :
MASK : image du masque de compression utilisé,
CASSI : image compressée mesurée,
Img : Image sélectionnée dont le pixel est copié.
Sur la tranche 0 du tenseur d’ordre trois de la couche d’entrée est copiée l’image du masque de compression employé.
Sur les autres tranches du tenseur d’ordre trois de la couche d’entrée est copiée l’image compressée de la scène hyperspectrale.
L'architecture dudit réseau de neurones 212 est composé d'un ensemble de couches convolutives assemblées linéairement et en alternance avec des couches de décimation (pooling), ou d'interpolation (unpooling).
Une couche convolutive de profondeur d, noté CONV(d), est définie par d noyaux de convolution, chacun de ces noyaux de convolution étant appliqué au volume du tenseur d'entrée d'ordre trois et de taille xinput,yinput,dinput. La couche convolutive génère ainsi un volume de sortie, tenseur d'ordre trois, ayant une profondeur d. Une fonction d'activation ACT est appliquée sur les valeurs calculées du volume de sortie de cette couche convolutive.
Les paramètres de chaque noyau de convolution d'une couche convolutive sont spécifiés par la procédure d'apprentissage du réseau de neurones.
Différentes fonctions d'activation ACT peuvent être utilisées. Par exemple, cette fonction peut être une fonction ReLu, définie par l'équation suivante :
En alternance avec les couches convolutives, des couches de décimation (pooling), ou des couches d'interpolation (unpooling) sont insérées.
Une couche de décimation permet de réduire la largeur et la hauteur du tenseur d'ordre trois en entrée pour chaque profondeur dudit tenseur d'ordre trois. Par exemple, une couche de décimation MaxPool(2,2) sélectionne la valeur maximale d'une tuile glissante sur la surface de 2x2 valeurs. Cette opération est appliquée sur l'ensemble des profondeurs du tenseur d'entrée et génère un tenseur de sortie ayant la même profondeur et une largeur divisée par deux, ainsi qu'une hauteur divisée par deux.
Une couche d’interpolation permet d’augmenter la largeur et la hauteur du tenseur d'ordre trois en entrée pour chaque profondeur dudit tenseur d'ordre trois. Par exemple, une couche d’interpolation MaxUnPool(2,2) copie la valeur d’entrée d’un point glissant sur la surface de 2x2 valeurs de sortie. Cette opération est appliquée sur l'ensemble des profondeurs du tenseur d'entrée et génère un tenseur de sortie ayant la même profondeur et une largeur multipliée par deux, ainsi qu'une hauteur multipliée par deux.
Une architecture de réseau de neurones permettant la détection directe de particularités dans la scène hyperspectrale peut être la suivante :
Input
CONV(64)
MaxPool(2,2)
CONV(64)
MaxPool(2,2)
CONV(64)
MaxPool(2,2)
CONV(64)
CONV(64)
MaxUnpool(2,2)
CONV(64)
MaxUnpool(2,2)
CONV(64)
MaxUnpool(2,2)
CONV(1)
Output
En variante, le nombre de couches de convolution CONV(d) et de décimation MaxPool(2,2) peut être modifié afin de faciliter la détection de particularités ayant une complexité sémantique supérieure. Par exemple, un nombre plus élevé de couches de convolution permet de traiter des signatures plus complexes de forme, de texture, ou spectrales de la particularité recherchée dans la scène hyperspectrale.
En variante, le nombre de couches de déconvolution CONV(d) et d’interpolation MaxUnpool(2, 2) peut être modifié afin de faciliter la reconstruction de la couche de sortie. Par exemple, un nombre plus élevé de couches de déconvolution permet de reconstruire une sortie avec une précision plus importante.
En variante, les couches de convolution CONV(64), peuvent avoir une profondeur différente de 64 afin de traiter un nombre de particularités locales différent. Par exemple, une profondeur de 128 permet de traiter localement 128 particularités différentes dans une scène hyperspectrale complexe.
En variante, les couches d’interpolation MaxUnpool(2, 2) peuvent être de dimension d’interpolation différente. Par exemple, une couche MaxUnpool (4, 4) permet d’augmenter la dimension de traitement de la couche supérieure.
En variante, les couches d’activation ACT de type ReLu(i) insérées suite à chaque convolution et déconvolution, peuvent être de type différent. Par exemple, la fonction softplus définie par l’équation : peut être utilisée.
En variante, les couches de décimation MaxPool(2, 2) peuvent être de dimension de décimation différente. Par exemple, une couche MaxPool(4, 4) permet de réduire la dimension spatiale plus rapidement et de concentrer la recherche sémantique du réseau de neurones sur les particularités locales.
En variante, des couches entièrement connectées peuvent être insérées entre les deux couches de convolution centrale à la ligne 6 de la description afin de traiter la détection dans un espace mathématique plus élevé. Par exemple, trois couches entièrement connectées de taille 128 peuvent être insérées.
En variante, les dimensions des couches de convolution CONV(64), de décimation MaxPool(2, 2), et d’interpolation MaxUnpool(2, 2) peuvent être ajustées sur une ou plusieurs couches, afin d’adapter l’architecture du réseau de neurones au plus proche du type de particularités recherchées dans la scène hyperspectrale.
En variante, des couches de normalisation, par exemple de type BatchNorm ou GroupNorm, tel que décrit dans « Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift », Sergey Ioffe, Christian Szegedy, Fevrier 2015 et « Group Normalization », Yuxin Wu, Kaiming He, FAIR, Juin 2018 , peuvent être insérées avant ou après chaque couche d’activation ou à différents niveaux de la structure du réseau neuronal.
Les poids dudit réseau de neurones 212 sont calculés au moyen d'un apprentissage. Par exemple, un apprentissage par rétro-propagation du gradient ou ses dérivés à partir de données d'apprentissage peut être utilisé pour calculer ces poids.
En variante, le réseau de neurones 212 peut déterminer la probabilité de présence de plusieurs particularités distinctes au sein de la même scène observée. Dans ce cas, la dernière couche convolutive aura une profondeur correspondant au nombre de particularités distinctes à détecter. Ainsi la couche convolutive CONV(1) est remplacée par une couche convolutive CONV(u), où u correspond au nombre de particularités distinctes à détecter.
La réalisation décrite ci-dessus peut n’utiliser qu’un unique capteur 11. Selon le mode de réalisation décrit en relation avec la figure 4, le dispositif de capture d'une scène hyperspectrale comporte un ensemble de capteurs permettant d'obtenir au moins une image compressée en deux dimensions 211 ou 213, au moins une image standard 312 du plan focal hyperspectral de la scène observée, et au moins une image infra-rouge de celui-ci, les données étant alors placées en entrée du réseau de neurones 20.En variante, comme représenté sur la figure 9, le dispositif d’acquisition 301 d'une scène hyperspectrale comporte un ensemble de capteurs permettant d'obtenir au moins une image compressée en deux dimensions 211 et une image compressée en deux dimensions 213 et au moins une image standard 312 d'un plan focal hyperspectral 303 d'une scène observée.
Le dispositif de capture 102 peut ainsi comprendre un dispositif d’acquisition d’une image « standard » non compressée, comprenant une lentille convergente 331 et une surface de captation 232. Le dispositif de capture 102 peut en outre comprendre un dispositif d’acquisition d’une image compressée tel que décrit ci-dessus en référence avec la figure 6, et un dispositif d’acquisition d’une image compressée tel que décrit ci-dessus en référence avec la figure 5.
Dans l’exemple présenté, le dispositif d’acquisition de l’image standard et le dispositif d’acquisition de l’image compressée sont disposés juxtaposés avec des axes optiques parallèles, et des faisceaux optiques se recouvrant au moins partiellement. Ainsi, une portion de la scène hyperspectrale est imagée à la fois par les dispositifs d’acquisition. Ainsi, les plans focaux des différents capteurs d’acquisition des images sont décalés les uns par rapport aux autres transversalement aux axes optiques de ces capteurs.
En variante, on utilise un jeu de miroirs partiellement réfléchissants de sorte à capter une image standard non-diffractées 312 et ladite au moins une image compressée 211, 213 de la même scène hyperspectrale 203 sur plusieurs capteurs simultanément.
En variante, la surface de captation 232 peut être un dispositif dont les longueurs d'ondes captées ne sont pas dans la partie visible. Par exemple, le dispositif 202 peut intégrer des capteurs dont la longueur d'onde est comprise entre 0,001 nanomètre et 10 nanomètres ou un capteur dont la longueur d'onde est comprise entre 10000 nanomètres et 20000 nanomètres, ou un capteur dont la longueur d'onde est comprise entre 300 nanomètres et 2000 nanomètres.
Lorsque les images 211, 312 ou 213 du plan focal hyperspectral observé sont obtenues, le moyen de détection met en œuvre un réseau de neurones 214 pour détecter une particularité dans la scène observée à partir des informations des images compressées 211 et 213, et de l’image standard 312.
En variante, seules les images compressée 211 et standard 312 sont utilisées et traitées par le réseau de neurones 214.
En variante, seules les images compressée 213 et standard 312 sont utilisées et traitées par le réseau de neurones 214.
Ainsi, quand la description se rapporte à un ensemble d’images compressées, il s’agit d’au moins une image compressée.
Ce réseau de neurones 214 vise à déterminer la probabilité de présence de la particularité recherchée pour chaque pixel localisé aux coordonnées x et y de la scène hyperspectrale observée.
Pour ce faire, tel qu'illustré sur la Fig. 10, le réseau de neurones 214 comporte un encodeur 251 pour chaque image compressée et pour chaque image non compressée ; chaque encodeur 251 possède une couche d'entrée 250, apte à extraire les informations de l'image 211, 312 ou 213. Le réseau de neurones fusionne les informations provenant des différents encodeurs 251 au moyen de couches de convolution ou de couches entièrement connectées 252 (cas particulier représenté sur la figure). Un décodeur 253 et sa couche de sortie 350, apte à traiter ces informations de sorte à générer une image dont l'intensité de chaque pixel, à la coordonnée x et y, correspond à la probabilité de présence de la particularité aux coordonnées x et y de la scène hyperspectrale, est inséré suite à la fusion des informations.
Tel qu’illustré sur la Fig. 8, la couche d’entrée 250 d’un encodeur 251 est remplie avec les différentes diffractions de l’image compressée 211 comme décrit ci-dessus.
Le peuplement décrit ci-dessus correspond au peuplement de la première entrée (« Input1 ») du réseau de neurones, selon l’architecture présentée ci-dessous.
Pour la deuxième entrée (« Input2 ») du réseau de neurones, le peuplement de la couche d’entrée relative à l’image « standard » est peuplée en copiant directement l’image « standard » dans le réseau de neurones.
Selon un exemple de réalisation où on utilise également une image compressée 213, la troisième entrée « Input3 » du réseau de neurones est peuplée comme décrit ci-dessus pour l’image compressée 213.
Une architecture de réseau de neurones permettant la détection directe de particularités dans la scène hyperspectrale peut être la suivante :
Input1 Input2 Input3
CONV(64) CONV(64) CONV(64)
MaxPool(2,2) MaxPool(2,2) MaxPool(2,2)
CONV(64) CONV(64) CONV(64)
MaxPool(2,2) MaxPool(2,2) MaxPool(2,2)
CONV(64)
CONV(64)
MaxUnpool(2,2)
CONV(64)
MaxUnpool(2,2)
CONV(64)
MaxUnpool(2,2)
CONV(1)
Output
Dans cette description, « Input1 » correspond à la portion de la couche d’entrée 250 peuplée à partir de l’image compressée 211. « Input2 » correspond à la portion de la couche d’entrée 250 peuplée à partir de l’image standard 312, et « Input3 » correspond à la portion de la couche d’entrée 250 peuplée à partir de l’image compressée 213. La ligne « CONV(64) » à la cinquième ligne de l’architecture opère la fusion des informations.
En variante, la ligne « CONV(64) » à la cinquième ligne de l’architecture opérant la fusion des informations peut être remplacée par une couche entièrement connectée ayant pour entrée l’ensemble des sorties MaxPool(2, 2) des chemins de traitement de l’ensemble des entrées « input1 », « input2 » et « input3 » et en sortie un tenseur d’ordre un servant d’entrée à la couche suivante « CONV(64) » présentée à la sixième ligne de l’architecture.
Notamment, la couche de fusion du réseau de neurones prend en compte les décalages des plans focaux des différents capteurs d’acquisition des images, et intègre la fonction homographique permettant de fusionner les informations des différents capteurs en prenant en compte les parallaxes des différentes images.
Les variantes présentées ci-dessus pour le mode de réalisation de la figure 8 peuvent également être appliquées ici.
Les poids dudit réseau de neurones 214 sont calculés au moyen d'un apprentissage. Par exemple, un apprentissage par rétro-propagation du gradient ou ses dérivés à partir de données d'apprentissage peut être utilisé pour calculer ces poids.
En variante, le réseau de neurones 214 peut déterminer la probabilité de présence de plusieurs particularités distinctes au sein de la même scène observée. Dans ce cas, la dernière couche convolutive aura une profondeur correspondant au nombre de particularités distinctes à détecter. Ainsi la couche convolutive CONV(1) est remplacée par une couche convolutive CONV(u), où u correspond au nombre de particularités distinctes à détecter.
Selon une variante de réalisation, comme représenté sur la figure 8, on n’utilise pas nécessairement un dispositif d’acquisition dédié distinct pour obtenir l’image « standard » 312. En effet, comme présenté ci-dessus en relation avec la figure 5, dans certains cas, une partie de l’image compressée 211 comprend une image « standard » de la scène hyperspectrale. Il s’agit notamment de la portion d’image C décrite ci-dessus. Dans ce cas, on peut utiliser cette portion d’image « C » de l’image compressée 211 comme image « standard » d’entrée du réseau de neurones.
Ainsi, le réseau de neurones 214 utilise, pour la détection directe des particularités recherchées, les informations de ladite au moins une image compressée suivantes :
- l'intensité lumineuse dans la partie centrale et non-diffractée du plan focal de la scène aux coordonnées x et y ; et
- des intensités lumineuses dans chacune des diffractions de ladite image compressée dont les coordonnées x' et y' sont dépendantes des coordonnées x et y de la partie centrale non diffractée du plan focal de la scène.
L’invention a été présentée ci-dessus dans différentes variantes, dans lesquelles une particularité détectée de la scène hyperspectrale est déterminée à partir d’une image bidimensionnelle dont la valeur de chaque pixel aux cordonnées x et y correspond à la probabilité de présence d’une particularité aux mêmes coordonnées x et y du plan focal hyperspectral de la scène. Notamment, la particularité correspond à une particularité potentiellement indicatrice de la présence d’un adventice ou d’un symptôme foliaire de carence ou maladie en ce pixel. Cette image bidimensionnelle est utilisée pour déterminer la localisation, dans le référentiel de l’image projetée, de l’adventive ou symptôme foliaire de carence ou maladie. La localisation est par exemple déterminée comme le barycentre d’un ensemble de pixels juxtaposés pour lesquels l’intensité de probabilité de détection est supérieure à un seuil prédéterminé. Chaque adventice, chaque symptôme foliaire de carence ou de maladie peut être caractérisé par une ou plusieurs particularités. Le système de détection combine alors les résultats de la détection de chaque particularité associée à un adventice ou à un symptôme foliaire de carence ou de maladie pour déterminer une probabilité de présence de l’adventice ou du symptôme foliaire de carence ou de maladie. Le cas échéant, ce processus est répété pour l’ensemble des adventices ou symptômes foliaires de carence ou de maladie prédéterminés recherchés dans la parcelle. On peut, toutefois, en variante, prévoir, selon les modes de réalisation de l’invention, la détection d’autres particularités. Selon un exemple, une telle autre particularité peut être obtenue à partir de l’image issue du réseau de neurones présentée ci-dessus. Pour cela, le réseau de neurones 212, 214, peut présenter une couche ultérieure, adaptée pour traiter l’image en question et déterminer la particularité recherchée.
Selon une variante, on comprendra que le réseau de neurones peut également être architecturé pour déterminer cette particularité et la localisation de celle-ci dans le référentiel de l’image projetée sans passer par la détermination d’une image de probabilités de présence de la particularité en chaque pixel.
Dans le cadre de la présente demande de brevet, le système de détection décrit ci-dessus est considéré comme un unique système de détection, même si celui-ci utilise différents capteurs dont les informations sont fusionnées pour détecter un adventice ou un syndrome foliaire de carence ou de maladie.
La pluralité desdits au moins un dispositif de traitement agricole contrôlable 3 est également fixée sur la machine agricole de façon à pouvoir traiter les végétaux cible 4. Comme on peut le voir en particulier sur la figure 1, les dispositifs de traitement agricole 3 peuvent être disposés espacés les uns par rapport aux autres selon une direction horizontale transversale à la direction d’avancement. Ils peuvent être par exemple portés par une poutre transversale de la machine agricole, le cas échéant par la même poutre qui porte les systèmes de détection 2. De plus, ils peuvent être espacés de ceux-ci dans la direction transversale. Le dispositif de contrôle de traitement agricole comprend en outre un système de localisation des dispositifs de traitement agricole. Le système de localisation peut être mutualisé avec le système de localisation des systèmes de détection 2 si la position relative des dispositifs de traitement agricole 3 et des systèmes de détection 2 est connue. Le dispositif de contrôle de traitement agricole comprend en outre un système de communication connectant les systèmes de détection 2 d'adventices ou de symptômes foliaires de carences ou maladies. Le dispositif de traitement agricole comprend en outre un système de communication adapté pour échanger des données entre les systèmes de détection 2 d'adventices ou de symptômes foliaires de carences ou maladies et les dispositifs de traitement agricole 3.
Il n’est pas nécessaire que le nombre de dispositifs de traitement agricole contrôlables 3 soit le même que le nombre de systèmes de détection 2 d’adventices ou de symptômes foliaires de carences ou maladies. En effet, selon un exemple, la décision collaborative de traitement est transmise au dispositif de traitement agricole contrôlable 3 ayant le moins de distance avec le végétal cible.
La Fig. 11 illustre le dispositif, muni de deux systèmes de détection 2 d’adventices ou de symptômes foliaires de carences ou maladies, monté sur une machine agricole 1, dans lequel chacun des systèmes de détection 2 d’adventices ou de symptômes foliaires de carences ou maladies, est dirigé avec un angle vers le sol de la parcelle agricole 5, et ayant un recouvrement de leurs zones de détection respectives. Dans ce qui suit, le premier système de détection sera caractérisé par la référence « .1 », et le deuxième système de détection sera caractérisé par la référence « .2 ».
A chaque instant, ledit système de détection 2.1 d’adventices ou de symptômes foliaires de carences ou maladies, prend un cliché 6.1 de la zone de la parcelle agricole 5 face à son objectif ; ledit système de détection 2.2 d’adventices ou de symptômes foliaires de carences ou maladies, prend un cliché 6.2 de la zone de la parcelle agricole 5 face à son objectif ; lesdites zones face aux objectifs optiques 9 desdits systèmes de détection 2.1 et 2.2 d’adventices ou de symptômes foliaires de carences ou maladies, ont une zone commune d’acquisition.
Lesdites données images projetées sont utilisées pour détecter la présence d’adventices ou symptômes foliaires de carences ou maladies depuis les particularités propres aux adventices ou symptômes foliaires de carences ou maladies déterminées par l’un des procédés ci-dessus, afin de détecter les zones, identifiées aux coordonnées de l’image projetée Xtargetet Ytarget, dans lesdites données images projetées dans lesquelles les végétaux cibles 4 sont présents. Un végétal cible 4 est un végétal pour lequel le dispositif de détection détecte un adventice ou un symptôme foliaire de carence ou de maladie. Ainsi, chacune des détections de présence d’adventices ou symptômes foliaires de carences ou maladies est complétée avec une probabilité de présence desdites particularités propres aux adventices ou symptômes foliaires de carences ou maladies.
On utilise une localisation des détections d’adventices ou de symptômes foliaires de carences ou maladies dans un référentiel instantané de la machine agricole. Une telle localisation peut être suffisante, dans la mesure où le traitement peut aussi être commandé dans ce référentiel. Ce pourra être le cas notamment si les systèmes de détection et les systèmes de traitement ont des positions relatives connues au cours du temps, par exemple sont fixes les uns par rapport aux autres au cours du temps. Par conséquent, le plan horizontal dans lequel est déterminée la localisation de l’adventive ou du symptôme foliaire de carence ou maladie est le plan horizontal parcouru par l’outil de traitement lors du déplacement de la machine agricole. Pour un système de détection d’adventice ou de symptôme foliaire de carence ou maladie, les coordonnées (xtarget; ytarget) de la cible par rapport au centre du capteur peuvent être par exemple déterminées comme suit, dans le référentiel de la machine agricole :
distaway= tan(sensorangle) . sensorheight
Xtarget= ratiopixel2meter . (Xdetect-wimg/2)
Ytarget= distaway+ ratiopixel2meter . (Ydetect-himg/2)
Où :
– sensorangleest un angle prédéterminé mesuré entre la verticale et l’angle de visée moyen du système de détection 2 d'adventices ou de symptômes foliaires de carences ou maladies ;
– sensorheightest une distance prédéterminée du système de détection 2 d'adventices ou de symptômes foliaires de carences ou maladies à un plan horizontal de référence qui est destiné à correspondre à un plan horizontal moyen du sol ;
– ratiopixel2meter est le ratio entre un pixel de l’image et un mètre sur le sol ;
– Xdetectest la coordonnée x, en pixels, du centre de la détection dans l’image projetée ;
– Ydetectest la coordonnée y, en pixels, du centre de la détection dans l’image projetée ;
– wimgest la largeur de l’image projetée en pixels ;
– himgest la hauteur de l’image projetée en pixels ;
– Xtargetest la coordonnée longitudinale relative en mètre du végétal cible 4 détecté dans l’image projetée ;
– Ytargetest la coordonnée relative en mètre face audit système de détection 2 d'adventices ou de symptômes foliaires de carences ou maladies du végétal cible 4 détecté dans l’image projetée.
Chacun des systèmes de détection d'adventices ou de symptômes foliaires de carences ou maladies calcule en continu la vitesse instantanée de déplacement au moyen desdites informations de localisation du système de détection d'adventices ou de symptômes foliaires de carences ou maladies obtenues en continu au moyen du système de localisation. L’information de vitesse est nécessaire afin d’estimer l’instant de commande du dispositif de traitement agricole et d’anticiper le temps de traitement en fonction du dispositif de traitement agricole.
En variante, la vitesse instantanée de déplacement est obtenue par le système de contrôle par communication avec le contrôleur de la machine agricole.
Ainsi, en fonction de la nature et de la localisation détectées des adventices ou symptômes foliaires de carences ou maladies, de la nature et de la localisation des dispositifs de traitement, et de la vitesse de déplacement, le dispositif de contrôle détermine le ou les dispositifs de traitement à actionner, et les caractéristiques temporelles (instant, durée, …) de cet actionnement.
Le module de traitement détermine un intervalle de temps d’activation du dispositif de traitement agricole 3 pour le traitement agricole de la portion de la zone agricole identifiée comme nécessitant un traitement agricole. L’intervalle de temps présente une durée prédéterminée incluant un instant de traitement de la portion de la zone agricole autour d’un instant moyen déterminé pour une portion de la zone agricole identifiée comme nécessitant un traitement agricole déterminée dans le plan horizontal de l’outil de traitement. Dans ce cas, l’intervalle de temps est déterminé pour durer un temps suffisant pour que le dispositif de traitement agricole 3 traite une zone agricole qui comprenne le végétal cible 4, indépendamment de la localisation exacte du végétal cible 4 dans le référentiel terrestre.
Pour prendre un exemple simple, où la machine agricole se déplace à une vitesse constante v0, l’intervalle de temps de traitement agricole est compris entre t1 = (Xdetect+ XD– Xm1)/v0et t2 = (Xdetect+ XD+ Xm2)/v0, où :
- XDest une valeur prédéterminée représentant l’abscisse du dispositif de traitement 3 dans le plan horizontal de l’outil de traitement dans le référentiel de la machine agricole ;
- Xm1est une valeur prédéterminée correspondant à un décalage amont ;
- Xm2est une valeur prédéterminée correspondant à un décalage aval.
La coordonnée YDetectpeut, elle, être prise en compte pour choisir le dispositif de traitement agricole 3 parmi plusieurs dispositifs de traitement agricoles espacés selon la direction y.
Dans l’hypothèse où la vitesse de la machine agricole n’est pas constante, on peut procéder à un calcul intégral pour déterminer l’intervalle temporel d’activation.
La matrice de rotation ne prend en compte que l’orientation du capteur. Ainsi, pour une orientation donnée du capteur dans le référentiel terrestre, on applique une même transformation à la matrice représentant l’image acquise pour obtenir l’image projetée. L’image projetée est considérée comme obtenue sensiblement au-dessus du végétal-cible dans le plan horizontal de déplacement de l’outil de traitement.
L’intervalle de temps correspondant à l’activation du dispositif de traitement agricole 3 est suffisamment long pour que le traitement agricole ait lieu au moment où le dispositif de traitement agricole 3 activé traite la zone à traiter.
Si le sol est en pente, la détermination ci-dessus permet de déterminer la position de l’adventice dans un plan horizontal instantané de l’outil de traitement. En variante, toutefois, si l’on dispose de moyens de déterminer l’orientation du système de détection 2 dans l’espace par rapport à la verticale terrestre, cette orientation peut être prise en compte lors du calcul de l’image projetée. Le plan horizontal de l’outil de traitement est alors un plan parallèle au sol.
En ce qui concerne le calcul de la commande à envoyer auxdits au moins un dispositif de traitement agricole 3, les commandes de pilotage sont transmises audit au moins un dispositif de traitement agricole au moyen du moyen de communication entre lesdits systèmes de détection d'adventices ou de symptômes foliaires de carences ou maladies et ledit dispositif de traitement agricole.
En ce qui concerne le pilotage dudit au moins un dispositif de traitement agricole, les dispositifs de traitement agricole sont actionnés pendant une durée qui inclue l’instant où le dispositif de traitement agricole est au-dessus du végétal cible.
Par exemple, lorsque ledit au moins un dispositif de traitement agricole 3 est une buse d’épandage, la commande à envoyer à chacun desdits au moins un dispositif de traitement agricole 3 est une commande de pression et débit prenant en compte la présence d’un végétal cible pendant l’intervalle de temps dans la zone de pulvérisation de ladite buse d’épandage.
En variante, lorsque ledit au moins un dispositif de traitement agricole 3 est un LASER, la commande à envoyer à chacun desdits au moins un dispositif de traitement agricole 3 est une commande de décalages transversal et longitudinal, et de puissance d’éclairage prenant en compte la présence d’un végétal cible pendant l’intervalle de temps dans la zone de portée dudit LASER.
En variante, lorsque ledit au moins un dispositif de traitement agricole 3 est un jet d’eau à haute pression, la commande à envoyer à chacun desdits au moins un dispositif de traitement agricole 3 est une commande de pression et débit prenant en compte la présence d’un végétal cible pendant l’intervalle de temps dans la zone de portée de la buse d’injection de l’eau à haute pression.
En variante, lorsque ledit au moins un dispositif de traitement agricole 3 est un outil de désherbage mécanique de binage, la commande à envoyer à chacun desdits au moins un dispositif de traitement agricole 3 est une commande d’activation prenant en compte la présence d’un végétal cible pendant l’intervalle de temps dans la zone dudit outil de désherbage mécanique de binage.
En variante, lorsque ledit au moins un dispositif de traitement agricole 3 est un outil de désherbage électrique, la commande à envoyer à chacun desdits au moins un dispositif de traitement agricole 3 est une commande d’activation prenant en compte la présence d’un végétal cible pendant l’intervalle de temps dans la zone dudit outil de désherbage électrique.
Dans la présentation ci-dessus, l’image acquise est d’abord projetée dans un référentiel donné, puis la détection d’adventice ou de symptôme foliaire de carence ou maladie est mise en œuvre pour l’image projetée. En variante, on pourrait prévoir de commencer par réaliser une image de probabilité de présence d’adventice ou de symptôme foliaire de carence ou de détection à partir de l’image acquise brute, puis d’orthoprojeter celle-ci dans le référentiel donné.
Par exemple, ledit système de communication entre lesdits au moins deux systèmes de détection 2 d'adventices ou de symptômes foliaires de carences ou maladies et ledit au moins un dispositif de traitement agricole 3 est un réseau filaire Ethernet 1 Gigabit par seconde permettant ainsi à chacun desdits moins deux systèmes de détection 2 d'adventices ou de symptômes foliaires de carences ou maladies de communiquer avec les autres systèmes de détection 2 d'adventices ou de symptômes foliaires de carences ou maladies ainsi qu’avec ledit au moins un dispositif de traitement agricole 3.
Les procédés qui sont décrits peuvent être des procédés informatisés. Ils peuvent alors être définis dans des programmes d’ordinateur, qui peuvent être exécutés par un ou plusieurs processeurs de machines programmables.
Références
machine agricole 1
systèmes de détection 2 d'adventices ou de symptômes foliaires de carences ou maladies
systèmes de détection 2.1 et 2.2
dispositif de traitement agricole 3
végétal cible 4
parcelle agricole 5
cliché 6.1, 6.2
images acquises 7.1 et 7.2 à partir des images 6.1 et 6.2
objectif optique 9
dispositif de capture 10
premier capteur 11
second capteur 12
troisième capteur 13
image diffractée 14, 14'
module de traitement 16
image non diffractée 17, 17'
image infrarouge 18, 18'
réseau de neurones 20
module de caractérisation 21
isoler 25
extraire 26
première lentille convergente 30
ouverture 31
collimateur 32
réseau de diffraction 33
seconde lentille convergente 34
surface de captation 35
dispositif de capture 102
dispositif de capture 202
image compressée en deux dimensions 211
réseau de neurones 212
image compressée 213
réseau de neurones 214
couche d'entrée 230
couche de sortie 231
surface de captation 232
première lentille convergente 241
masque 242
collimateur 243
prisme 244
seconde lentille convergente 245
surface de captation 246
couche d'entrée 250
encodeur 251
couches de convolution ou de couches entièrement connectées 252
décodeur 253
dispositif d’acquisition 301
plan focal 303
image standard 312
lentille convergente 331
couche de sortie 350

Claims (10)

  1. Procédé informatisé de contrôle d’un traitement agricole comprenant :
    . un module de réception reçoit au moins une image bidimensionnelle d’une zone agricole acquise par un capteur,
    . un module de traitement (16) détermine un intervalle de temps d’activation d’un dispositif de traitement agricole pour le traitement agricole d’une portion de la zone agricole identifiée comme nécessitant un traitement agricole en utilisant un réseau de neurones (20) traitant ladite image, une localisation relative d’un dispositif de traitement agricole et du capteur, et une vitesse de déplacement du capteur,
    caractérisé en ce quel’intervalle de temps présente une durée prédéterminée incluant un instant de traitement de la portion de la zone agricole autour d’un instant moyen déterminé pour une portion virtuelle de la zone agricole identifiée comme nécessitant un traitement agricole déterminée dans le plan horizontal du dispositif de traitement agricole (3).
  2. Procédé informatisé de contrôle selon la revendication 1, dans lequel l’image bidimensionnelle comprend au moins une diffraction comprenant des caractéristiques hyperspectrales, et dans lequel le réseau de neurones traite lesdites informations hyperspectrales.
  3. Procédé informatisé de contrôle selon la revendication 1 ou 2, dans lequel le réseau de neurones traite en outre une image bidimensionnelle non diffractée de la zone agricole.
  4. Procédé informatisé selon l’une des revendications 1 à 3, dans lequel le module de traitement (16) met en œuvre une projection prenant en compte l’orientation instantanée du capteur.
  5. Procédé informatisé selon l’une des revendications 1 à 4, comprenant en outre : le capteur acquière l’image bidimensionnelle de la zone agricole, et transmet l’image bidirectionnelle au module de réception.
  6. Procédé de traitement agricole, dans lequel on applique le procédé informatisé de contrôle de traitement agricole selon l’une quelconque des revendications 1 à 5, et dans lequel on applique un traitement agricole pendant l’intervalle de temps déterminé.
  7. Procédé de traitement agricole selon la revendication 6, dans lequel on sélectionne un dispositif de traitement agricole (3) parmi une pluralité de dispositifs de traitement agricole à partir des localisations d’une pluralité de dispositifs de traitement agricole.
  8. Programme d’ordinateur comprenant des instructions de code de programme pour l’exécution du procédé selon l’une des revendications 1 à 7 lorsque le programme est exécuté sur un ordinateur.
  9. Système informatisé de contrôle d’un traitement agricole comprenant :
    . un module de réception adapté pour recevoir au moins une image bidimensionnelle d’une zone agricole acquise par un capteur,
    . un module de traitement (16) adapté pour déterminer un intervalle de temps d’activation d’un dispositif de traitement agricole (3) pour le traitement agricole d’une portion de la zone agricole identifiée comme nécessitant un traitement agricole en utilisant un réseau de neurones traitant ladite image, une localisation relative d’un dispositif de traitement agricole et du capteur, et une vitesse de déplacement du capteur,
    caractérisé en ce quel’intervalle de temps présente une durée prédéterminée incluant un instant de traitement de la portion de la zone agricole autour d’un instant moyen déterminé pour une portion virtuelle de la zone agricole identifiée comme nécessitant un traitement agricole déterminée dans un plan horizontal du dispositif de traitement agricole.
  10. Machine agricole comprenant un système informatisé de contrôle de traitement agricole selon la revendication 9, un capteur adapté pour acquérir l’image bidimensionnelle, et un dispositif de traitement agricole (3) adapté pour traiter la parcelle agricole pendant l’intervalle de temps déterminé par le système informatisé de contrôle de traitement agricole.
FR2005355A 2020-05-20 2020-05-20 Procede et systeme de controle de traitement agricole Active FR3110743B1 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
FR2005355A FR3110743B1 (fr) 2020-05-20 2020-05-20 Procede et systeme de controle de traitement agricole
AU2021276550A AU2021276550A1 (en) 2020-05-20 2021-05-19 Method and system for controlling an agricultural treatment
US17/999,380 US20230206627A1 (en) 2020-05-20 2021-05-19 Method and system for controlling an agricultural treatment
PCT/EP2021/063397 WO2021234063A1 (fr) 2020-05-20 2021-05-19 Procede et systeme de controle de traitement agricole
EP21727139.4A EP4152924A1 (fr) 2020-05-20 2021-05-19 Procede et systeme de controle de traitement agricole

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2005355 2020-05-20
FR2005355A FR3110743B1 (fr) 2020-05-20 2020-05-20 Procede et systeme de controle de traitement agricole

Publications (2)

Publication Number Publication Date
FR3110743A1 true FR3110743A1 (fr) 2021-11-26
FR3110743B1 FR3110743B1 (fr) 2022-04-29

Family

ID=72470494

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2005355A Active FR3110743B1 (fr) 2020-05-20 2020-05-20 Procede et systeme de controle de traitement agricole

Country Status (5)

Country Link
US (1) US20230206627A1 (fr)
EP (1) EP4152924A1 (fr)
AU (1) AU2021276550A1 (fr)
FR (1) FR3110743B1 (fr)
WO (1) WO2021234063A1 (fr)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3091381B1 (fr) * 2018-12-19 2020-12-11 Lysia Dispositif de détection hyperspectrale

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5296702A (en) * 1992-07-28 1994-03-22 Patchen California Structure and method for differentiating one object from another object
WO2012032245A1 (fr) 2010-09-10 2012-03-15 Exel Industries Ensemble de pulvérisation pour engin agricole à pilotage cartographique
WO2012122988A1 (fr) 2011-03-16 2012-09-20 Syddansk Universitet Rampe de pulvérisation pour pulvériser de manière sélective une composition désherbante sur des dicotylédones
US20150075067A1 (en) * 2013-09-13 2015-03-19 Palo Alto Research Center Incorporated Unwanted plant removal system having a stabilization system
US20180240228A1 (en) 2017-02-23 2018-08-23 Jonathan A. Jackson Selective Plant Detection and Treatment Using Green Luminance Photometric Machine Vision Scan with Real Time Chromaticity Operations and Image Parameter Floors for Low Processing Load
FR3063206A1 (fr) 2017-02-24 2018-08-31 Bilberry Sas Systeme de controle pour epandage agricole
US20190357520A1 (en) * 2018-05-24 2019-11-28 Blue River Technology Inc. Boom sprayer including machine feedback control

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107837301B (zh) 2017-11-01 2021-05-28 苏州颐华生物医药技术股份有限公司 一种大叶蒟提取物及其制备方法与应用

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5296702A (en) * 1992-07-28 1994-03-22 Patchen California Structure and method for differentiating one object from another object
WO2012032245A1 (fr) 2010-09-10 2012-03-15 Exel Industries Ensemble de pulvérisation pour engin agricole à pilotage cartographique
WO2012122988A1 (fr) 2011-03-16 2012-09-20 Syddansk Universitet Rampe de pulvérisation pour pulvériser de manière sélective une composition désherbante sur des dicotylédones
US20150075067A1 (en) * 2013-09-13 2015-03-19 Palo Alto Research Center Incorporated Unwanted plant removal system having a stabilization system
US20180240228A1 (en) 2017-02-23 2018-08-23 Jonathan A. Jackson Selective Plant Detection and Treatment Using Green Luminance Photometric Machine Vision Scan with Real Time Chromaticity Operations and Image Parameter Floors for Low Processing Load
FR3063206A1 (fr) 2017-02-24 2018-08-31 Bilberry Sas Systeme de controle pour epandage agricole
US20190357520A1 (en) * 2018-05-24 2019-11-28 Blue River Technology Inc. Boom sprayer including machine feedback control

Non-Patent Citations (11)

* Cited by examiner, † Cited by third party
Title
"Agronomy Journal", vol. 97, AMERICAN SOCIETY OF AGRONOMY, article "Evaluating Cover Crops for Benefits, Costs and Performance within Cropping System Niches.", pages: 322 - 32
"Alternative methods in weed management to the use of glyphosate and other herbicide", 2018, PESTICIDE ACTION NETWORK
"Computed-tomography imaging spectrometer : expérimental calibration and reconstruction results", vol. 34, 1995, APPLIED OPTICS
"Practical Spectral Photography", vol. 31, 2012, EUROGRAPHICS
CLYDE E. LEIGHTY: "Yearbook of Agriculture", 1938
GONZALO R. ARCEDAVID J. BRADYLAWRENCE CARINHENRY ARGUELLODAVID S. KITTLE: "IEEE Signal Processing Magazine", vol. 31, article "Compressive Coded Aperture Spectral Imaging"
JÉRÉMIE BOSSU: "Segmentation d'images pour la localisation d'adventices. Application à la réalisation d'un système de vision pour une pulvérisation spécifique en temps réel", 4 December 2007, UNIVERSITÉ DE BOURGOGNE/CNRS, pages: 5158
LA BINEUSE, UN OUTIL ADAPTÉ À UNE LARGE GAMME DE SOL
PULVÉRISATION EN GRANDES CULTURES. LES CLÉS DE LA RÉUSSITE
SERGEY IOFFECHRISTIAN SZEGEDY, BATCH NORMALIZATION: ACCELERATING DEEP NETWORK TRAINING BY REDUCING INTERNAI COVARIATE SHIFT, February 2015 (2015-02-01)
YUXIN WUKAIMING HE, GROUP NORMALIZATION, June 2018 (2018-06-01)

Also Published As

Publication number Publication date
US20230206627A1 (en) 2023-06-29
AU2021276550A1 (en) 2023-01-05
EP4152924A1 (fr) 2023-03-29
FR3110743B1 (fr) 2022-04-29
WO2021234063A1 (fr) 2021-11-25

Similar Documents

Publication Publication Date Title
EP3585168B1 (fr) Système de commande pour épandage agricole
AU752868B2 (en) Method for monitoring nitrogen status using a multi-sprectral imaging system
US20200182697A1 (en) Active illumination 2d and/or 3d imaging device for agriculture
Yang et al. Recognition of weeds with image processing and their use with fuzzy logic for precision farming
EP3226672B2 (fr) Système et procédé d'ajustement automatique de la hauteur d'un outil agricole au moyen d'une reconstruction 3d
US11816874B2 (en) Plant identification using heterogenous multi-spectral stereo imaging
US20170154440A1 (en) Method and system for photogrammetric processing of images
EP3937628A1 (fr) Dispositif de contrôle de traitement agricole
CA2315357A1 (fr) Dispositif d'analyse non destructive de plantes et vehicule comportant un tel dispositif embarque
EP4152924A1 (fr) Procede et systeme de controle de traitement agricole
EP3074920A1 (fr) Analyse d'une image multispectrale
FR3071644A1 (fr) Procede et dispositif de classification de plantes
EP3491365A1 (fr) Procédé et dispositif de mesure de densité d'insectes
FR3036830A1 (fr) Systeme et methode pour l'estimation d'un volume de recolte au sein d'une exploitation viticole
US20200072597A1 (en) System and method for use in remote sensing
FR2982394A1 (fr) Recherche d'une cible dans une image multispectrale
FR3071124B1 (fr) Dispositif de capture d'une image hyperspectrale
FR3093613A1 (fr) Dispositif de contrôle de traitement agricole
EP2593904A1 (fr) Procédé et dispositif d'imagerie bi-spectral multifonctions
EP3469441A1 (fr) Machine a guidage autonome
Paap Development of an optical sensor for real-time weed detection using laser based spectroscopy
WO2018109044A1 (fr) Dispositif de détection d'un objet d'intérêt et procédé mettant en œuvre ce dispositif
FR3092670A1 (fr) Dispositif de microscopie holographique hyperspectrale par fusion de capteurs
CN114463649B (zh) 土壤虫害确定方法及装置、农药配方生成方法及装置
WO2023041850A1 (fr) Système agricole de pulvérisation localisée avec source d'éclairage intégrée

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20211126

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5