IT201900000094A1 - Procedimento, dispositivo e programma per controllare lo stato di piante - Google Patents

Procedimento, dispositivo e programma per controllare lo stato di piante Download PDF

Info

Publication number
IT201900000094A1
IT201900000094A1 IT102019000000094A IT201900000094A IT201900000094A1 IT 201900000094 A1 IT201900000094 A1 IT 201900000094A1 IT 102019000000094 A IT102019000000094 A IT 102019000000094A IT 201900000094 A IT201900000094 A IT 201900000094A IT 201900000094 A1 IT201900000094 A1 IT 201900000094A1
Authority
IT
Italy
Prior art keywords
control unit
filter
image
digital images
plant
Prior art date
Application number
IT102019000000094A
Other languages
English (en)
Inventor
Mauro Burgo
Alberto Luigi Cologni
Glauco Bigini
Gionata Bocci
Milen Ivanov Marinov
Original Assignee
Valagro Spa
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valagro Spa filed Critical Valagro Spa
Priority to IT102019000000094A priority Critical patent/IT201900000094A1/it
Priority to PCT/IB2020/050031 priority patent/WO2020144547A1/en
Priority to US17/421,095 priority patent/US20220108441A1/en
Priority to EP20702509.9A priority patent/EP3909022A1/en
Priority to BR112021013283-0A priority patent/BR112021013283A2/pt
Publication of IT201900000094A1 publication Critical patent/IT201900000094A1/it

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/208Filters for use with infrared or ultraviolet radiation, e.g. for separating visible light from infrared and/or ultraviolet radiation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/85Camera processing pipelines; Components thereof for processing colour signals for matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/67Circuits for processing colour signals for matrixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Toxicology (AREA)
  • Optics & Photonics (AREA)
  • Image Processing (AREA)
  • Debugging And Monitoring (AREA)
  • Branch Pipes, Bends, And The Like (AREA)
  • Stored Programmes (AREA)

Description

Procedimento, dispositivo e programma per controllare lo stato di piante
CAMPO TECNICO
La presente descrizione riguarda un procedimento per controllare lo stato di piante, in particolare un procedimento per calcolare e fornire informazioni sullo stato di colture di interesse agrario, come ad esempio informazioni equivalenti o corrispondenti all’indice NDVI (Normalized Difference Vegetation Index). La presente descrizione riguarda anche un dispositivo ed un programma che possono realizzare detto procedimento.
INQUADRAMENTO DELLA DESCRIZIONE
Noti dispositivi per controllare lo stato di piante sono relativamente costosi, forniscono informazioni in maniera discontinua, non automatica o poco affidabile e/o richiedono un’esperienza ed un impegno relativamente alti da parte degli utenti.
SOMMARIO DELLA DESCRIZIONE
Scopo della presente descrizione è pertanto quello di fornire un dispositivo esente da tali inconvenienti. Detto scopo viene conseguito con un procedimento, un dispositivo ed un programma, le cui caratteristiche principali sono specificate nelle rivendicazioni allegate.
Grazie alle loro particolari caratteristiche tecniche, in particolare ai filtri per filtrare le immagini acquisite, il procedimento, il dispositivo ed il programma secondo la presente descrizione consentono di adattare e migliorare l’utilizzo di prodotti e risorse nelle colture sia in campo aperto che in serra, al fine di ottimizzare la resa e qualità delle piante, così da ridurre costi e sprechi, in particolare mediante un loro controllo continuo.
Inoltre, il dispositivo può identificare nelle piante in maniera veloce ed automatica situazioni di stress ambientale e può essere realizzato ad un costo relativamente basso, in particolare impiegando un telaio mobile per i filtri e/o camere di uso comune, che sono molto più economiche di quelle impiegate nei dispositivi noti. Pertanto, il dispositivo può anche essere installato e lasciato vicino alla pianta da controllare.
Il procedimento, il dispositivo ed il programma possono anche separare nelle immagini lo sfondo dalle piante, in modo da distinguere e controllare solo le porzioni delle immagini utili e non controllare le porzioni relative allo sfondo, così da migliorare e velocizzare il controllo.
Il procedimento ed il dispositivo sono sostanzialmente automatici, per cui il dispositivo è facile da usare e può fornire informazioni chiare ed immediate agli utenti.
Il procedimento può essere implementato mediante un programma configurato per essere eseguito dall’unità di controllo del dispositivo oppure dall’unità di controllo di un apparecchio esterno, ad esempio uno smartphone, collegato al dispositivo mediante un’interfaccia, così da sfruttare componenti già esistenti e ridurre ulteriormente il costo del dispositivo. Detto programma può così anche essere distribuito ed aggiornato facilmente.
Il procedimento può in particolare controllare lo stato di salute non solo di piante intere ma anche di parti di piante, ad esempio singole foglie e germogli, al fine di evidenziare l’insorgenza di condizioni di stress dovuti a fattori di origine abiotica, come ad esempio stress di tipo nutrizionale dovuti a carenze od eccessi di elementi nutritivi nel suolo o nel substrato di coltivazione, stress idrici dovuti a carenze di acqua, ad esempio condizioni di siccità, ad eccessi di acqua, ad esempio allagamenti, a disposizioni errate della pianta, a stress salini, a stress termici, ad esempio causati da temperature estreme rispetto all’intervallo ottimale per lo sviluppo della pianta, e/o stress biotici, ad esempio causati dall’azione di competizione di altri organismi vegetali oppure da organismi animali, ad esempio insetti, acari ed altri animali, batteri o virus.
BREVE DESCRIZIONE DEI DISEGNI
Ulteriori vantaggi e caratteristiche del procedimento, del dispositivo e del programma secondo la presente descrizione risulteranno evidenti agli esperti del ramo dalla seguente descrizione dettagliata e non limitativa di alcune loro forme realizzative con riferimento agli annessi disegni in cui:
- la figura 1 mostra una vista laterale di una prima forma realizzativa del dispositivo;
- la figura 2 mostra una vista frontale del dispositivo di figura 1;
- la figura 3 mostra una vista dall’alto del dispositivo di figura 1;
- la figura 4 mostra la sezione IV-IV di figura 2;
- la figura 5 mostra la sezione V-V di figura 1;
- la figura 6 mostra una vista assonometrica del dispositivo di figura 1;
- la figura 7 mostra una vista esplosa del dispositivo di figura 1;
- la figura 8 mostra uno schema a blocchi del dispositivo di figura 1;
- la figura 9 mostra uno schema a blocchi di una seconda forma realizzativa del dispositivo;
- la figura 10 mostra una vista frontale del dispositivo di figura 9;
- la figura 11 mostra una vista frontale del dispositivo di figura 9, accoppiato con uno smartphone;
- la figura 12 mostra una vista posteriore del dispositivo di figura 9, accoppiato con uno smartphone,
- la figura 13 mostra uno schema a blocchi di una terza forma realizzativa del dispositivo;
- la figura 14 mostra un diagramma di flusso di una prima forma realizzativa del procedimento;
- la figura 15 mostra un diagramma di flusso della fase di elaborazione di immagini del procedimento di figura 14;
- la figura 16 mostra le immagini elaborate nella fase di figura 15.
FORME REALIZZATIVE ESEMPLIFICATIVE
Facendo riferimento alle figure da 1 a 8, si vede che la prima forma realizzativa del dispositivo comprende preferibilmente un contenitore 1, in particolare formato da almeno due gusci 1a, 1b che hanno una forma complementare, ad esempio sostanzialmente semicilindrica, e possono essere uniti tra loro mediante viti 2. Il contenitore 1 comprende preferibilmente anche una parete posteriore 1c, unita ai gusci 1a, 1b mediante viti 3, e/o una parete anteriore 1d, parzialmente o completamente trasparente, in modo che il contenitore 1 è sostanzialmente impermeabile ai liquidi. I gusci 1a, 1b comprendono inoltre protuberanze interne, ad esempio pareti o bracci, per fissare componenti nel contenitore 1.
Il contenitore 1 può essere unito in maniera removibile, ad esempio mediante almeno un magnete 5, ad un supporto 4 sagomato per alloggiare parzialmente il contenitore 1. Il supporto 4 può comprendere una base sagomata 6 per realizzare un accoppiamento meccanico con altri elementi (non mostrati), ad esempio con una staffa od un braccio per fissare il contenitore 1 ad una parete, un soffitto, un pavimento od un’altra superficie vicina alla pianta da controllare.
Il contenitore 1 può includere un’unita di controllo 7, in particolare un’unità di controllo elettronica programmabile anche di tipo noto, la quale è collegata ad almeno una sorgente di energia elettrica, ad esempio una batteria 8 e/o un connettore per il collegamento ad un alimentatore interno od esterno, e/o ad almeno una camera 9 atta a ricevere immagini esterne EI visibili dall’interno del contenitore 1, in particolare attraverso la parete anteriore 1d, ed a convertire queste immagini in corrispondenti immagini digitali che possono essere ricevute, elaborate e/o memorizzate nell’unità di controllo 7. A tale scopo, l’unità di controllo 7 comprende almeno un processore ed almeno una memoria nella quale possono essere memorizzati dati e/o programmi, in particolare un programma atto a realizzare il procedimento secondo la presente descrizione mediante detto processore. L’unità di controllo 7 può anche inviare segnali di controllo alla camera 9, ad esempio per regolare la distanza focale, lo zoom, la risoluzione e/o la sensibilità della camera 9. Preferibilmente, la camera 9 comprende una fotocamera digitale con un sensore CMOS configurato per acquisire immagini esterne EI almeno in uno spettro di circa 400-1100 nm, ossia sostanzialmente la combinazione degli spettri del visibile e degli infrarossi.
Il contenitore 1 include anche almeno due filtri 10, 11 atti a filtrare le immagini esterne EI prima che queste vengono acquisite dall’obiettivo della camera 9. I filtri 10, 11 possono essere montati su un telaio 12 fisso oppure mobile, come nella presente forma realizzativa. Il telaio mobile 12 può presentare una forma sostanzialmente circolare ed essere formato da due gusci complementari, tra i quali sono disposti i filtri 10, 11 in maniera non coassiale. Preferibilmente, il primo filtro 10 è un filtro ottico nell’infrarosso vicino o NIR (Near Infra-Red), in particolare un filtro passa-alto con lunghezza d’onda di cut-on di circa 740nm, ed il secondo filtro 11 è un filtro ottico rosso, in particolare un filtro passa-banda con banda passante di circa 540-750 nm, in particolare circa 580–640 nm.
In particolare, un motore elettrico 13 comandato dall’unità di controllo 7 può ruotare, ad esempio lungo un arco di circa 90° in senso orario od antiorario, il telaio mobile 12 intorno ad un asse A, in modo che alternativamente il primo filtro 10 od il secondo filtro 11 possono essere disposti di fronte all’obiettivo della camera 9 per filtrare le immagini esterne EI acquisite da quest’ultima.
Almeno un indicatore, in particolare una serie di luci LED 14 disposte intorno al telaio mobile 12 per essere visibili attraverso la parete anteriore 1d del contenitore 1, può essere collegato all’unità di controllo 7 per fornire informazioni di stato agli utenti del dispositivo.
Facendo riferimento alle figure da 9 a 12, si vede che la seconda forma realizzativa del dispositivo è simile alla prima forma realizzativa, in quanto comprende anch’essa preferibilmente un contenitore 1 che include un’unita di controllo 7 collegata ad almeno una sorgente di energia elettrica, ad esempio una batteria 8 e/o un collegamento ad una sorgente esterna. L’unita di controllo 7 è collegata ad una prima camera 9 atta a ricevere immagini esterne EI dall’esterno del contenitore 1, filtrate dal primo filtro 10, nonché ad una seconda camera 9’ atta a ricevere le stesse immagini esterne EI dall’esterno del contenitore 1, ma filtrate dal secondo filtro 11, cosicché il telaio mobile 12 ed il motore elettrico 13 non sono più necessari. L’unità di controllo 7 può essere collegata anche ad un’interfaccia 15, ad esempio un’interfaccia Bluetooth, USB o Lightning, per il collegamento con una corrispondente interfaccia di un apparecchio esterno, ad esempio uno smartphone SP provvisto di un visore D, per trasmettere e mostrare agli utenti dell’apparecchio informazioni di stato attraverso il visore D. Lo smartphone SP può anche trasmettere informazioni e/o comandi all’unità di controllo 7 del dispositivo attraverso l’interfaccia 15.
Facendo riferimento alla figura 13, si vede che in una terza forma realizzativa, simile alle prime due forme realizzative, il dispositivo comprende solo la prima camera 9, i filtri 10, 11, l’interfaccia 15, nonché la seconda camera 9’ (oppure il telaio mobile 12 in una forma realizzativa alternativa). Pertanto, l’unità di controllo 7 e la batteria 8 sono sostituiti dall’unità di controllo e dalla batteria di un apparecchio esterno, in particolare uno smartphone SP, che può essere collegato alle camere 9, 9’ tramite l’interfaccia 15 e sul quale può essere installato ed eseguito un programma atto a realizzare il procedimento, in modo corrispondente a quanto realizzato dal programma eseguito dall’unità di controllo 7 nelle prime due forme realizzative del dispositivo.
Facendo riferimento alla figura 14, si vede che il procedimento eseguito dalla prima forma realizzativa del dispositivo può comprendere una fase di inizializzazione INIT, in cui l’unità di controllo 7 può calibrare la camera 9, anche in modo noto, acquisendo una serie di immagini necessarie a calcolare le matrici di compensazione delle distorsioni e le coordinate delle regioni di interesse.
Dopo la fase di inizializzazione INIT l’unità di controllo 7 esegue una fase F1, in cui il primo filtro 10 viene disposto davanti alla camera 9, acquisisce una prima immagine di una pianta dalla camera 9 in una prima fase di scatto S1, dispone il secondo filtro 11 davanti alla camera 9 in una fase F2, acquisisce una seconda immagine della stessa pianta dalla camera 9 in una seconda fase di scatto S2 e/o dispone il primo filtro 10 davanti alla camera 9 in una (ulteriore) fase F1. Le due immagini ottenute dalla camera 9 sono quindi sostanzialmente sovrapponibili tra loro, ma sono anche sostanzialmente differenti a causa dei differenti filtri 10, 11 disposti alternativamente davanti all’obiettivo della camera 9.
In una fase di elaborazione di immagini IP l’unità di controllo 7 elabora le due immagini acquisite dalla camera 9 nelle fasi di scatto S1, S2 e può fornire informazioni sullo stato della pianta in una fase di output OUT, dopodiché può ripetere ciclicamente le fasi successive alla fase di inizializzazione INIT, a partire dalla fase F1 o S1. Nella fase di output OUT, l’unità di controllo 7 può trasmettere le informazioni di stato relative al risultato della fase di elaborazione di immagini IP attraverso l’indicatore 14, l’interfaccia 15 e/o altri mezzi di output.
La seconda forma realizzativa del dispositivo esegue le stesse fasi del procedimento della prima forma realizzativa, ad eccezione delle fasi F1 ed F2, in quanto le due immagini possono essere acquisite dall’unità di controllo 7 mediante le camere 9 9’ anche contemporaneamente e senza spostare i filtri 10, 11.
Facendo riferimento alle figure 15 e 16, si vede che nella fase di elaborazione delle immagini IP le due immagini digitali trasmesse dalla camera 9 o dalle camere 9, 9’ vengono acquisite e preferibilmente memorizzate in una fase di memorizzazione MEM in una memoria dell’unità di controllo 7 od in una memoria esterna collegata all’unità di controllo 7.
Le due immagini vengono quindi preferibilmente raddrizzate automaticamente in una fase di raddrizzamento STR, in cui vengono compensate le distorsioni non lineari delle immagini dovute alla presenza delle lenti della/e camera/e 9, 9’. La compensazione delle distorsioni può essere effettuata ad esempio tramite la funzione ‘undistort’ della libreria OpenCv che prende in ingresso le matrici di compensazione delle distorsioni (calcolate durante la fase di inizializzazione INIT) e le due immagini, fornendo poi le stesse due immagini raddrizzate.
Le due immagini raddrizzate vengono quindi preferibilmente ritagliate automaticamente in una fase di ritaglio CROP per mantenere solo le regioni di interesse. Le coordinate ottenute nella calibrazione nella fase di inizializzazione INIT possono essere impiegate per calcolare le regioni di interesse delle immagini. A tale scopo, per tagliare ciascuna immagine l’unità di controllo 7 crea un’immagine copia in cui sono presenti solo i pixel appartenenti alle regioni di interesse calcolate.
Le immagini raddrizzate e ritagliate vengono quindi convertite dall’unità di controllo 7 in immagini I1, I2 in scala di grigi in una fase di conversione CONV. Questa fase è effettuata ad esempio mediante la funzione ‘cvtColor’ di OpenCv che prende in ingresso le immagini, lo spazio colore di partenza (BGR) e quello di output (GRAY). In questa fase, l’unità di controllo 7 converte quindi le due immagini a tre canali (matrice tridimensionale) in due immagini I1, I2 ad un canale (matrice monodimensionale).
In una fase di calcolo della luminosità LUM, che può essere eseguita dall’unità di controllo 7 in parallelo alla fase di conversione CONV, le due immagini raddrizzate e ritagliate nella fase di ritaglio CROP vengono preferibilmente convertite in maniera automatica nello spazio colore HSV (Hue Saturation Value). Lo spazio colore HSV è una rappresentazione a tre canali delle immagini BGR in cui il canale V, ossia il terzo canale, è proporzionale alla luminosità di ogni pixel. In questa fase l’unità di controllo 7 può determinare i valori massimi V1, V2 del canale V delle due immagini, ossia il valore del pixel con luminosità massima di ciascuna immagine. In alternativa, i valori medi di luminosità possono essere calcolati ed usati invece dei valori massimi V1, V2.
Le due immagini I1, I2 in scala di grigi ed i valori di luminosità V1, V2, ottenuti mediante le fasi CONV e LUM, vengono elaborati dall’unità di controllo 7 in una fase di elaborazione PROC per fornire un’immagine elaborata PI contenente, per ogni pixel di ciascuna immagine, un indice NDVI della pianta da controllare.
In particolare, nella fase di elaborazione PROC l’unità di controllo 7 normalizza preferibilmente le immagini I1, I2 in funzione dei rispettivi valori di luminosità V1, V2 per rendere indipendente l’informazione contenuta nei pixel dalle variazioni di luminosità presenti nelle immagini. L’unità di controllo 7 scorre quindi in maniera sincrona tutti i pixel delle due immagini I1, I2 preferibilmente normalizzate calcolando, per due pixel corrispondenti nelle immagini, ossia due pixel aventi le stesse coordinate x, y in ciascuna immagine, il valore NI(n,y) in virgola mobile corrispondente ad un indice NDVI, in particolare così calcolato: NI(x,y) = (VI1(x,y) - VI2(x,y)) / (VI1(x,y) VI2(x,y)), in cui VI1(x,y) e VI2(x,y) sono i valori dei pixel delle coordinate x,y nelle rispettive immagini I1, I2 preferibilmente normalizzate, realizzando così l’immagine elaborata PI corrispondente ad una matrice di indici NDVI.
In una fase di mascheratura MASK, che può anche essere eseguita prima o durante la fase di elaborazione PROC, l’unità di controllo 7 rende binaria almeno una delle due immagini I1, I2, ad esempio l’immagine I1, in modo che tutti i pixel assumono il valore 0 o 1. Ad esempio, i pixel con valore 1 corrispondono alle zone in cui appare la pianta mentre i pixel con valore 0 corrispondono allo sfondo, ossia a tutto ciò che non è la pianta. A tale scopo, l’unità di controllo 7 può ad esempio elaborare l’immagine I1 mediante la funzione ‘adaptivethreshold’ di OpenCv, che esegue una binarizzazione a soglia gaussiana adattiva, utile per evidenziare nell’immagine i pixel appartenenti alla pianta ed uniformare (portandoli ad esempio ad un valore 255) tutti i pixel appartenenti allo sfondo, realizzando così un’immagine intermedia I1’, dopodiché l’unità di controllo 7, ad esempio mediante la funzione ‘findcontours’ di OpenCv, identifica le coordinate dei pixel di contorno della pianta, che vengono date in ingresso ad esempio alla funzione ‘drawcontours’ di OpenCv, che crea così un’immagine binaria BI in cui, partendo ad esempio da una nuova immagine completamente nera (tutti i pixel uguali a 0), vengono settati ad 1 (bianco) tutti i pixel all’interno di detto contorno.
L’unità di controllo 7, in una fase opzionale PAP successiva alla fase di mascheratura MASK ma non necessariamente successiva alla fase di elaborazione PROC, può calcolare la percentuale dell’area coperta dalla pianta in un’immagine, ad esempio nell’immagine I1, calcolando il rapporto tra il numero di pixel 1 ed il numero di pixel 0 presenti nell’immagine binaria BI. Mediante un fattore di conversione tra pixel e dimensioni reali, ad esempio mm, determinato a priori, l’unità di controllo 7 può anche calcolare e fornire l’area coperta CA dalla pianta in dimensioni reali, ad esempio in mm<2>.
In una fase finale di controllo CON, l’unità di controllo 7, ad esempio mediante la funzione ‘mean’ di OpenCv, può calcolare il valore medio AV degli indici NDVI della sola pianta, sovrapponendo l’immagine elaborata PI calcolata nella fase di elaborazione PROC con l’immagine binaria BI calcolata nella fase di mascheratura MASK, ossia calcolando un valore medio AV dei valori NI(x,y) delle sole coordinate x,y in cui i pixel dell’immagine binaria BI sono uguali ad un valore predeterminato, ad esempio 1. L’unità di controllo 7 può anche calcolare un’immagine di controllo CI corrispondente all’immagine elaborata PI, in cui i valori NI(x,y) sono settati a 0 nelle coordinate x,y in cui i pixel dell’immagine binaria BI sono uguali ad un valore predeterminato, ad esempio 0.
Il valore CA dell’area coperta dalla pianta, il valore AV della media degli indici NDVI della pianta e/o l’immagine di controllo CI della pianta possono essere memorizzati in una memoria dell’unità di controllo 7 e/o in una memoria esterna, e/o possono essere mostrati attraverso un visore collegato all’unità di controllo 7, ad esempio il visore D di uno smartphone, e/o un indicatore, ad esempio l’indicatore 14, che ad esempio varia in funzione del valore AV. In particolare l’indicatore 14 può essere illuminato con due colori che si alternano quando il valore AV supera un valore di soglia memorizzato nell’unità di controllo 7.
Le fasi operative sopra indicate possono anche essere realizzate dall’unità di controllo dello smartphone SP, in aggiunta od in alternativa all’unità di controllo 7.
Eventuali varianti od aggiunte possono essere apportate dagli esperti del ramo alle forme realizzative qui descritte ed illustrate restando nell’ambito delle seguenti rivendicazioni. In particolare, ulteriori forme realizzative possono comprendere le caratteristiche tecniche di una delle seguenti rivendicazioni con l’aggiunta di una o più caratteristiche tecniche descritte nel testo od illustrate nei disegni, prese singolarmente od in qualsiasi combinazione reciproca.

Claims (18)

  1. RIVENDICAZIONI 1. Procedimento per controllare lo stato di piante, il quale comprende le seguenti fasi operative: - acquisire mediante almeno una camera (9, 9’) almeno due immagini digitali (I1, I2) sostanzialmente sovrapponibili di almeno una pianta; - calcolare mediante almeno un’unità di controllo (7, SP) almeno un’informazione (PI, AV, CI) sullo stato di detta almeno una pianta in funzione del contenuto delle due immagini digitali (I1, I2), caratterizzato dal fatto che la prima immagine digitale (I1) è filtrata mediante almeno un primo filtro (10) e la seconda immagine digitale (I2) è filtrata mediante almeno un secondo filtro (11), in cui il primo filtro (10) è un filtro NIR ed il secondo filtro (11) è un filtro rosso.
  2. 2. Dispositivo per controllare lo stato di piante, il quale comprende almeno una camera (9, 9’) che è configurata per acquisire almeno due immagini digitali (I1, I2) sostanzialmente sovrapponibili di almeno una pianta ed è collegata ad almeno: - un’unità di controllo interna (7) comprendente almeno un processore ed almeno una memoria nella quale possono essere memorizzati dati e/o programmi eseguibili dal processore, e/o - un’interfaccia (15) per il collegamento ad una corrispondente unità di controllo esterna (SP), per calcolare almeno un’informazione (PI, AV, CI) sullo stato di detta almeno una pianta in funzione del contenuto delle due immagini digitali (I1, I2), caratterizzato dal fatto che il dispositivo comprende anche almeno due filtri (10, 11) configurati per filtrare rispettivamente la prima o la seconda delle due immagini digitali (I1, I2), in cui il primo filtro (10) è un filtro NIR ed il secondo filtro (11) è un filtro rosso.
  3. 3. Procedimento o dispositivo secondo una delle rivendicazioni precedenti, caratterizzato dal fatto che il primo filtro (10) è un filtro passa-alto con lunghezza d’onda di cut-on di circa 740nm e/o il secondo filtro (11) è un filtro passa-banda con banda passante di circa 540-750 nm, in particolare circa 580–640 nm.
  4. 4. Procedimento o dispositivo secondo una delle rivendicazioni precedenti, caratterizzato dal fatto che i due filtri (10, 11) sono montati su un telaio mobile (12), in modo che alternativamente il primo filtro (10) od il secondo filtro (11) possono essere disposti di fronte all’obiettivo dell’almeno una camera (9).
  5. 5. Procedimento o dispositivo secondo la rivendicazione precedente, caratterizzato dal fatto che il telaio mobile (12) può essere ruotato intorno ad un asse (A) da un motore elettrico (13) azionato dall’unità di controllo (7).
  6. 6. Procedimento o dispositivo secondo una delle rivendicazioni precedenti, caratterizzato dal fatto che l’almeno una camera (9) comprende una fotocamera digitale con un sensore CMOS configurato per acquisire immagini in uno spettro sostanzialmente corrispondente alla combinazione degli spettri del visibile e degli infrarossi.
  7. 7. Procedimento o dispositivo secondo una delle rivendicazioni precedenti, caratterizzato dal fatto che l’unità di controllo (7, SP) è configurata per convertire le immagini digitali (I1, I2) in una scala di grigi.
  8. 8. Procedimento o dispositivo secondo una delle rivendicazioni precedenti, caratterizzato dal fatto che l’unità di controllo (7, SP) è configurata per convertire le immagini digitali (I1, I2) nello spazio colore HSV e per determinare valori di luminosità (V1, V2) di ciascuna immagine (I1, I2).
  9. 9. Procedimento o dispositivo secondo la rivendicazione precedente, caratterizzato dal fatto che l’unità di controllo (7, SP) è configurata per normalizzare le immagini digitali (I1, I2) in funzione di detti valori di luminosità (V1, V2).
  10. 10. Procedimento o dispositivo secondo una delle rivendicazioni precedenti, caratterizzato dal fatto che l’unità di controllo (7, SP) è configurata per elaborare le immagini digitali (I1, I2) e fornire un’immagine elaborata (PI) che corrisponde ad una matrice di indici NDVI.
  11. 11. Procedimento o dispositivo secondo la rivendicazione precedente, caratterizzato dal fatto che la matrice di indici NDVI comprende una matrice di valori NI(x,y) = (VI1(x,y) - VI2(x,y)) / (VI1(x,y) VI2(x,y)), in cui VI1(x,y) e VI2(x,y) sono i valori dei pixel delle coordinate x,y nelle immagini digitali (I1, I2).
  12. 12. Procedimento o dispositivo secondo una delle rivendicazioni precedenti, caratterizzato dal fatto che l’unità di controllo (7, SP) è configurata per elaborare almeno una (I1) delle due immagini digitali (I1, I2) e creare così un’immagine binaria (BI) della pianta.
  13. 13. Procedimento o dispositivo secondo la rivendicazione precedente, caratterizzato dal fatto che l’unità di controllo (7, SP) è configurata per calcolare l’area coperta (CA) dalla pianta in dimensioni reali in funzione di detta immagine binaria (BI).
  14. 14. Procedimento o dispositivo secondo la rivendicazione 10 o 11 e 12 o 13, caratterizzato dal fatto che l’unità di controllo (7, SP) è configurata per calcolare il valore medio (AV) degli indici NDVI in funzione di detta immagine elaborata (PI) e di detta immagine binaria (BI).
  15. 15. Procedimento o dispositivo secondo la rivendicazione precedente, caratterizzato dal fatto che l’unità di controllo (7, SP) è configurata per calcolare detto valore medio (AV) calcolando una media degli indici NDVI dell’immagine elaborata (PI) delle sole coordinate x,y in cui i pixel dell’immagine binaria (BI) sono uguali ad un valore predeterminato.
  16. 16. Procedimento o dispositivo secondo la rivendicazione 10 o 11 e una delle rivendicazioni da 12 a 15, caratterizzato dal fatto che l’unità di controllo (7, SP) è configurata per calcolare un’immagine di controllo (CI) corrispondente all’immagine elaborata (PI), in cui gli indici NDVI sono settati a 0 nelle coordinate x,y in cui i pixel dell’immagine binaria (BI) sono uguali ad un valore predeterminato.
  17. 17. Procedimento o dispositivo secondo una delle rivendicazioni precedenti, caratterizzato dal fatto che l’unità di controllo (7, SP) è configurata per memorizzare in almeno una memoria e/o mostrare mediante un visore (D) e/o un indicatore (14) detta almeno un’informazione (PI, AV, CI) sullo stato di detta almeno una pianta.
  18. 18. Programma, caratterizzato dal fatto di essere configurato per essere eseguito da un’unità di controllo (7, SP) per realizzare il procedimento secondo una delle rivendicazioni precedenti.
IT102019000000094A 2019-01-07 2019-01-07 Procedimento, dispositivo e programma per controllare lo stato di piante IT201900000094A1 (it)

Priority Applications (5)

Application Number Priority Date Filing Date Title
IT102019000000094A IT201900000094A1 (it) 2019-01-07 2019-01-07 Procedimento, dispositivo e programma per controllare lo stato di piante
PCT/IB2020/050031 WO2020144547A1 (en) 2019-01-07 2020-01-03 Process, device and program for monitoring the state of plants
US17/421,095 US20220108441A1 (en) 2019-01-07 2020-01-03 Process, device and program for monitoring the state of plants
EP20702509.9A EP3909022A1 (en) 2019-01-07 2020-01-03 Process, device and program for monitoring the state of plants
BR112021013283-0A BR112021013283A2 (pt) 2019-01-07 2020-01-03 Dispositivo eletrônico para monitorar o estado de saúde de pelo menos uma planta, sistema eletrônico e método para monitorar o estado de saúde das plantas, e, programa de computador

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT102019000000094A IT201900000094A1 (it) 2019-01-07 2019-01-07 Procedimento, dispositivo e programma per controllare lo stato di piante

Publications (1)

Publication Number Publication Date
IT201900000094A1 true IT201900000094A1 (it) 2020-07-07

Family

ID=66166354

Family Applications (1)

Application Number Title Priority Date Filing Date
IT102019000000094A IT201900000094A1 (it) 2019-01-07 2019-01-07 Procedimento, dispositivo e programma per controllare lo stato di piante

Country Status (5)

Country Link
US (1) US20220108441A1 (it)
EP (1) EP3909022A1 (it)
BR (1) BR112021013283A2 (it)
IT (1) IT201900000094A1 (it)
WO (1) WO2020144547A1 (it)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3139684C (en) * 2019-05-13 2024-02-20 80 Acres Urban Agriculture, Inc. System and method for controlling indoor farms remotely and user interface for same

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8330826B2 (en) * 2009-09-25 2012-12-11 Eastman Kodak Company Method for measuring photographer's aesthetic quality progress
US9117140B2 (en) * 2010-05-24 2015-08-25 Board Of Trustees Of The University Of Arkansas System and method of in-season nitrogen measurement and fertilization of non-leguminous crops from digital image analysis
GB201020073D0 (en) * 2010-11-26 2011-01-12 Siemens Medical Solutions Anatomically-aware MIP shading
US8861847B2 (en) * 2012-12-21 2014-10-14 Intel Corporation System and method for adaptive skin tone detection
US20170303466A1 (en) * 2014-12-17 2017-10-26 Husqvarna Ab Robotic vehicle with automatic camera calibration capability
US10445877B2 (en) * 2016-12-30 2019-10-15 International Business Machines Corporation Method and system for crop recognition and boundary delineation
US11116145B2 (en) * 2018-03-30 2021-09-14 Greensight Argonomics, Inc. Automated optimization of agricultural treatments based on raster image data system
DE102020103575B4 (de) * 2020-02-12 2022-08-11 Basler Aktiengesellschaft Merkmalspunktdetektionsvorrichtung und -verfahren zur Detektion von Merkmalspunkten in Bilddaten

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ARS USDA ET AL: "The An ASABE Meeting Presentation Stereo Spectral Imaging System for Plant Health Characterization Seung-Chul Yoon Written for presentation at the 2009 ASABE Annual International Meeting Sponsored by ASABE Grand Sierra Resort and Casino", 1 January 2009 (2009-01-01), XP055359191, Retrieved from the Internet <URL:http://s3.amazonaws.com/academia.edu.documents/41435435/Stereo_Spectral_Imaging_System_for_Plant20160122-15356-16m1cix.pdf?AWSAccessKeyId=AKIAIWOWYYGZ2Y53UL3A&Expires=1490629385&Signature=QrIw1d+JxmgsYOwdnS88S1Cks94=&response-content-disposition=inline; filename=Stereo_Spectral_Imaging_System_for_Pl> *
JUSTIN A. HOGAN ET AL: "Low-cost multispectral vegetation imaging system for detecting leaking CO 2 gas", APPLIED OPTICS, vol. 51, no. 4, 1 February 2012 (2012-02-01), US, pages A59, XP055610118, ISSN: 1559-128X, DOI: 10.1364/AO.51.000A59 *

Also Published As

Publication number Publication date
WO2020144547A1 (en) 2020-07-16
US20220108441A1 (en) 2022-04-07
BR112021013283A2 (pt) 2021-09-14
EP3909022A1 (en) 2021-11-17

Similar Documents

Publication Publication Date Title
CN104717435B (zh) 摄像装置以及摄像方法
ES2524354T3 (es) Sistema de cámara digital multiespectral con al menos dos cámaras digitales independientes
JP2014130277A5 (it)
CN106878690A (zh) 图像传感器的成像方法、成像装置和电子设备
JP2014236411A5 (it)
EP2590023A4 (en) IMAGING METHOD AND DEVICE
CN102721469A (zh) 双相机的多光谱成像系统和方法
EP1213569A3 (de) Vorrichtung zur bildelementweisen Ausmessung eines flächigen Messobjekts
CN103826530A (zh) 摄像系统
EP1213568A3 (de) Vorrichtung zur bildelementweisen Ausmessung eines flächigen Messobjekts
CN105100550A (zh) 阴影校正方法及装置、成像系统
CN110121264A (zh) 生长舱流水线的图像获取系统和方法
JP2019036947A (ja) 色画像を生成するカメラおよび方法
CN107592516A (zh) 一种用于全景相机的颜色阴影校正方法及系统
WO2015051282A3 (en) Xslit camera
IT201900000094A1 (it) Procedimento, dispositivo e programma per controllare lo stato di piante
CN105230000A (zh) 摄像元件、摄像装置以及图像处理装置
CN107431754A (zh) 图像处理方法、图像处理装置和摄像设备
CN107734231B (zh) 一种基于滤光的成像系统动态范围扩展方法
JP2008011289A (ja) デジタルカメラ
Clamens et al. Real-time Multispectral Image Processing and Registration on 3D Point Cloud for Vineyard Analysis.
JP2014135564A (ja) 撮像装置および画像処理装置
CN103908217A (zh) 电子内窥镜
JP6815777B2 (ja) 撮像装置及び撮像装置の制御方法
JP5375168B2 (ja) 調整装置及び調整方法、並びに撮像装置