IT201800021415A1 - Apparecchiatura di ausilio alla tracciabilita' di prodotti agroalimentari - Google Patents

Apparecchiatura di ausilio alla tracciabilita' di prodotti agroalimentari Download PDF

Info

Publication number
IT201800021415A1
IT201800021415A1 IT102018000021415A IT201800021415A IT201800021415A1 IT 201800021415 A1 IT201800021415 A1 IT 201800021415A1 IT 102018000021415 A IT102018000021415 A IT 102018000021415A IT 201800021415 A IT201800021415 A IT 201800021415A IT 201800021415 A1 IT201800021415 A1 IT 201800021415A1
Authority
IT
Italy
Prior art keywords
container
image
processing unit
imgrf
reference image
Prior art date
Application number
IT102018000021415A
Other languages
English (en)
Inventor
Filisan Andrea Polo
Fabio Mario Scalise
Original Assignee
Sisspre Soc It Sistemi E Servizi Di Precisione S R L
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sisspre Soc It Sistemi E Servizi Di Precisione S R L filed Critical Sisspre Soc It Sistemi E Servizi Di Precisione S R L
Priority to IT102018000021415A priority Critical patent/IT201800021415A1/it
Priority to CN201980087062.1A priority patent/CN113474798B/zh
Priority to JP2021538129A priority patent/JP7374197B2/ja
Priority to US17/418,416 priority patent/US20220067650A1/en
Priority to EP19845719.4A priority patent/EP3903259B1/en
Priority to SG11202106882SA priority patent/SG11202106882SA/en
Priority to PCT/IB2019/061404 priority patent/WO2020136618A1/en
Publication of IT201800021415A1 publication Critical patent/IT201800021415A1/it
Priority to IL284343A priority patent/IL284343A/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/083Shipping
    • G06Q10/0833Tracking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65DCONTAINERS FOR STORAGE OR TRANSPORT OF ARTICLES OR MATERIALS, e.g. BAGS, BARRELS, BOTTLES, BOXES, CANS, CARTONS, CRATES, DRUMS, JARS, TANKS, HOPPERS, FORWARDING CONTAINERS; ACCESSORIES, CLOSURES, OR FITTINGS THEREFOR; PACKAGING ELEMENTS; PACKAGES
    • B65D43/00Lids or covers for rigid or semi-rigid containers
    • B65D43/02Removable lids or covers
    • B65D43/0235Removable lids or covers with integral tamper element
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65DCONTAINERS FOR STORAGE OR TRANSPORT OF ARTICLES OR MATERIALS, e.g. BAGS, BARRELS, BOTTLES, BOXES, CANS, CARTONS, CRATES, DRUMS, JARS, TANKS, HOPPERS, FORWARDING CONTAINERS; ACCESSORIES, CLOSURES, OR FITTINGS THEREFOR; PACKAGING ELEMENTS; PACKAGES
    • B65D2401/00Tamper-indicating means
    • B65D2401/05Tearable non-integral strips

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Economics (AREA)
  • Physics & Mathematics (AREA)
  • Development Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Theoretical Computer Science (AREA)
  • Marketing (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • Tourism & Hospitality (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • General Factory Administration (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Confectionery (AREA)
  • Food Preservation Except Freezing, Refrigeration, And Drying (AREA)
  • General Preparation And Processing Of Foods (AREA)
  • Storage Of Harvested Produce (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Image Processing (AREA)

Description

D E S C R I Z I O N E
del brevetto per invenzione industriale dal titolo:
“APPARECCHIATURA DI AUSILIO ALLA TRACCIABILITA' DI PRODOTTI AGROALIMENTARI”
La presente invenzione riguarda un’apparecchiatura di ausilio alla tracciabilità di prodotti agroalimentari.
Come è noto, la tracciabilità dei prodotti lungo la filiera sta assumendo importanza via via crescente nel settore agroalimentare. Da un lato, infatti, in molti Paesi la tracciabilità è imposta dalle normative in materia di igiene e sicurezza alimentare e, dall’altro, è interesse soprattutto delle aziende che realizzano prodotti di alta qualità poter garantire al meglio nei confronti del pubblico l’origine delle materie prime e la natura delle lavorazioni effettuate, nonché l’integrità fino alla commercializzazione. In sostanza, quindi, c’è l’esigenza di ridurre gli spazi per possibili frodi attuate mediante la sostituzione o l’aggiunta di materie prime di provenienza diversa da quella dichiarata, il tutto anche a fondamentale tutela del consumatore finale attento alla qualità.
Sono state perciò sviluppate numerose soluzioni che hanno lo scopo di assistere la certificazione della provenienza e delle trasformazioni dei prodotti commercializzati. In generale, tuttavia, proprio l’elemento iniziale della catena della tracciabilità dei prodotti agricoli, ossia la raccolta, presenta un elemento di debolezza che rende difficile la certificazione e lascia ancora ampi margini per tentativi di frode. Ciò è particolarmente vero, per esempio, per la raccolta di frutti di qualsiasi tipo e per molti generi di ortaggi. Le difficoltà nascono dall’ovvia mancanza di infrastrutture tecnologiche sui luoghi di raccolta, che attualmente impedisce di effettuare operazioni necessarie per la certificazione del prodotto.
Scopo della presente invenzione è fornire un’apparecchiatura di ausilio alla tracciabilità di prodotti agroalimentari che permetta di superare o almeno attenuare le limitazioni descritte.
Secondo la presente invenzione viene pertanto fornita un’apparecchiatura di ausilio alla tracciabilità di prodotti agroalimentari sostanzialmente come definita nella rivendicazione 1.
Ulteriori caratteristiche e vantaggi della presente invenzione appariranno chiari dalla descrizione che segue di esempi non limitativi di attuazione, con riferimento alle figure dei disegni annessi, in cui:
- La figura 1 è una vista prospettica di un’apparecchiatura di ausilio alla tracciabilità di prodotti agroalimentari in accordo a una forma di realizzazione della presente invenzione;
- la figura 2 è una vista laterale dell’apparecchiatura di figura 1;
- la figura 3 è uno schema a blocchi semplificato dell’apparecchiatura di figura 1;
- le figura 4a-4c mostrano esempi alternativi di un elemento in uso nell’apparecchiatura di figura 1;
- la figura 5 mostra l’apparecchiatura di figura 1 in uso;
- la figura 6 è un diagramma di flusso semplificato relativo a una prima procedura eseguita dall’apparecchiatura di figura 1;
- la figura 7 è un diagramma di flusso semplificato relativa a una seconda procedura eseguita dall’apparecchiatura di figura 1;
- la figura 8 è una vista laterale schematica di un’apparecchiatura di ausilio alla tracciabilità di prodotti agroalimentari in accordo a una diversa forma di realizzazione della presente invenzione; e
- la figura 9 è uno schema a blocchi semplificato di un sistema per la tracciabilità di prodotti agroalimentari incorporante apparecchiature del tipo di figura 1.
Con riferimento alle figure 1 e 2, un’apparecchiatura di ausilio alla tracciabilità di prodotti agroalimentari è indicata nel suo complesso con il numero 1. L’apparecchiatura 1 è specialmente destinata a supportare la tracciabilità nella fase di raccolta di frutti e ortaggi di qualsiasi genere.
L’apparecchiatura 1 comprende un contenitore 2 per la raccolta di frutti e un telaio 3, provvisto di organi di collegamento 4 per la connessione al contenitore 2.
Il contenitore 2 può essere un qualsiasi contenitore generalmente aperto superiormente e utilizzabile per la raccolta di frutti o ortaggi. Nell’esempio di figura 1, il contenitore 2 è una cassetta impilabile con altre cassette dello stesso tipo (generalmente adatte a contenere alcuni chili di prodotto e quindi facilmente trasportabili a mano). In alternativa, il contenitore 2 può essere un cassone standard (BIN) adatto a contenere quantità maggiori di prodotto e movimentabile attraverso forche meccaniche. In una forma di realizzazione, il contenitore 2 è provvisto di un etichetta identificatrice 2a, che contiene un codice identificativo univoco e può essere di tipo a lettura ottica (ad esempio con un codice a barre) o elettromagnetica (ad esempio un tag RFID).
In una forma di realizzazione, il telaio 3 comprende un supporto verticale 3a definito da uno o più montanti fissati agli organi di collegamento 4, i quali sono configurati in particolare per consentire di collegare il telaio 3 in modo reversibile al contenitore 2. Nella forma di realizzazione di figura 1, in particolare, gli organi di collegamento 4 comprendono una base 5 atta a ricevere il contenitore 2 e fissata a una porzione di appoggio a terra 3b del telaio 3. La base 5, in particolare, può essere definita da una cassetta impilabile identica al contenitore 2. In questo modo, l’accoppiamento fra il telaio 3 e il contenitore 2 è semplice e rapido e, inoltre, il posizionamento del contenitore 2 è accurato e ripetibile. In una forma di realizzazione non mostrata la base può essere planare, per esempio con una piastra sostanzialmente orizzontale per ricevere il contenitore 2 in appoggio. In alternativa, gli organi di collegamento possono comprendere morse, pinze o sistemi di fissaggio a innesto o a vite e simili.
Con riferimento anche alla figura 3, l’apparecchiatura 1 comprende, inoltre, un dispositivo rilevatore di immagini 6, un sensore di movimento 7, un dispositivo di localizzazione satellitare 8, un lettore di targhette identificatrici 9, un’unità di elaborazione 10 dotata di un dispositivo di memoria 11, e un modulo di comunicazione wireless 12, tutti montati sul telaio 3. Un’interfaccia di comando 13 locale è dotata di uno schermo 13a e può essere supportata dal telaio 3 e collegata via cavo all’unità di elaborazione 10 oppure può essere definita da un dispositivo mobile, quale uno smartphone o un tablet e accoppiata in comunicazione con l’unità di elaborazione 10 attraverso il modulo di comunicazione wireless 12, ad esempio utilizzando lo standard di comunicazione Bluetooth. In alternativa, un’interfaccia remota 16 può essere accoppiata in comunicazione con l’unità di elaborazione 10 allo stesso scopo attraverso il modulo di comunicazione wireless 12. Almeno il dispositivo di localizzazione satellitare 8, il lettore di targhette identificatrici 9, l’unità di elaborazione 10, il dispositivo di memoria 11, il modulo di comunicazione wireless 12 e l’interfaccia di comando 13 possono esser alloggiati all’interno di uno stesso involucro 40 fissato al telaio 3.
In una forma di realizzazione, il dispositivo rilevatore di immagini 6, comprende sensori di immagini 14, 15, provvisti di rispettive ottiche fisse o variabili non mostrate, e un illuminatore 17.
I sensori di immagini 14, 15 possono essere sensori essenzialmente nella banda del visibile, come sensori CMOS o CCD, oppure sensori di radiazione infrarossa o ultravioletta, scanner laser o, in generale, di qualsiasi tipo adatto a essere montato sul telaio 3.
Il sensore di immagini 14 è orientato verso la base 5 in modo da inquadrare una regione osservata R1 includente l’imbocco del contenitore 2 quando quest’ultimo è collocato nella base 5, come mostrato in figura 2. Il sensore di immagini 14 è configurato per acquisire singole immagini e/o sequenze di immagini per un periodo di tempo programmato in base al tipo di attività da osservare e tracciare in risposta a movimenti rilevati dal sensore di movimento 7 e per rimanere in una condizione di attesa in assenza di segnali indicativi di movimenti rilevati dal sensore di movimento 7. L’accoppiamento con il sensore di movimento 7 può essere diretto oppure indiretto attraverso l’unità di elaborazione 10 (figura 3). In altre parole, il sensore di immagini 14 può rispondere direttamente a segnali provenienti dal sensore di movimento 7 oppure a comandi generati dall’unità di elaborazione 10 a sua volta in risposta a segnali provenienti dal sensore di movimento 7. In una forma di realizzazione, l’acquisizione delle immagini è eseguita con ritardo, ad esempio di alcuni secondi, rispetto agli istanti in cui il sensore di movimento 7 rileva un movimento o l’ultimo di una sequenza di movimenti nel proprio intervallo sensibile.
Il sensore di immagini 15 è orientato in modo da riprendere immagini panoramiche di una porzione del terreno attorno all’apparecchiatura 1 dove la raccolta viene effettuata, in particolare di alberi da cui si raccolgono frutti, oltre a installazioni, recinzioni, porzioni di immobili e oggetti eventualmente presenti (figura 4). Il sensore di immagini 15 può essere attivato manualmente attraverso comandi forniti da un operatore attraverso l’interfaccia di comando 13 oppure in risposta a un cambiamento di coordinate spaziali indicato dal dispositivo di localizzazione satellitare 8 (ad esempio, in seguito a spostamenti superiori a una distanza minima programmata).
In una forma di realizzazione alternativa non mostrata, è possibile utilizzare un solo sensore di immagini orientabile sia verso la base 5, sia verso i dintorni e/o ottiche variabili che consentano di commutare fra le diverse inquadrature manualmente oppure in automatico sulla base di una modalità prefissata.
Il sensore di movimento 7 può essere ad esempio un sensore passivo a infrarossi, un sensore DMT (“Digital Motion Technology”), un sensore a microonde, un sensore a ultrasuoni o combinazioni di questi. Il sensore di movimento 7 è orientato verso la base 5 per rilevare movimenti in una regione di sorveglianza R2 includente almeno una porzione della regione osservata R1 inquadrata dal dispositivo rilevatore di immagini 6. In particolare, il sensore di movimento 7 è configurato in modo da essere attivato dall’inserimento del contenitore 2 nella base 5 e da operazioni di riversamento nel contenitore 2 già nella base 5 di frutti raccolti. In pratica, quindi, il sensore di movimento 7 consente di identificare l’introduzione del contenitore 2, vuoto o pieno, nella base 5 e le azioni che implicano una variazione del contenuto del contenitore 2 quando questo si trova nella base 5.
Come accennato, inoltre, il sensore di movimento 7 determina, direttamente o indirettamente attraverso l’unità di elaborazione 10, l’acquisizione di immagini da parte del sensore di immagini 14.
Il dispositivo di localizzazione satellitare 8 è per esempio un localizzatore GPS o un navigatore GNSS ed è accoppiato in comunicazione con l’unità di elaborazione 10 per fornire, in risposta a un comando, una coppia di coordinate spaziali (longitudine e latitudine).
Il lettore di targhette identificatrici 9 è di un tipo adatto a leggere le etichette identificatrici 2a riportate sul contenitore 2. A seconda delle etichette identificatrici 2a utilizzate, il lettore di targhette identificatrici 9 può comprendere, per esempio, un lettore di codici a barre o un lettore RFID. Nel primo caso, il lettore di targhette identificatrici 9 può essere implementato dall’unità di elaborazione 10 e i sensori di immagini 14, 15 se le etichette identificatrici 2a sono apposte in porzioni dei contenitori 2 a vista durante la fase di raccolta. In questo caso, l’unità di elaborazione 10 può estrarre porzioni di immagine corrispondenti alle etichette identificatrici 2a ed effettuare da esse il riconoscimento.
L’apparecchiatura 1 comprende, inoltre, un dispositivo di pesatura 17, configurato per determinare il peso del contenitore 2 posto nella base 5 (figure 2 e 3). Il dispositivo di pesatura 17 comprende un modulo di elaborazione 18, uno o più sensori di peso 19, disposti in modo da essere caricati quando il dal contenitore 2 è nella base 5, e un inclinometro 20, rigidamente fissato al telaio 3. In una forma di realizzazione, il modulo di elaborazione 18 può essere integrato nell’unità di elaborazione 10. I sensori di peso 19 possono essere ad esempio celle di carico collocate sotto la base 5 in prossimità dei vertici. L’inclinometro 20 può essere vantaggiosamente basato su un accelerometro o un giroscopio microelettromeccanico multiassiale.
L’unità di elaborazione 10 coopera con i sensori di peso 19 e con l’inclinometro 20 per determinare una misura del peso del contenitore 2 posto nella base 5. In particolare, l’unità di elaborazione 10 determina un’inclinazione del contenitore 2 rispetto a un piano orizzontale utilizzando un segnale di inclinazione fornito dall’inclinometro 20 e/o combinando i valori di peso grezzi forniti dai sensori di peso 19. I valori di peso grezzi vengono poi corretti dall’unità di elaborazione 10 in funzione dell’inclinazione determinata. Inoltre, l’unità di elaborazione 10 può sottrarre la tara del contenitore 2 utilizzando un valore registrato nel dispositivo di memoria 11 oppure effettuando direttamente la pesatura del contenitore vuoto, se possibile.
In una forma di realizzazione (figure 1 e 2), l’apparecchiatura 1 comprende un distributore 22 che fornisce una pellicola antimanomissione (“anti-tamper” o “tamper proof”) 23, applicabile a chiusura del contenitore 2 che si distrugge quando viene rimossa. Il distributore 22 comprende un rotolo di pellicola antimanomissione 23 supportato dal telaio 3 in modo girevole attorno a un asse parallelo alla base 5 a un’altezza leggermente superiore all’altezza del contenitore 2 alloggiato nella base 5. La pellicola antimanomissione 23 può così essere stesa e applicata a chiusura del contenitore 2 prima che il contenitore 2 stesso sia rimosso dalla base 5. In una forma di realizzazione, la pellicola antimanomissione 23 è realizzata in un materiale polimerico trasparente traforato e biodegradabile e presenta linee di indebolimento 24. In pratica, una volta applicata, la pellicola antimanomissione 23 si rompe lungo le linee di indebolimento 24 in seguito a un tentativo di rimozione, rivelando un’anomalia. Inoltre, la pellicola antimanomissione 23 presenta su una faccia 23a a vista segni grafici 25 non ripetitivi o ripetitivi con periodo spaziale maggiore rispetto a una lunghezza di pellicola necessaria per chiudere il contenitore 2 (esempi di segni grafici 25 sono mostrati nelle figure 4a-4c; la figura 4a mostra in modo puramente esemplificativo anche le dimensioni del contenitore 2 in rapporto alla pellicola antimanomissione 23). I segni grafici 25 sono realizzati in modo che, una volta chiuso il contenitore 2, l’aspetto presentato verso il sensore di immagini 14 sia unico (o comunque difficilmente riproducibile). Grazie a un esame ottico dei segni grafici 25, pertanto, è possibile stabilire se la pellicola antimanomissione 23 sia stata sostituita o meno. I segni grafici 25 possono essere immagini realistiche o astratte oppure comprendere codici grafici come codici a barre lineari o bidimensionali.
L’unità di elaborazione 10 è configurata per associare alle immagini fornite dal sensore di immagini 14 le coordinate rilevate dal dispositivo di localizzazione satellitare 8 al momento del rilevamento e un marcatore temporale sincronizzato con sistema temporale di riferimento, ad esempio attraverso internet. Inoltre, l’unità di elaborazione 10 provvede alla memorizzazione delle immagini acquisite nel dispositivo di memoria 11 insieme ai rispettivi coordinate e marcatori temporali. Contestualmente, l’unità di elaborazione 10 memorizza nel dispositivo di memoria 11 anche il codice identificativo univoco associato al contenitore 2 oggetto dell’immagine acquisita e fornito dal lettore di etichette identificatrici 9.
L’unità di elaborazione 10 è provvista di un modulo di elaborazione di immagini 30 configurato per eseguire operazioni di estrazioni di caratteristiche e confronto fra immagini (verifica di identità). A questo scopo, il modulo di elaborazione di immagini 30 utilizza tecniche e algoritmi di elaborazione quali orientamento, normalizzazione dimensionale e geometrica (ad esempio prendendo come riferimento i bordi del contenitore 2 e/o marcatori appositamente applicati), equalizzazione di luminosità, equalizzazione cromatica, riduzione del rumore, smoothing, riconoscimento dei contorni, rilevazione di elementi con specifiche bande cromatiche (ad esempio frutti con diverso grado di maturazione), segmentazione dell’immagine in sottoaree, riconoscimento di pattern, definizione di norme e misura delle norme per determinare identità o differenza tra immagini. Le tecniche e gli algoritmi utilizzati possono essere ottimizzati in base ai segni grafici 25 sulla pellicola antimanomissione al tipo di frutto od ortaggio raccolto (uva, olive, pomodori ecc.). Le operazioni di aggiustamento dell’orientamento e di normalizzazione dimensionale e geometrica possono essere effettuate prendendo come riferimento elementi di vario tipo presenti nell’immagine e utili a caratterizzare il posizionamento dell’immagine stessa nello spazio e nel tempo. A titolo di esempio non limitativo, elementi delle immagini utili a questo scopo includono caratteristiche del tipo di terreno o base di appoggio (prato erboso, pianale di un mezzo di trasporto, zona asfaltata, zona differentemente pavimentata), punti di riferimento fissi sul terreno (cippi stradali, pali di segnalazione, segnaletica stradale, elementi distintivi del territorio come edifici, porzioni di muro, recinzioni, pali e tralicci di linee aeree) ed elementi caratteristici e univoci (parti di macchinari e attrezzature varie).
L’unità di elaborazione 10 impiega il modulo di elaborazione immagini 30 anche per stimare un volume di prodotto all’interno del contenitore 2 posto nella base 5 dalle immagini acquisite dal sensore di immagini 14 e per determinare il peso del contenitore 2 in base al volume di prodotto stimato e a informazioni sulle caratteristiche del prodotto immagazzinate nel dispositivo di memoria 11. L’unità di elaborazione 10 integra così il dispositivo di pesatura 17.
Attraverso il modulo di elaborazione immagini 30, l’unità di elaborazione 10 è anche in grado di riconoscere oggetti estranei che possono essere stati introdotti nel contenitore 5 per errore o in seguito a un tentativo di frode (per esempio sassi o quantitativi di frutti difformi). In particolare, il dispositivo di memoria 11 contiene valori ammissibili di parametri di riconoscimento per l’identificazione di unità di prodotto agroalimentare (per esempio dimensioni minime e massime su uno o più assi, parametri di forma, bande cromatiche ecc.) e il modulo di elaborazione immagini 30 identifica la presenza di oggetti non compatibili con i valori ammissibili dei parametri di riconoscimento.
Come mostrato in figura 5, in uso l’apparecchiatura 1 viene collocata in prossimità di una zona di raccolta di un terreno agricolo e viene messa in funzione (manualmente sul luogo di posizionamento oppure anche da remoto tramite connessione di rete) prima dell’inizio della raccolta stessa. Opportuni programmi di diagnostica presenti nell’apparecchiatura segnalano all’operatore la eventuale presenza di anomalie di funzionamento sia in modalità diretta (via schermo o display LCD), sia via connessione di rete verso una centrale di controllo remoto (si veda ad esempio il server remoto 301 di figura 9). Con riferimento alla figura 6, il dispositivo di localizzazione satellitare 8 rileva coordinate spaziali che corrispondono a uno spostamento dall’ultima collocazione che è superiore alla distanza minima programmata e il sensore di immagini 15 viene attivato di conseguenza. In alternativa, il sensore di immagini 15 viene attivato manualmente attraverso l’interfaccia di comando 13. In entrambi i casi, il sensore di immagini 15 rileva un’immagine panoramica IMGP attorno all’apparecchiatura 1 (blocco 100), includendo le piante prima della raccolta. L’immagine panoramica IMGP viene salvata dall’unità di elaborazione 10 nel dispositivo di memoria 11 insieme alle coordinate fornite dal dispositivo di localizzazione satellitare 8 e al marcatore temporale (blocco 105). In questa fase, l’unità di elaborazione 10 può identificare la presenza di persone nell’immagine panoramica IMGP e rimuoverle o renderle irriconoscibili per evitare violazioni di riservatezza (blocco 110).
Successivamente (blocco 115), un contenitore 2 viene collegato al telaio 3. Il collegamento può essere ottenuto disponendo il contenitore 2 nella base 5 o, nel caso il contenitore 2 sia un cassone standard (BIN) e non sia presente la base 5, applicando il telaio 3 con gli organi di collegamento (pinza, morsa, ecc.).
L’atto del collegamento attiva il sensore di movimento 7, che innesca l’acquisizione di un’immagine di riferimento IMGR da parte del sensore di immagini 14 (blocco 120) e la determinazione del peso del contenitore 2 (blocco 122). Il peso del contenitore 2 può essere determinato sia direttamente dal dispositivo di pesatura 17 o, se il dispositivo di pesatura 17 non è disponibile, indirettamente dall’unità di elaborazione 10 sulla base dell’immagine di riferimento IMGR. In particolare, l’unità di elaborazione 10 è configurata per stimare il volume occupato dal prodotto nel contenitore 2 utilizzando il modulo di elaborazione immagini 30 e dati relativi al peso specifico medio del prodotto immagazzinati nel dispositivo di memoria 11. In una forma di realizzazione, inoltre, l’unità di elaborazione 10 è opzionalmente configurata per confrontare il peso del contenitore 2 determinato dal dispositivo di pesatura 17 con il peso ricavato dalla stima del volume occupato dal prodotto nel contenitore 2. In questo modo è possibile valutare la quantità di materiale estraneo o di scarto presente, come foglie o rametti, e se convenga effettuare la defogliazione direttamente sul campo per ottimizzare la raccolta e i trasporti presso lo stabilimento di trasformazione. L’immagine di riferimento IMGR e le informazioni sul peso vengono poi salvati nel dispositivo di memoria 11 con le coordinate fornite dal dispositivo di localizzazione satellitare 8 e con un rispettivo marcatore temporale (blocco 125).
Fino a quando il contenitore 2 rimane collegato al telaio 3 (blocco 130, uscita NO), movimenti all’interno della regione di sorveglianza R2 del sensore di movimento 7 vengono rilevati (blocco 135, uscita SI) e innescano l’acquisizione e il salvataggio di una nuova immagine di riferimento IMGR (blocchi 120-130). I movimenti possono generalmente corrispondere all’aggiunta di prodotti nel contenitore 2 da altri contenitori o mezzi di raccolta oppure alla sigillatura del contenitore 2 con una rispettiva porzione della pellicola antimanomissione 23. La porzione della pellicola antimanomissione è identificabile in modo univoco e, dato che è pressoché se non del tutto impossibile la sostituzione con una porzione identica, la possibilità di manomettere il contenuto è sostanzialmente ridotta.
In assenza di movimenti rilevati (blocco 135, uscita NO), il sensore di immagini 14 rimane in attesa in modo da minimizzare il consumo di energia.
Quando il contenitore 2 viene separato dal telaio 3, il dispositivo di pesatura 17 rileva una diminuzione di peso (blocco 130, uscita SI), l’unità di elaborazione 10 identifica l’ultima immagine di riferimento memorizzata (blocco 140) e la salva nel dispositivo di memoria 11 come immagine di riferimento finale IMGRF, con i relativi coordinate spaziali, marcatore temporale, codice identificativo ed eventualmente peso (blocco 145). In alternativa, l’immagine di riferimento finale IMGRF può essere acquisita e marcata come tale anche in risposta a un comando fornito da un operatore attraverso l’interfaccia di comando 13 locale o attraverso un’interfaccia di comando 13 remota.
L’immagine di riferimento finale IMGRF, in pratica, corrisponde a una porzione (univocamente definita) della pellicola antimanomissione 23, se è stata utilizzata, o della configurazione del prodotto nel contenitore 2. In entrambi i casi, l’immagine di riferimento finale IMGRF rappresenta lo stato del contenitore 2 riempito prima del conferimento per le fasi successive di trasporto e/o lavorazione.
Con riferimento alla figura 7, prima del conferimento del prodotto raccolto in un contenitore per il trasporto (ad esempio da una cassetta di raccolta a un cassone o BIN) o all’ingresso in uno stabilimento di lavorazione, il contenitore 2 viene nuovamente collegato al telaio 3 (blocco 200) e il sensore di immagini 14 acquisisce un’immagine di controllo IMGC in risposta a un comando fornito dall’unità di elaborazione 10 (blocco 205). Grazie all’uso del telaio 3, il punto di ripresa dell’immagine di controllo IMGC coincide con il punto di ripresa dell’immagine di riferimento finale IMGRF. Le due immagini possono quindi essere agevolmente confrontate dal modulo di elaborazione immagini 30 dell’unità di elaborazione 10 (blocco 210). Come accennato, il modulo di elaborazione immagini 30 per il confronto può utilizzare tecniche e algoritmi di elaborazione quali orientamento, normalizzazione dimensionale e geometrica (ad esempio prendendo come riferimento i bordi del contenitore 2 e/o marcatori appositamente applicati), equalizzazione di luminosità, equalizzazione cromatica, riduzione del rumore, smoothing, riconoscimento dei contorni, rilevazione di elementi con specifiche bande cromatiche (ad esempio frutti con diverso grado di maturazione), segmentazione dell’immagine in sottoaree, riconoscimento di pattern, definizione di norme e misura delle norme. Gli algoritmi di riconoscimento possono generalmente essere applicate sia quando il contenitore 2 è sigillato con la pellicola antimanomissione 23, sia quando il contenitore è aperto. Nel primo caso, il modulo di elaborazione immagini 30 può confrontare direttamente l’aspetto dei segni grafici 25 riportati sulla pellicola antimanomissione 23 come risulta dalle immagini acquisite oppure, se sulla pellicola antimanomissione 23 è riportato un codice, il codice può essere decodificato e il confronto può essere eseguito dall’unità di elaborazione 10 sui risultati delle decodifiche.
Il confronto viene eseguito dal modulo di elaborazione di immagini 30 e dall’unità di elaborazione 10 applicando soglie di tolleranza programmate per tenere conto di possibili artefatti dovuti alle differenti condizioni di illuminazione e di possibili movimenti del prodotto nel contenitore, qualora non sia utilizzata la pellicola antimanomissione 23.
In base al confronto e alle soglie di tolleranza applicate, l’unità di elaborazione 10 determina (conferma o nega) l’identità fra l’immagine di controllo IMGC e l’immagine di riferimento finale IMGRF associata al contenitore 2 e memorizzata nel dispositivo di memoria 11 (blocco 215).
In questo modo, l’apparecchiatura 1 consente di tracciare i prodotti alimentari, in particolare frutti e ortaggi, sin dal momento della raccolta, ovviando alla mancanza di infrastrutture tecnologiche sui luoghi di raccolta, che spesso impedisce di effettuare operazioni necessarie per la certificazione. L’apparecchiatura 1 permette quindi di ridurre i margini per tentativi di frode e, in generale, il rischio che il prodotto conferito per le fasi di lavorazione successive sia di provenienza diversa da quella dichiarata. I dati relativi all’immagine di riferimento finale IMGRF e all’immagine di controllo IMGC possono essere resi disponibili a una stazione remota per eventuali ulteriori elaborazioni e l’integrazione nella catena della tracciabilità. Inoltre, il controllo viene effettuato in modo pressoché completamente automatico, senza interferire con le attività degli addetti.
Con riferimento alla figura 8, una apparecchiatura 50 in accordo a una diversa forma di realizzazione della presente invenzione è montata su un carrello elevatore 51 motorizzato e comprende un telaio 53 provvisto di organi di collegamento 54 per la connessione a un contenitore 52 per la raccolta di frutti, qui un cassone standard (BIN). Nell’esempio descritto, il telaio 52 e gli organi di collegamento 54 sono definiti rispettivamente da montanti di sollevamento e da forche del carrello elevatore 51. Inoltre, l’apparecchiatura 50 comprende, un dispositivo rilevatore di immagini 56 e un sensore di movimento 57 collegati al telaio 52 mediante una staffa 59. Il dispositivo rilevatore di immagini 56 è orientato verso organi di collegamento 54 in modo da inquadrare una regione osservata R1’ includente l’imbocco del contenitore 52 quando quest’ultimo è collocato sulle forche del carrello elevatore 51, ossia è accoppiato agli organi di collegamento 54.
Il sensore di movimento 57 è orientato verso gli organi di collegamento 54 per rilevare movimenti in una regione di sorveglianza R2’ includente almeno una porzione della regione osservata R1’ inquadrata dal dispositivo rilevatore di immagini 56. In particolare, il sensore di movimento 57 è configurato in modo da essere attivato dall’atto di posizionare il contenitore 52 sugli organi di collegamento 54 (forche) e da operazioni di riversamento di frutti raccolti nel contenitore 52 già posizionato sulle forche. Come nell’esempio delle figure 1 e 2, quindi, il sensore di movimento 57 consente di identificare l’introduzione del contenitore 52, vuoto o pieno, e le azioni che implicano una variazione del suo contenuto.
Qui non mostrati per semplicità, sono presenti il dispositivo di localizzazione satellitare 8, il lettore di targhette identificatrici 9, l’unità di elaborazione 10 con il dispositivo di memoria 11, e il modulo di comunicazione wireless 12, sostanzialmente come già descritto con riferimento alla figura 3. L’interfaccia di comando 13 locale può essere collocata a bordo del carrello elevatore 51. Come nell’esempio precedente, l’unità di elaborazione 10 associa alle immagini di riferimento coordinate rilevate dal dispositivo di localizzazione satellitare 8 e un marcatore temporale e memorizza le immagini di riferimento, le coordinate rilevate dal dispositivo di localizzazione satellitare 8 e il marcatore temporale nel dispositivo di memoria 11.
La figura 9 mostra schematicamente un sistema 300 per la tracciabilità di prodotti agroalimentari che comprende una pluralità di apparecchiature 1 sostanzialmente del tipo già descritto e un server remoto 301, presso il quale risiede una base di dati 302. Il server remoto 301 è collegabile a ciascuna apparecchiatura 1 attraverso una rete di comunicazione estesa 305 (per esempio internet) e i rispettivi moduli di comunicazione wireless. Le apparecchiature 1 possono differire le une dalle altre ad esempio per aspetti come la forma del telaio o la struttura della base, anche in relazione al tipo di contenitore utilizzato, ma sono comunque dotate della capacità di ripresa fotografica, georeferenziazione e marcatura temporale per documentare la configurazione dei contenitori prima del trasporto. Il sistema 300 può comprendere inoltre etichette identificatrici 307, ad esempio tag RFID, per l’identificazione univoca del sito specifico di provenienza. Le etichette identificatrici 307 possono essere applicate a singole piante o gruppi di piante oppure essere associate a porzioni del terreno di raccolta. Le etichette identificatrici 307 possono essere lette dai lettori di targhette identificatrici delle apparecchiature 1 ed essere associate alle immagini di riferimento e di controllo acquisite durante l’uso delle apparecchiature 1, insieme alle altre informazioni.
Le informazioni immagazzinate nei dispositivi di memoria delle apparecchiature 1 (immagini di riferimento, immagini di controllo, codici identificativi dei contenitori, coordinate spaziali, marcatori temporali, dati di peso) vengono trasferiti nella base di dati 302 quando il collegamento attraverso la rete di comunicazione estesa 305 è disponibile, dato che non di rado le zone di raccolta non sono coperte da questi servizi o non lo sono con continuità, presentando interruzioni non trascurabili di servizio. Una volta caricate nella base di dati 305, le informazioni vengono incorporate nella catena della tracciabilità e sono disponibili per documentare l’integrità dei prodotti fin dalle prime fasi della raccolta, a vantaggio sia dei consumatori, sia delle autorità di controllo.
È infine evidente che all’apparecchiatura descritta e rivendicata possono essere apportate modifiche e varianti senza peraltro uscire dall’ambito di protezione definito dalle rivendicazioni allegate.

Claims (19)

  1. RIVENDICAZIONI 1. Apparecchiatura di ausilio alla tracciabilità di prodotti agroalimentare, comprendente: un telaio (3; 53), provvisto di organi di collegamento (4; 54) a un contenitore (2; 52); un dispositivo rilevatore di immagini (14, 15; 64), montato sul telaio (3; 53) e orientato in modo che, quando un contenitore (2; 52) è collegato al telaio (3; 53), il contenitore si trova in una regione osservata (R1; R1’) inquadrata dal dispositivo rilevatore di immagini (14, 15; 64); un sensore di movimento (7; 57) montato sul telaio (3; 53) e configurato per rilevare movimenti in una regione di sorveglianza (R2; R2’) includente almeno una porzione della regione osservata (R1; R1’) inquadrata dal dispositivo rilevatore di immagini (14, 15; 64); un dispositivo di localizzazione satellitare (8); un dispositivo di memoria (11); un’unità di elaborazione (10); in cui il dispositivo rilevatore di immagini (14, 15; 64) è accoppiato al sensore di movimento (7; 57) ed è configurato per acquisire almeno un’immagine di riferimento (IMGR, IMGRF) in risposta a un movimento rilevato dal sensore di movimento (7; 57); e in cui l’unità di elaborazione (10) è configurata per associare all’immagine di riferimento (IMGR, IMGRF) coordinate rilevate dal dispositivo di localizzazione satellitare (8) e un marcatore temporale e per memorizzare l’immagine di riferimento (IMGR, IMGRF), le coordinate rilevate dal dispositivo di localizzazione satellitare (8) e il marcatore temporale nel dispositivo di memoria (11).
  2. 2. Apparecchiatura secondo la rivendicazione 1, comprendente un contenitore (2) collegato al telaio (3), il contenitore (2) essendo aperto superiormente.
  3. 3. Apparecchiatura secondo la rivendicazione 2, comprendente un lettore di targhette identificatrici (9), in cui il contenitore (2) è provvisto di una targhetta identificatrice (2a) riconoscibile dal lettore di targhette identificatrici (9).
  4. 4. Apparecchiatura secondo la rivendicazione 3, in cui l’unità di elaborazione (10) è accoppiata in comunicazione con il lettore di targhette identificatrici (9) ed è configurata per associare all’immagine di riferimento (IMGR, IMGRF) acquisita dal dispositivo rilevatore di immagini (14, 15) un codice identificativo della targhetta identificatrice (2a) sul contenitore (2).
  5. 5. Apparecchiatura secondo una qualsiasi delle rivendicazioni da 2 a 4, comprendente un distributore (22) fornente una pellicola antimanomissione (23), applicabile a chiusura del contenitore (2).
  6. 6. Apparecchiatura secondo la rivendicazione 5, in cui la pellicola antimanomissione (23) presenta linee di indebolimento (24), di modo che, una volta applicata, la pellicola antimanomissione (23) si rompe lungo le linee di indebolimento (24) in seguito a un tentativo di rimozione.
  7. 7. Apparecchiatura secondo la rivendicazione 5 o 6, in cui la pellicola antimanomissione (23) presenta su una faccia (23a) segni grafici (25) non ripetitivi o ripetitivi con periodo spaziale maggiore rispetto a una lunghezza di pellicola antimanomissione (23) necessaria per chiudere il contenitore (2).
  8. 8. Apparecchiatura secondo una qualsiasi delle rivendicazioni da 2 a 7, comprendente un dispositivo di pesatura (17), configurato per determinare il peso del contenitore (2).
  9. 9. Apparecchiatura secondo la rivendicazione 8, in cui il dispositivo di pesatura (17) comprende un modulo di elaborazione (18), sensori di peso (19), disposti in modo da essere caricati dal contenitore (2) collegato al telaio (3), e un inclinometro (20) e in cui l’unità di elaborazione (10) è configurata per determinare il peso del contenitore (2) in base a una risposta dei sensori di peso (19) e a una risposta dell’inclinometro (20).
  10. 10. Apparecchiatura secondo la rivendicazione 8 o 9, in cui l’unità di elaborazione (10) è configurata per stimare un volume di prodotto all’interno del contenitore (2) dall’immagine di riferimento (IMGR, IMGRF) acquisita e per determinare il peso del contenitore (2) in base al volume stimato e a informazioni di prodotto immagazzinate nel dispositivo di memoria (11).
  11. 11. Apparecchiatura secondo una qualsiasi delle rivendicazioni da 8 a 10, in cui il dispositivo rilevatore di immagini (14, 15) è azionabile per acquisire un’immagine di riferimento finale (IMGRF) del contenitore (2) in risposta a una diminuzione di peso rilevata dal dispositivo di pesatura (17) e l’unità di elaborazione (10) è configurata per associare all’immagine di riferimento finale (IMGRF) coordinate rispettive rilevate dal dispositivo di localizzazione satellitare (8) e un rispettivo marcatore temporale e per memorizzare l’immagine di riferimento finale (IMGRF), le coordinate rilevate dal dispositivo di localizzazione satellitare (8) e il marcatore temporale nel dispositivo di memoria (11).
  12. 12. Apparecchiatura secondo una qualsiasi delle rivendicazioni da 8 a 10, in cui il dispositivo rilevatore di immagini (14, 15) è azionabile in risposta a un comando manuale ottenibile attraverso un’interfaccia di comando (13, 16) per acquisire un’immagine di riferimento finale (IMGRF) del contenitore (2) e l’unità di elaborazione (10) è configurata per associare all’immagine di riferimento finale (IMGRF) coordinate rispettive rilevate dal dispositivo di localizzazione satellitare (8) e un rispettivo marcatore temporale e per memorizzare l’immagine di riferimento finale (IMGRF), le coordinate rilevate dal dispositivo di localizzazione satellitare (8) e il marcatore temporale nel dispositivo di memoria (11).
  13. 13. Apparecchiatura secondo la rivendicazione 11 o 12, in cui dispositivo rilevatore di immagini (14, 15) è configurato per acquisire un’immagine di controllo (IMGC) del contenitore (2) in risposta a un comando dell’unità di elaborazione (10) e in cui l’unità di elaborazione (10) è configurata per: confrontare l’immagine di controllo (IMGC) e l’immagine di riferimento finale (IMGRF) associata al contenitore (2) e memorizzata nel dispositivo di memoria (11); e applicare soglie di tolleranza programmate; e confermare o negare l’identità fra l’immagine di controllo (IMGC) e l’immagine di riferimento finale (IMGRF) associata al contenitore (2) e memorizzata nel dispositivo di memoria (11) in base al confronto e alle soglie di tolleranza.
  14. 14. Apparecchiatura secondo la rivendicazione 13 dipendente dalla rivendicazione 7, in cui l’unità di elaborazione (10) è configurata per riconoscere e confrontare i segni grafici (25) dell’immagine di controllo (IMGC) e dell’immagine di riferimento finale (IMGRF) associata al contenitore (2) e memorizzata nel dispositivo di memoria (11).
  15. 15. Apparecchiatura secondo una qualsiasi delle rivendicazioni da 2 a 14, in cui il dispositivo di memoria (11) contiene valori ammissibili di parametri di riconoscimento per l’identificazione di unità di prodotto agroalimentare e l’unità di elaborazione (10) è configurata per identificare la presenza di oggetti non compatibili con i valori ammissibili dei parametri di riconoscimento.
  16. 16. Apparecchiatura secondo una qualsiasi delle rivendicazioni da 2 a 15, in cui il contenitore (2) è una cassetta da raccolta impilabile e gli organi di collegamento (4) comprendono una cassetta impilabile uguale al contenitore (2).
  17. 17. Apparecchiatura secondo una qualsiasi delle rivendicazioni precedenti, in cui dispositivo rilevatore di immagini (14, 15) è configurato per acquisire un’immagine panoramica attorno al telaio (3) in risposta a un comando dell’unità di elaborazione (10) e l’unità di elaborazione (10) è configurata per richiedere l’acquisizione di un’immagine panoramica (IMGP) in risposta a un cambiamento di coordinate rilevato dal dispositivo di localizzazione satellitare (8).
  18. 18. Apparecchiatura secondo una qualsiasi delle rivendicazioni precedenti, comprendente un modulo di comunicazione wireless (12) configurato per comunicare con una stazione remota.
  19. 19. Sistema per la tracciabilità di prodotti agroalimentari, comprendente almeno un’apparecchiatura (1) secondo una qualsiasi delle rivendicazioni precedenti e una stazione remota comprendente una base di dati, in cui le unità di elaborazione (10) sono configurate per memorizzare nella base di dati le immagini acquisite dai dispositivi rilevatori di immagini con le rispettive le coordinate rilevate e i rispettivi marcatori temporali.
IT102018000021415A 2018-12-28 2018-12-28 Apparecchiatura di ausilio alla tracciabilita' di prodotti agroalimentari IT201800021415A1 (it)

Priority Applications (8)

Application Number Priority Date Filing Date Title
IT102018000021415A IT201800021415A1 (it) 2018-12-28 2018-12-28 Apparecchiatura di ausilio alla tracciabilita' di prodotti agroalimentari
CN201980087062.1A CN113474798B (zh) 2018-12-28 2019-12-27 用于帮助农业食品产品的可追溯性的设备
JP2021538129A JP7374197B2 (ja) 2018-12-28 2019-12-27 農作物のトレーサビリティを支援するための機器
US17/418,416 US20220067650A1 (en) 2018-12-28 2019-12-27 Equipment for aiding the traceability of agri-food products
EP19845719.4A EP3903259B1 (en) 2018-12-28 2019-12-27 Equipment for aiding the traceability of agri-food products
SG11202106882SA SG11202106882SA (en) 2018-12-28 2019-12-27 Equipment for aiding the traceability of agri-food products
PCT/IB2019/061404 WO2020136618A1 (en) 2018-12-28 2019-12-27 Equipment for aiding the traceability of agri-food products
IL284343A IL284343A (en) 2018-12-28 2021-06-23 Equipment to assist in tracking agricultural food products

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT102018000021415A IT201800021415A1 (it) 2018-12-28 2018-12-28 Apparecchiatura di ausilio alla tracciabilita' di prodotti agroalimentari

Publications (1)

Publication Number Publication Date
IT201800021415A1 true IT201800021415A1 (it) 2020-06-28

Family

ID=66166317

Family Applications (1)

Application Number Title Priority Date Filing Date
IT102018000021415A IT201800021415A1 (it) 2018-12-28 2018-12-28 Apparecchiatura di ausilio alla tracciabilita' di prodotti agroalimentari

Country Status (8)

Country Link
US (1) US20220067650A1 (it)
EP (1) EP3903259B1 (it)
JP (1) JP7374197B2 (it)
CN (1) CN113474798B (it)
IL (1) IL284343A (it)
IT (1) IT201800021415A1 (it)
SG (1) SG11202106882SA (it)
WO (1) WO2020136618A1 (it)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022123524A1 (en) * 2020-12-11 2022-06-16 Sisspre - Societa' Italiana Sistemi E Servizi Di Precisione S.R.L Sealed sensor assembly for an equipment for aiding traceability of agri-food products
CL2021000220A1 (es) * 2021-01-27 2021-07-02 Netfruit Spa Sistema de certificación y trazabilidad de productos perecederos
US20230153746A1 (en) * 2021-11-12 2023-05-18 Cisco Technology, Inc. Reliable observability in control towers based on side-channel queries

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013109913A1 (en) * 2012-01-20 2013-07-25 Medsentry, Inc. Medication storage device and method
WO2017093839A1 (en) * 2015-12-01 2017-06-08 Zumtobel Lighting Inc. Flexible surveillance system
CA2930625A1 (en) * 2016-05-24 2017-11-24 M&J Mobile Rentals Inc. A self-contained equipment renting system
US20180038805A1 (en) * 2015-03-13 2018-02-08 Conexbird Oy Arrangement, method, apparatus and software for inspecting a container

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8306871B2 (en) 2006-02-27 2012-11-06 Trace Produce, LLC Methods and systems for readily accessing commodity information
EP2374017B1 (en) * 2008-12-23 2016-04-13 Telespazio S.p.A. High-reliability product/activity tracking system
JP5206494B2 (ja) * 2009-02-27 2013-06-12 株式会社リコー 撮像装置、画像表示装置と、撮像方法及び画像表示方法並びに合焦領域枠の位置補正方法
CN201429862Y (zh) * 2009-06-29 2010-03-24 杭州汇农农业信息咨询服务有限公司 水产品质量安全全过程可追溯管理系统
US20130050069A1 (en) * 2011-08-23 2013-02-28 Sony Corporation, A Japanese Corporation Method and system for use in providing three dimensional user interface
CN102496071B (zh) * 2011-12-12 2015-04-15 九州海原科技(北京)有限公司 一种农业生产活动信息追溯系统
ITUB20152374A1 (it) * 2015-07-21 2017-01-21 Uniset S R L Apparato e procedimento perfezionato per la tracciabilita’ di prodotti agricoli dalla pianta ad un contenitore di raccolta e relativi mezzi
JP2019513315A (ja) * 2016-02-29 2019-05-23 ウルグス ソシエダード アノニマ 惑星規模解析のためのシステム
US10740855B2 (en) 2016-12-14 2020-08-11 Hand Held Products, Inc. Supply chain tracking of farm produce and crops
CN107169701A (zh) * 2017-04-30 2017-09-15 湖北经济学院 一种基于云计算的农产品流通追溯管理方法
CN108681843B (zh) * 2018-07-21 2021-12-31 深圳联合水产发展有限公司 一种食品质量检测二维码溯源系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013109913A1 (en) * 2012-01-20 2013-07-25 Medsentry, Inc. Medication storage device and method
US20180038805A1 (en) * 2015-03-13 2018-02-08 Conexbird Oy Arrangement, method, apparatus and software for inspecting a container
WO2017093839A1 (en) * 2015-12-01 2017-06-08 Zumtobel Lighting Inc. Flexible surveillance system
CA2930625A1 (en) * 2016-05-24 2017-11-24 M&J Mobile Rentals Inc. A self-contained equipment renting system

Also Published As

Publication number Publication date
SG11202106882SA (en) 2021-07-29
EP3903259A1 (en) 2021-11-03
CN113474798B (zh) 2024-04-05
EP3903259B1 (en) 2024-01-24
US20220067650A1 (en) 2022-03-03
WO2020136618A1 (en) 2020-07-02
JP2022515287A (ja) 2022-02-17
IL284343A (en) 2021-08-31
CN113474798A (zh) 2021-10-01
JP7374197B2 (ja) 2023-11-06
EP3903259C0 (en) 2024-01-24

Similar Documents

Publication Publication Date Title
EP3903259B1 (en) Equipment for aiding the traceability of agri-food products
AU2018353840B2 (en) Systems and methods for tracking goods carriers
EP3485759A1 (en) Electronic baggage tag
CN102959563A (zh) 利用特殊标签对密封箱内的物品进行验证的方法
CN202362789U (zh) 一种具备身份信息识别功能的安检系统
CN202887219U (zh) 危险品运输识别系统
CN105933416A (zh) 一种基于地面埋入式无线传感器网络系统及监控方法
CN106340130A (zh) 一种具有提醒功能的智能防伪售酒云系统
CN104599415A (zh) 集成有光纤传感器、声音传感器和图像监测器的安防装置
Du et al. A pothole detection method based on 3D point cloud segmentation
US20220261740A1 (en) Sensor assembly for equipment for aiding the traceability of agri-food products
KR102640445B1 (ko) 사람 모니터링 시스템
Proctor-Parker et al. Radio frequency identification (RFID) stock control and geo-location data system from a moving vehicle
CN202480231U (zh) 一种混凝土试块识别芯片植入装置
JP2009129269A (ja) 情報読取装置及び情報読取方法
US7692541B1 (en) Method and apparatus for detecting container breach via visual cues
EP4260025A1 (en) Sealed sensor assembly for an equipment for aiding traceability of agri-food products
Astafiev et al. Development of an algorithm for determining the movement of products between racks based on data from their radio frequency tags
EP2765546A1 (en) Method and apparatus for identifying an object
RU2798157C2 (ru) Система для осуществления наблюдения за людьми
CN206441302U (zh) 一种物联网安防系统
CN113010613A (zh) 一种检查食品、药品多维度智慧鉴定系统及方法
KR20210028028A (ko) 자켓관 이력관리 장치
Kim et al. A study on strengthening of logistics security and RFID
CN106447255A (zh) 基于物联网的蔬菜物流信息查询系统