IT201900015485A1 - Sistema di supporto per la gestione di una macchina per il trattamento di prodotti alimentari e procedimento corrispondente. - Google Patents

Sistema di supporto per la gestione di una macchina per il trattamento di prodotti alimentari e procedimento corrispondente. Download PDF

Info

Publication number
IT201900015485A1
IT201900015485A1 IT102019000015485A IT201900015485A IT201900015485A1 IT 201900015485 A1 IT201900015485 A1 IT 201900015485A1 IT 102019000015485 A IT102019000015485 A IT 102019000015485A IT 201900015485 A IT201900015485 A IT 201900015485A IT 201900015485 A1 IT201900015485 A1 IT 201900015485A1
Authority
IT
Italy
Prior art keywords
elements
machine
augmented reality
image
processing
Prior art date
Application number
IT102019000015485A
Other languages
English (en)
Inventor
Andrea Cocchi
Roberto Lazzarini
Original Assignee
Ali Group Srl Carpigiani
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ali Group Srl Carpigiani filed Critical Ali Group Srl Carpigiani
Priority to IT102019000015485A priority Critical patent/IT201900015485A1/it
Priority to US16/986,112 priority patent/US11163357B2/en
Priority to JP2020136116A priority patent/JP7555216B2/ja
Priority to EP20190821.7A priority patent/EP3789850A1/en
Priority to KR1020200110059A priority patent/KR20210028585A/ko
Priority to CN202010910740.4A priority patent/CN112438416A/zh
Publication of IT201900015485A1 publication Critical patent/IT201900015485A1/it

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/20Administration of product repair or maintenance
    • AHUMAN NECESSITIES
    • A23FOODS OR FOODSTUFFS; TREATMENT THEREOF, NOT COVERED BY OTHER CLASSES
    • A23GCOCOA; COCOA PRODUCTS, e.g. CHOCOLATE; SUBSTITUTES FOR COCOA OR COCOA PRODUCTS; CONFECTIONERY; CHEWING GUM; ICE-CREAM; PREPARATION THEREOF
    • A23G9/00Frozen sweets, e.g. ice confectionery, ice-cream; Mixtures therefor
    • A23G9/04Production of frozen sweets, e.g. ice-cream
    • A23G9/22Details, component parts or accessories of apparatus insofar as not peculiar to a single one of the preceding groups
    • A23G9/228Arrangement and mounting of control or safety devices
    • AHUMAN NECESSITIES
    • A23FOODS OR FOODSTUFFS; TREATMENT THEREOF, NOT COVERED BY OTHER CLASSES
    • A23PSHAPING OR WORKING OF FOODSTUFFS, NOT FULLY COVERED BY A SINGLE OTHER SUBCLASS
    • A23P30/00Shaping or working of foodstuffs characterised by the process or apparatus
    • AHUMAN NECESSITIES
    • A23FOODS OR FOODSTUFFS; TREATMENT THEREOF, NOT COVERED BY OTHER CLASSES
    • A23GCOCOA; COCOA PRODUCTS, e.g. CHOCOLATE; SUBSTITUTES FOR COCOA OR COCOA PRODUCTS; CONFECTIONERY; CHEWING GUM; ICE-CREAM; PREPARATION THEREOF
    • A23G9/00Frozen sweets, e.g. ice confectionery, ice-cream; Mixtures therefor
    • A23G9/04Production of frozen sweets, e.g. ice-cream
    • A23G9/22Details, component parts or accessories of apparatus insofar as not peculiar to a single one of the preceding groups
    • A23G9/224Agitators or scrapers
    • AHUMAN NECESSITIES
    • A23FOODS OR FOODSTUFFS; TREATMENT THEREOF, NOT COVERED BY OTHER CLASSES
    • A23GCOCOA; COCOA PRODUCTS, e.g. CHOCOLATE; SUBSTITUTES FOR COCOA OR COCOA PRODUCTS; CONFECTIONERY; CHEWING GUM; ICE-CREAM; PREPARATION THEREOF
    • A23G9/00Frozen sweets, e.g. ice confectionery, ice-cream; Mixtures therefor
    • A23G9/04Production of frozen sweets, e.g. ice-cream
    • A23G9/22Details, component parts or accessories of apparatus insofar as not peculiar to a single one of the preceding groups
    • A23G9/30Cleaning; Keeping clean; Sterilisation
    • A23G9/305Sterilisation of the edible materials
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/406Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
    • G05B19/4069Simulating machining process on screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0637Strategic management or analysis, e.g. setting a goal or target of an organisation; Planning actions based on goals; Analysis or evaluation of effectiveness of goals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F17/00Coin-freed apparatus for hiring articles; Coin-freed facilities or services
    • G07F17/0064Coin-freed apparatus for hiring articles; Coin-freed facilities or services for processing of food articles
    • G07F17/0071Food articles which need to be processed for dispensing in a cold condition, e.g. ice and ice cream
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F17/00Coin-freed apparatus for hiring articles; Coin-freed facilities or services
    • G07F17/0064Coin-freed apparatus for hiring articles; Coin-freed facilities or services for processing of food articles
    • G07F17/0078Food articles which need to be processed for dispensing in a hot or cooked condition, e.g. popcorn, nuts
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32014Augmented reality assists operator in maintenance, repair, programming, assembly, use of head mounted display with 2-D 3-D display and voice feedback, voice and gesture command
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Human Computer Interaction (AREA)
  • Food Science & Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Quality & Reliability (AREA)
  • Economics (AREA)
  • Polymers & Plastics (AREA)
  • Chemical & Material Sciences (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Operations Research (AREA)
  • Tourism & Hospitality (AREA)
  • Optics & Photonics (AREA)
  • Educational Administration (AREA)
  • Automation & Control Theory (AREA)
  • Manufacturing & Machinery (AREA)
  • Software Systems (AREA)
  • Game Theory and Decision Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Development Economics (AREA)
  • Processing Or Creating Images (AREA)
  • Confectionery (AREA)
  • User Interface Of Digital Computer (AREA)
  • General Preparation And Processing Of Foods (AREA)
  • Cold Air Circulating Systems And Constructional Details In Refrigerators (AREA)

Description

DESCRIZIONE
Annessa a domanda di brevetto per INVENZIONE INDUSTRIALE avente per titolo
“SISTEMA DI SUPPORTO PER LA GESTIONE DI UNA MACCHINA
PER IL TRATTAMENTO DI PRODOTTI ALIMENTARI E
PROCEDIMENTO CORRISPONDENTE”
La presente invenzione ha per oggetto un sistema di supporto per la gestione di una macchina per il trattamento di prodotti alimentari, per esempio una macchina per il trattamento di prodotti alimentari liquidi o semiliquidi e il corrispondente procedimento.
Nelle macchine per il trattamento di prodotti alimentari note, non è presente un sistema che permette un supporto immediato e dedicato al tecnico montatore/installatore/utente finale per le differenti attività che tali operatori del settore si trovano ad eseguire su tali macchine (e.g. montaggio della macchina, manutenzione della macchina, realizzazione di prodotti finiti mediante esecuzione di ricette, pulizia della macchina, etc.). Inoltre, anche laddove un tipo di supporto è contemplato, esso è generalmente in remoto (per esempio telefonico), con l’inconveniente che possono crearsi incomprensioni tra il personale adibito al supporto remoto e il personale operativo sulla macchina per le varie finalità.
É quindi una esigenza sentita nel settore in questione quella di poter ridurre i tempi connessi all’installazione, manutenzione e/o alla gestione delle macchine di produzione.
Inoltre, è desiderabile che tale installazione e manutenzione siano tali da poter ridurre ogni errore umano.
Quindi, una esigenza riscontrata da parte di un tecnico (installatore, montatore) di una macchina per il trattamento di prodotti alimentari è quella di ridurre tempi ed errori in fase di installazione della macchina. Inoltre, un’ulteriore esigenza riscontrata dall’utilizzatore (finale) della suddetta macchina è quella di ridurre tempi ed errori durante il lavaggio/pulizia e la manutenzione della macchina.
Inoltre, un’esigenza sentita dall’utilizzatore della macchina è quella di ricevere un adeguato ed efficace supporto per l’attuazione di ricette e per una gestione dei programmi di lavoro eseguibili sulla macchina, ad esempio a titolo non limitativo dei programmi di mantecazione e/o cottura, etc..
In generale, è inoltre doveroso evidenziare che vi è nel settore tecnico in questione una esigenza di ridurre tempi e costi di formazione e addestramento del personale tecnico (montatori, manutentori) e/o degli utilizzatori finali della macchina per le specifiche e differenti attività che questi sono chiamati a svolgere sulla macchina stessa.
Scopo della presente invenzione è pertanto quello di soddisfare le sopra citate esigenze attraverso la messa a disposizione di un sistema di supporto per la gestione di una macchina per il trattamento di prodotti alimentari (di qualsivoglia tipologia) oggetto della presente descrizione. Le caratteristiche tecniche del trovato, secondo i suddetti scopi, sono chiaramente riscontrabili dal contenuto delle rivendicazioni sotto riportate, ed i vantaggi dello stesso risulteranno maggiormente evidenti nella descrizione dettagliata che segue, fatta con riferimento ai disegni allegati, che ne rappresentano una forma di realizzazione puramente esemplificativa e non limitativa, in cui:
- la figura 1 illustra una vista schematica di una macchina oggetto dell’invenzione secondo una o più forme realizzative;
- la figura 2 illustra una vista schematica di un sistema secondo una o più forme realizzative, e
- le figure 3 a 8 illustrano aspetti e caratteristiche di una o più forme realizzative.
Conformemente ai disegni allegati, è stata indicata con 10 una macchina per il trattamento di prodotti alimentari oggetto dell’invenzione.
Per “trattamento” nella presente descrizione si intende una qualsiasi azione, per esempio termica, meccanica, chimica, di pulizia o di altra natura, svolta sul prodotto alimentare per operare una trasformazione. Per esempio, il trattamento può comprendere una pulizia di una superficie a contatto con un prodotto alimentare e la macchina 10 può comprendere una lavastoviglie.
La macchina 10 può essere una qualsiasi macchina per la produzione di prodotti alimentari.
Tuttavia, nel seguito, la macchina 10 verrà descritta per semplicità e facilità di comprensione e senza perdere di generalità come una macchina adatta a trattare (termicamente) prodotti liquidi o semiliquidi, per esempio atta a consentire di eseguire un trattamento termico, ad esempio una pastorizzazione, oppure la realizzazione di prodotto del tipo gelato.
La macchina 10 per il trattamento di prodotti alimentari liquidi o semiliquidi illustrata in figura 1 è preferibilmente atta a realizzare prodotti del settore della gelateria, pasticceria e similari (a titolo esemplificativo e non limitativo: gelato, gelato soft, granita, sorbetto, shake, yogurt, frozen dessert, creme fredde) e quindi può comprendere una macchina per gelato (soft o artigianale) provvista di un recipiente per il trattamento termico (pastorizzazione).
La macchina 10 per il trattamento di prodotti alimentari, per esempio liquidi o semiliquidi comprende:
- una camera di trattamento 100, configurata per ricevere un prodotto alimentare; come illustrato in figura 1 (la macchina 10 può comprendere preferibilmente un recipiente 102 di lavorazione di un prodotto liquido o semiliquido di base definente la camera di trattamento 100),
- almeno un attuatore 104, configurato per attuare un trattamento sul prodotto alimentare all’interno della camera di trattamento 100; come illustrato in figura 1, l’attuatore 104 può comprendere preferibilmente un agitatore (preferibilmente disposto internamente al recipiente 102) per miscelare il prodotto contenuto nella prima camera di trattamento 100; - un’unità di elaborazione e controllo 106; e
- un modulo di scambio dati 108, preferibilmente un ricetrasmettitore wireless, connesso (per esempio compreso o accoppiato) all’interno dell’unità di elaborazione e controllo 106.
Per “attuatore” nella presente descrizione si intende un qualsiasi elemento meccanico, elettrico, elettronico o di altra natura operativamente attivo sul prodotto alimentare per operare una trasformazione (di qualsiasi natura, per esempio meccanica, termica, chimica).
Secondo un aspetto, l’attuatore 104 può essere definito da uno o più elementi riscaldanti e/o raffreddanti.
Più in generale, la macchina 10 può essere una macchina per il trattamento di prodotti alimentari di qualsiasi tipologia, ad esempio un forno, un frigorifero, una impastatrice, una macchina del settore gelateria/pasticceria o altro.
In caso la macchina 10 per il trattamento di prodotti alimentari sia definita da un forno, la macchina 10 può comprendere uno o più dei seguenti elementi:
- uno o più elementi riscaldanti configurati per trattare termicamente il prodotto alimentare (secondo la presente descrizione definiti anche come “attuatori” attivi sul prodotto),
- uno o più comandi per regolare la temperatura di lavorazione del prodotto,
- uno o più comandi che permettono di regolare uno o più cicli termici sul prodotto,
- uno o più comandi per regolare una velocità e una tempistica di accensione/spegnimento di ventole,
- uno o più comandi per controllare e regolare l’umidità all’interno del forno.
Secondo un aspetto dell’invenzione, l’unità 106 di elaborazione e controllo è configurata per pilotare l’attuatore 104 (o attuatori, nel caso in cui la macchina 10 comprenda una pluralità di attuatori 104), per esempio controllandone l’accensione e lo spegnimento e/o modificandone lo stato operativo.
La macchina 10 per il trattamento di prodotti alimentari, come illustrata in figura 1, può comprendere inoltre un impianto 110 di trattamento termico, comprendente uno scambiatore 112 di calore associato al recipiente 102 di lavorazione.
Come illustrato nell’esempio non limitativo di figura 1, la macchina 1 può comprendere una motorizzazione connessa all’agitatore 104, per azionarlo in rotazione. Preferibilmente, detta motorizzazione è collegata all’ unità 106 di elaborazione e controllo.
Secondo un altro aspetto, l’impianto 110 termico comprende uno scambiatore 112 di calore associato al recipiente 102 di lavorazione, un ulteriore scambiatore 114 di calore, un compressore 116, ed un organo di riduzione della pressione 118. Si osservi che detto scambiatore 112 di calore, ulteriore scambiatore 114 di calore, compressore 116, ed organo di riduzione della pressione 118 definiscono un circuito contenente un fluido termovettore.
In altre parole, l’impianto 110 termico è un impianto del tipo termodinamico (atto a funzionare secondo un ciclo termodinamico impiegante un fluido termovettore).
Secondo un altro aspetto, la macchina 10 comprende una interfaccia 120 utente comprendente almeno un comando (preferibilmente una pluralità di comandi) attivabile dall’utente e collegata a detta unità 106 di elaborazione e controllo. Preferibilmente, l’interfaccia 120 comprende comandi e/o pulsanti di attivazione e selezione attivabili da un utente.
Secondo ancora un altro aspetto, la macchina 10 comprende un erogatore 122, collegato al recipiente 100 di lavorazione di un prodotto liquido o semiliquido di base per consentire di estrarne il prodotto dal recipiente 100. Detto erogatore 122 comprende, preferibilmente, una leva, attivabile dall’utente per consentire l’erogazione del prodotto trattato.
La figura 2 mostra un esempio non limitativo di un sistema 1 di supporto per la gestione di una macchina 10 per il trattamento di prodotti alimentari oggetto della presente invenzione. Come illustrato in figura 2, il sistema comprende una macchina 10, per esempio del tipo precedentemente descritto ovvero comprendente la camera di trattamento 100, l’attuatore 104 e il modulo di scambio dati 108.
Il sistema 1 di supporto comprende inoltre un dispositivo visore 20 per la realtà aumentata, cioè un dispositivo attraverso il quale l’utente può provare un arricchimento della propria percezione sensoriale mediante informazioni multimediali (manipolate e convogliate elettronicamente) che si sovrappongono a quanto percepito dagli occhi.
Il dispositivo visore 20 comprende:
- almeno una telecamera 200, configurata per acquisire almeno una prima immagine IM1,
- almeno un display 202, configurato per mostrare almeno una seconda immagine IM2, e
- un modulo di scambio dati 204, connettibile (ed analogo) al modulo di scambio dati 108 della macchina 10, configurato per trasmettere la prima immagine IM1 e ricevere la seconda immagine IM2.
In una o più forme di attuazione la telecamera 200 può comprendere una fotocamera, per esempio la fotocamera di uno smartphone.
In una o più forme di attuazione, il dispositivo visore 20 può comprendere un dispositivo indossabile sulla testa di un utente o head mounted displays (HMD), per esempio occhiali a realtà aumentata, e/o dispositivi portatili o handheld displays, per esempio tablet, PC o smartphone, e/o dispositivi spaziali o spatial displays, per esempio videoproiettori, ologrammi, tag radiofrequenza. Nel seguito, per semplicità e facilità di comprensione, si farà riferimento a un visore 20 del tipo indossabile sulla testa di un utente, senza tuttavia perdere di generalità.
L’unità 106 di elaborazione e controllo è connessa a (per esempio accoppiata a o comprendente) il modulo di scambio dati 108.
Come verrà chiarito meglio nel seguito, quando i moduli di scambio dati 108, 204 sono connessi, l’unità di elaborazione e controllo 106 è configurata per:
- ricevere dal dispositivo visore 20 la prima immagine acquisita IM1 tramite il modulo di scambio dati 108,
- identificare una pluralità di elementi reali O1, O2, O3 all’interno della prima immagine IM1, dove gli elementi reali O1, O2, O3 possono essere indicativi di parti o componenti della macchina 10,
- opzionalmente associare ad uno o più elementi reali O1-O3 della pluralità di elementi reali O1-O3 uno o più elementi G1-G4 uno o più elementi di realtà aumentata (G1-G4).
Con l’espressione “elemento di realtà aumentata” si intende un qualsiasi elemento grafico (anche testuale) e/o sonoro che viene generato sulla base di informazioni presenti nella, o derivabili dalla, prima immagine IM1 (ad esempio sulla base di uno o più elementi reali O1-O3 identificati nella prima immagine IM1).
Opzionalmente, l’unità di elaborazione e controllo 106 è configurata per: - generare una seconda immagine IM2,
- incorporare uno o più elementi di realtà aumentata di tipo grafico G1-G5 nella seconda immagine IM2, e
- trasmettere al dispositivo visore 20, tramite il modulo di scambio dati 204 del dispositivo visore 20, la seconda immagine IM2 (contenente gli elementi di realtà aumentata).
Opzionalmente, il dispositivo visore 20 può comprendere mezzi di riproduzione sonora e l’unità di elaborazione e controllo 106 è opzionalmente configurata per associare ad uno o più elementi reali O1-O3 della pluralità di elementi reali O1-O3 uno o più elementi di realtà aumentata di tipo sonori.
In questo modo, il dispositivo visore può rendere fruibili all’operatore (tecnico del montaggio o manutenzione, utente finale della macchina, etc.) indicazioni grafiche e/o indicazioni sonore a supporto delle differenti attività (e.g. montaggio, manutenzione, preparazione dei prodotti ed esecuzione delle ricette, pulizia, etc.) che vengono eseguite sulla macchina stessa.
Gli elementi di realtà aumentata G1-G5 possono essere di diversa natura, per esempio possono comprendere elementi testuali, elementi geometrici, elementi grafici di collegamento (per es. frecce) e/o una ricostruzione virtuale, statica e/o in movimento, dell’oggetto reale identificato nell’una o più prime regioni.
Secondo un aspetto dell’invenzione, l’unità 106 di elaborazione e controllo può svolgere contemporaneamente la funzione di unità di elaborazione e controllo della macchina 10 e la funzione di computer per la gestione del dispositivo visore 20 della realtà aumentata. L’unità 106 di elaborazione e controllo può comprendere la scheda di controllo della macchina 10. In questo modo, la macchina 10 può comprendere e gestire contenuti di realtà aumentata.
In una o più forme di realizzazione, la macchina 10 per il trattamento di prodotti alimentari può comprendere una memoria 126, connessa a (per esempio accoppiata a o inserita all’interno di) l’unità 106 di elaborazione e controllo, in cui sono memorizzati una pluralità di elementi di realtà aumentata G1-G5 relativi al funzionamento e/o all’installazione e/o alla manutenzione della macchina per il trattamento di prodotti alimentari.
Secondo una o più forme di realizzazione, la memoria 126 può comprendere una pluralità di informazioni geometriche / dimensionali / di colore di componenti della macchina 10 e/o oggetti (quali un arto superiore di un utente) che l’unità 106 di elaborazione è configurata per identificare. In questo modo, la fase di identificare una pluralità di elementi reali O1, O2, O3 all’interno della prima immagine IM1 può comprendere comparare la prima immagine IM1 acquisita con le informazioni memorizzate all’interno della memoria 126, in maniera nota all’esperto del settore.
Secondo una o più forme di realizzazione, la memoria 126 può comprendere una pluralità di immagini indicative di componenti della macchina 10 e/o altri oggetti (quali un arto superiore di un utente) che l’unità 106 di elaborazione è configurata per identificare. In questo modo, la fase di identificare una pluralità di elementi reali O1, O2, O3 all’interno della prima immagine IM1 può comprendere comparare la prima immagine IM1 acquisita alle immagini memorizzate all’interno della memoria 126, in maniera nota all’esperto del settore.
Secondo una o più forme di realizzazione, la memoria 126 può comprendere informazioni relative al ciclo di vita e/o storico degli eventi della macchina 10 e l’unità 106 di elaborazione e controllo può essere configurata per gestire detto ciclo di vita e/o detto storico eventi.
Secondo un aspetto dell’invenzione, la telecamera 200 può essere disposta sul dispositivo visore 20 in modo tale da acquisire la prima immagine IM1 che copre il campo visivo dell’utente. In altre parole, il campo visivo dell’utente si sovrappone almeno parzialmente all’almeno una telecamera 200, come si può vedere in figura 2, dove le linee tratteggiate mostrano quello che vedono gli occhi dell’utente e quanto viene catturato sul piano di immagine da parte della telecamera 200.
Le figure 3 a 6 sono esemplificative di aspetti della presente invenzione relativi al dispositivo visore 20 e all’unità di elaborazione e controllo 106. In particolare, la figura 3 mostra un esempio non limitativo della prima immagine IM1 acquisita dal dispositivo visore 20, le figure 4 e 5 mostrano esempi non limitativi della seconda immagine IM2 generata dall’unità di controllo 106 della macchina 10 e la figura 6 mostra un esempio non limitativo di quanto è visibile attraverso il display 202 da parte di un utente che indossa il dispositivo visore 20 per la realtà aumentata, in uso.
Facendo riferimento alle figure 2 e 3, un utente, indossando il dispositivo visore 20 e rivolgendo il proprio sguardo verso la macchina 10, può permettere l’acquisizione dell’immagine 10’ della macchina 10, o di una porzione di essa, da parte della telecamera 200. La prima immagine IM1 può essere elaborata dall’unità 106 di elaborazione e controllo della macchina 10 e una pluralità di elementi reali O1, O2, O3 può essere identificata nella prima immagine IM1. Ogni elemento reale Oi della pluralità di elementi reali O1, O2, O3 può delimitare una corrispondente prima regione Ri nella prima immagine IM1.
In una o più forme realizzative, la prima immagine IM1 è composta da una prima matrice di pixel e le prime regioni R1-R3 comprendono ognuna una pluralità di pixel della prima matrice di pixel.
In una o più forme di realizzazione, la seconda immagine IM2 è composta da una seconda matrice di pixel, con i pixel della seconda matrice di pixel che hanno una corrispondenza predeterminata (per esempio biunivoca) sui pixel della prima matrice di pixel. In questo modo, è possibile associare alle prime regioni R1-R3 nella prima matrice di pixel seconde regioni I1, I2 e ogni prima regione R1-R3 della prima matrice di pixel può corrispondere a una rispettiva seconda regione I1-I3 della seconda matrice di pixel.
Secondo un aspetto della presente invenzione, l’uno o più elementi di realtà aumentata di tipo grafico G1-G4 possono pertanto trovarsi, nella seconda immagine IM2, almeno parzialmente in corrispondenza delle seconde regioni I1-I3; per esempio gli elementi grafici di realtà aumentata G1 e G3 possono comprendere elementi grafici di realtà aumentata di collegamento (per es. linee o frecce) che collegano rispettivamente le seconde regioni I1 e I2 agli elementi grafici di realtà aumentata G2 e G4. In altre parole, gli elementi grafici di realtà aumentata G1-G4 possono sovrapporsi, quando proiettati sul display, sull’immagine degli oggetti reali O1-O3 e della macchina 10 vista dagli occhi dell’operatore attraverso il dispositivo visore 20 nella posizione ottimale.
In una o più forme realizzative, una volta identificati gli elementi reali O1, O2, O3, è possibile associare ad essi uno o più elementi grafici di realtà aumentata G1, G2, G3, G4. Nell’esempio non limitativo illustrato nelle figure 3-5, all’elemento reale O1, delimitato dalla regione R1, sono associati gli elementi grafici di realtà aumentata G1, G2, all’elemento reale O2, delimitato dalla regione R2, sono associati gli elementi grafici di realtà aumentata G3, G4 e all’elemento reale R3 non è associato alcun elemento grafico.
Gli elementi grafici di realtà aumentata G1-G4 possono essere configurati per aumentare l’esperienza sensoriale dell’utente e facilitarlo nelle azioni che deve svolgere sulla macchina 10, per esempio l’installazione, manutenzione e/o utilizzo della stessa.
Secondo un aspetto dell’invenzione, la macchina 1 per il trattamento di prodotti alimentari può comprendere almeno un sensore 124, come illustrato in figura 1, configurato per rilevare un parametro di funzionamento e/o stato della macchina 1, per esempio una temperatura e/o una pressione all’interno della camera di trattamento 100 e/o una quantità di prodotto alimentare immessa in, presente dentro o derivata da detta camera di trattamento 100.
L’unità 106 di elaborazione e controllo, operativamente collegata all’almeno un sensore 124 può dunque essere configurata per:
- ricevere il parametro di funzionamento e/o stato,
- generare un elemento grafico G5 che può comprendere almeno un elemento testuale indicativo del parametro rilevato, e
- incorporare l’elemento grafico G5 generato nella seconda immagine IM2. Come illustrato nella figura 4, l’elemento grafico G5 può essere incorporato in una porzione periferica della seconda immagine IM2.
Come illustrato nella figura 4, l’elemento grafico G5 può comprendere un’indicazione del valore rilevato dal sensore 124.
In aggiunta o in alternativa, come illustrato in figura 5, l’unità 106 di elaborazione e controllo può essere configurata per:
- verificare se il parametro di funzionamento e/o stato rilevato dall’almeno un sensore 124 è all’interno di un intervallo predeterminato indicativo di un corretto funzionamento della macchina,
- se il parametro di funzionamento e/o stato è al di fuori di detto intervallo predeterminato, generare un elemento grafico G5 definente un messaggio di allarme, e
- incorporare l’elemento grafico G5 generato nella seconda immagine IM2. In una o più forme realizzative, l’unità 106 di elaborazione e controllo può essere configurata per trasmettere la seconda immagine IM2 al dispositivo visore 20 tramite i moduli di scambio dati 108, 204. Come illustrato in figura 6, il dispositivo visore 20 può essere configurato per visualizzare la seconda immagine IM2.
Secondo un aspetto dell’invenzione, il display 202 del dispositivo visore 20 può comprendere una lente permeabile alla luce, per esempio trasparente, e può essere configurato per visualizzare la seconda immagine IM2 in sovrapposizione al campo visivo dell’utente. Per esempio, l’immagine può essere proiettata sulla lente tramite un proiettore. In altre parole, il display 202 può essere visto come la lente di un occhiale e l’utente è in grado di vedere gli elementi grafici di realtà aumentata G1-G5 contemporaneamente e sovrapposti agli oggetti reali, per esempio la macchina 10.
Resta anche definito un procedimento per il supporto alla gestione (per esempio installazione, manutenzione, utilizzo) di una macchina 10 per il trattamento di prodotti alimentari. Il procedimento comprende:
- fornire un sistema 1 comprendente un dispositivo visore 20 per la realtà aumentata ed una macchina 10 per il trattamento di prodotti alimentari come descritti precedentemente,
- acquisire almeno una prima immagine IM1 tramite la telecamera 200 del dispositivo visore 20,
- identificare uno o più elementi reali O1-O3 all’interno dell’almeno una prima immagine IM1,
- incorporare uno o più elementi grafici di realtà aumentata G1-G5 in detta almeno una seconda immagine IM2, come illustrato per esempio in figura 4, e
- mostrare almeno una seconda immagine IM2 tramite l’almeno un display 202 del dispositivo visore 20.
Secondo un aspetto dell’invenzione, l’uno o più elementi reali O1-O4 identificati nell’immagine IM1 possono essere indicativi di una posizione di uno o più componenti della macchina all’interno dell’almeno una prima immagine, come per esempio l’erogatore 122, l’interfaccia utente 120 o uno sportello per l’accesso al meccanismo della macchina 10 (si veda la figura 8). Il procedimento può comprendere associare a detti uno o più elementi reali O1-O3 identificati uno o più elementi grafici di realtà aumentata G1-G4, come illustrato per esempio in figura 4.
Secondo un aspetto dell’invenzione, il procedimento reso disponibile dalla presente descrizione consente di guidare l’utente in una successione di fasi per la realizzazione di un prodotto alimentare. Come esempio non limitativo, una macchina per il trattamento di prodotti alimentari può essere definita da un forno e il procedimento può supportare un utente lungo la preparazione di un prodotto dolciario. Per esempio, il procedimento può facilitare le operazioni di: scelta dei prodotti di base, calcolo della quantità dei prodotti di base, miscela dei prodotti di base, trattamento della miscela nella macchina stessa.
In una o più forme di realizzazione, il procedimento può comprendere le fasi di:
- fornire almeno un sensore 124, per esempio un sensore di temperatura, pressione e/o un sensore che rileva la quantità di prodotto presente, inserita o derivata dal trattamento nella camera di trattamento 100,
- rilevare, tramite l’almeno un sensore 124, un parametro di funzionamento e/o stato della macchina 10 per il trattamento di prodotti alimentari, per esempio una temperatura, una pressione e/o una quantità di prodotto, - generare un elemento grafico G5 comprendente almeno un elemento testuale indicativo del parametro operativo rilevato, e
- incorporare l’elemento grafico G5 generato nell’almeno una seconda immagine IM2, come illustrato per esempio in figura 4 e 5.
Secondo un aspetto dell’invenzione, il procedimento può comprendere le fasi di:
- verificare se il parametro di funzionamento e/o stato rilevato dall’almeno un sensore 124 è all’interno di un intervallo predeterminato indicativo di un corretto funzionamento della macchina 10,
- se il parametro di funzionamento e/o stato è al di fuori di detto intervallo predeterminato, per esempio una temperatura che raggiunge un valore potenzialmente critico e/o una quantità di prodotto che scende sotto a un certo livello, generare un elemento grafico G5 comprendono almeno un messaggio di allarme, come illustrato per esempio in figura 5, e
- incorporare l’elemento grafico G5 generato in detta almeno una seconda immagine IM2.
La presente invenzione può avere numerose applicazioni, per esempio può essere utilizzata per facilitare l’interazione tra un utente e la macchina, per esempio svolgendo la funzione di manuale utente (come verrà meglio chiarito nel seguito).
Secondo un aspetto dell’invenzione, come illustrato in figura 7, il procedimento può comprendere:
- fornire una memoria 126 in cui sono memorizzati una pluralità di elementi di realtà aumentata G1-G5 relativi al funzionamento e/o l’installazione e/o la manutenzione della macchina 10 per il trattamento di prodotti alimentari, - visualizzare sul display 202 del dispositivo visore 20 un menu G6, - quando una opzione del menu G6 è scelta, estrarre da detta memoria 126 un insieme di elementi di realtà aumentata G1-G5 associato a detta opzione, e
- visualizzare uno o più di detti elementi di realtà aumentata G1-G5 dell’insieme.
Secondo un aspetto dell’invenzione, la scelta dell’opzione sul menu G6 può avvenire attraverso il riconoscimento da parte dell’unità 106 di elaborazione e controllo di un input da parte dell’utente. In una o più forme di attuazione, l’input può derivare da un dispositivo di input, come per esempio guanti o braccialetti per la realtà aumentata oppure uno smartphone utilizzato come dispositivo di puntamento. che possono essere accoppiati al dispositivo visore 20 e all’unità 106 di elaborazione e controllo. In aggiunta o in alternativa, come illustrato nell’esempio non limitativo di figura 8, l’input può derivare dal riconoscimento di una porzione di almeno un arto superiore (e.g. uno o più dita, mano, etc.) O4/R4 di un utente in maniera non dissimile da quanto effettuato per il riconoscimento della pluralità di elementi reali O1-O4. In base alla posizione R4 della porzione di almeno un arto superiore O4 sulla prima immagine IM1, è possibile capire quale opzione viene scelta nel menu G6, in quanto l’opzione scelta sarà posizionata (si vedano le seconde regioni I6a, I6b, I6c nella figura 8) nella seconda immagine IM2 in corrispondenza di una seconda regione I4 associata alla posizione R4 della porzione di almeno un arto superiore O4. Nel caso non limitativo di figura 8, l’opzione scelta è quella in corrispondenza della seconda regione I6c in quanto parzialmente sovrapposta alla regione I4.
Secondo un aspetto dell’invenzione, il procedimento può comprendere le fasi di:
- visualizzare un menu G6 comprendente un’opzione di visualizzazione del corretto funzionamento della macchina 10 e/o un’opzione di manutenzione della macchina 10,
- quando una opzione è scelta, estrarre da detta memoria 126 un insieme di elementi di realtà aumentata G1-G5 associato a detta opzione, e
- incorporare uno o più elementi di realtà aumentata G1-G5 dell’insieme di elementi grafici di realtà aumentata estratti in detta almeno una seconda immagine IM2.
In aggiunta o in alternativa, come illustrato in figura 8, le possibili opzioni possono essere presentate in forma diversa da un menu. Infatti, per ogni elemento reale Oi riconosciuto dalla macchina 10, quale l’interfaccia 120, l’erogatore 122 o uno sportello 128 nell’esempio non limitativo di figura 8, è possibile accedere a contenuti dedicati.
Con specifico riferimento alla figura 8, l’unità di elaborazione e controllo 106 può essere dunque configurata per:
- identificare una pluralità di oggetti reali quali, a titolo esemplificativo, l’interfaccia 120, l’erogatore 122 e lo sportello 128,
- generare una pluralità di elementi testuali indicativi degli oggetti reali riconosciuti e una pluralità di elementi grafici di realtà aumentata di collegamento (e.g. linee o frecce) che connettono detti elementi testuali agli elementi reali, e
- incorporare la pluralità di elementi testuali e la pluralità di elementi grafici di realtà aumentata di collegamento (e.g. linee o frecce) alla seconda immagine IM2.
Secondo una o più forme realizzative, il sistema di supporto per la gestione della macchina 10 può permettere:
- l’installazione, la manutenzione, la gestione e/o la diagnosi della macchina da parte di un tecnico,
- il supporto al montaggio, ad esempio può comprendere le prime operazioni hardware e software che un tecnico deve compiere a un primo avvio della macchina,
- il supporto a un utente finale nell'utilizzo della macchina, per esempio facilitando l’interazione del cliente con la macchina nella predisposizione delle ricette oppure nella pulizia (per esempio il dispositivo visore 20 può guidare passo dopo passo il cliente e comprendere un manuale istruzioni). In questo ultimo caso, cioè nel caso in cui l’unità di elaborazione e controllo 106 fornisca supporto all’utente finale nell’utilizzo della macchina, l’utente viene guidato nell’esecuzione delle ricette: ciò vantaggiosamente evita errori e consente di implementare una procedura passo passo che guida l’utente nell’utilizzo della macchina fino alla preparazione del prodotto finito.
Secondo un aspetto della presente invenzione, le ricette possono contenere quantità di prodotto, una descrizione dettagliata del ciclo tempotemperatura e le impostazioni della macchina.
In una o più forme di realizzazione, gli elementi (preferibilmente grafici) G1-G5 di realtà aumentata possono consentire di impostare tempi e/o temperature e/o di visualizzare le impostazioni in uso sulla macchina.
Per esempio, il menu G6 può comprendere una o più ricette. Nel caso in cui la macchina 10 comprenda una macchina per il trattamento di prodotti liquidi o semiliquidi nel settore della pasticceria e gelateria, il menu G6 può comprendere opzioni per guidare l’utente nella realizzazione di gelato, cioccolato, granite ecc. Nel momento in cui l’operatore sceglie un’opzione, la macchina 10 può visualizzare sul display 202 del dispositivo visore 20 una o più indicazioni, sotto forma di elementi (preferibilmente ma non necessariamente grafici) G1-G5 di realtà aumentata che possono comprendere per esempio le azioni che deve intraprendere l’utente, la quantità di prodotto che deve essere inserita.
Per esempio, queste informazioni possono essere aggiornate in tempo reale e possono adattarsi alle azioni intraprese dall’utente.
Allo stesso modo, il menu G6 può comprendere opzioni per facilitare l’utente nella pulizia della macchina 10. Una volta scelta una parte della macchina 10 che si desidera pulire, la macchina 10, attraverso il visore 20, può mostrare:
- messaggi di attenzione, in caso alcuni componenti della macchina 10, per esempio l’agitatore 19, corrano il rischio di danneggiarsi durante la pulizia,
- un esploso dei componenti da pulire, per facilitare l’utente nell’azione di smontare e rimontare i componenti,
- indicazioni su utensili necessari per lo svolgimento delle operazioni descritte, per esempio quale tipo di cacciavite è più adatto a quale vite in funzione del componente della macchina che deve essere pulito.
Anche in questo caso queste informazioni possono essere aggiornate in tempo reale e possono adattarsi alle azioni intraprese dall’utente.
Vantaggiosamente, in caso di un qualsiasi problema, è possibile connettersi in tempo reale con il service ovvero con l’assistenza remota ed essere guidati nella risoluzione di problemi interagendo con la macchina. Vantaggiosamente, il sistema ed il procedimento proposto consentono di ridurre i tempi connessi all’installazione, manutenzione e/o alla gestione delle macchine di produzione.
Inoltre, il sistema ed il procedimento proposto consentono di ridurre le probabilità di un errore umano connesso all’installazione, manutenzione e/o alla gestione delle macchine di produzione poiché il tecnico, attraverso il dispositivo visore, è assistito e guidato in tempo reale e “per passi” nell’espletamento delle suddette attività.
Infine, il sistema ed il procedimento proposto permettono una manutenzione o una diagnosi della macchina più veloce ed efficiente per il tecnico della macchina, per esempio riducendo i costi e le tempistiche di addestramento dei tecnici del settore.
Con tale sistema ed il procedimento proposto, inoltre, è possibile impiegare personale con formazione minore in quanto il dispositivo visore assiste l’operatore durante l’espletamento delle attività, sostituendo di fatto l’addestramento specifico e il know-how relativo alla specifica macchina. Inoltre, vantaggiosamente, il sistema ed il metodo proposti consentono un efficace supporto per l’implementazione di ricette finalizzate a realizzare il prodotto finito, il che agevola gli utenti finali nella realizzazione del prodotto finito secondo la procedura definita da esperti internazionali (chef, cuochi ed esperti internazionali).

Claims (25)

  1. RIVENDICAZIONI 1. Sistema (1) di supporto per la gestione di una macchina (10) per il trattamento di prodotti alimentari, il sistema (1) comprendente: - un dispositivo visore (20) per la realtà aumentata comprendente: almeno una telecamera (200) configurata per acquisire almeno una prima immagine (IM1), un primo modulo di scambio dati (204) configurato per trasmettere detta almeno una prima immagine (IM1) e ricevere elementi (G1-G6) di realtà aumentata; - una macchina (10) per il trattamento di prodotti alimentari comprendente una camera di trattamento (100), configurata per ricevere un prodotto alimentare, un attuatore (104), configurato per attuare un trattamento sul prodotto alimentare all’interno della camera di trattamento, e un secondo modulo di scambio dati (108) connettibile al primo modulo di scambio dati (204); la macchina (10) per il trattamento di prodotti alimentari comprendendo inoltre un’unità (106) di elaborazione e controllo connessa al secondo modulo di scambio dati (108), in cui detta unità (106) di elaborazione e controllo è configurata per: - ricevere da detto dispositivo visore (20), tramite il secondo modulo di scambio dati (108), detta almeno una prima immagine (IM1) acquisita, - identificare una pluralità di elementi reali (O1-O4) all’interno dell’almeno una prima immagine (IM1), - generare uno o più elementi (G1-G6) di realtà aumentata sulla base di informazioni contenute in, o estratte da, detta almeno una prima immagine (IM1) acquisita.
  2. 2. Sistema secondo la precedente rivendicazione, in cui il dispositivo visore (20) comprende almeno un display (202) configurato per mostrare almeno una seconda immagine (IM2).
  3. 3. Sistema secondo una qualsiasi delle precedenti rivendicazioni 1 o 2, in cui detti elementi (G1-G6) di realtà aumentata sono definiti da suoni e/o da elementi di tipo grafico.
  4. 4. Sistema secondo una qualsiasi delle rivendicazioni precedenti, in cui detti uno o più elementi di tipo grafico (G1-G6) di realtà aumentata comprendono elementi testuali, elementi geometrici, elementi grafici di collegamento e/o una ricostruzione virtuale, statica e/o in movimento, dell’oggetto reale (O1-O4).
  5. 5. Sistema secondo la precedente rivendicazione e la rivendicazione 2, in cui detta unità (106) di elaborazione e controllo è configurata per: - generare una seconda immagine (IM2), - incorporare uno o più elementi di realtà aumentata (G1-G6) di tipo grafico in detta almeno una seconda immagine (IM2), e - trasmettere a detto dispositivo visore (20), tramite il secondo modulo di scambio dati (108), detta almeno una seconda immagine (IM2).
  6. 6. Sistema secondo una qualsiasi delle precedenti rivendicazioni, in cui detti uno o più elementi reali (O1-O3) all’interno dell’almeno una prima immagine (IM1) sono indicativi di parti o componenti della macchina (10).
  7. 7. Sistema secondo una qualsiasi delle precedenti rivendicazioni, in cui detta unità (106) di elaborazione e controllo è configurata per associare a uno o più elementi reali (O1-O3) identificati uno o più elementi di realtà aumentata (G1-G4).
  8. 8. Sistema secondo una qualsiasi delle rivendicazioni precedenti e la rivendicazione 2, in cui: - detta almeno una prima immagine (IM1) è composta da una prima matrice di pixel, - detta almeno una seconda immagine (IM2) è composta da una seconda matrice di pixel, i pixel della seconda matrice di pixel avendo una corrispondenza predeterminata sui pixel della prima matrice di pixel, - l’uno o più elementi reali (O1-O4) si trovano in una prima regione (R1-R4) della prima matrice di pixel, - detta prima regione (R1-R4) della prima matrice di pixel corrisponde a una seconda regione (I1-I4) della seconda matrice di pixel.
  9. 9. Sistema secondo una qualsiasi delle rivendicazioni precedenti, in cui detta macchina (10) per il trattamento di prodotti alimentari comprende una memoria (126) in cui sono memorizzati: - una pluralità di elementi (G1-G6) di realtà aumentata relativi al funzionamento e/o l’installazione e/o la manutenzione della macchina (10) per il trattamento di prodotti alimentari, e/o - una pluralità di informazioni geometriche / dimensionali / di colore di componenti della macchina (10), e/o oggetti che l’unità (106) è configurata per identificare.
  10. 10. Sistema secondo una qualsiasi delle rivendicazioni precedenti, in cui detta macchina (10) per il trattamento di prodotti alimentari è definita da una macchina per il trattamento di prodotti alimentari liquidi o semiliquidi, in cui detta camera di trattamento (100) comprende un recipiente di lavorazione di un prodotto liquido o semiliquido di base e in cui detto attuatore (104) comprende un agitatore per miscelare il prodotto di detto recipiente di lavorazione, la macchina (10) per il trattamento di prodotti alimentari comprendendo inoltre un impianto (110) di trattamento termico avente uno scambiatore (112, 114) di calore associato a detto recipiente (100) di lavorazione.
  11. 11. Sistema secondo una qualsiasi delle rivendicazioni precedenti, in cui detta macchina (10) per il trattamento di prodotti alimentari comprende almeno un sensore (124), collegato a detta unità (106) di elaborazione e controllo e configurato per rilevare un parametro di funzionamento e/o stato di detta macchina (10), e in cui detta unità (106) di elaborazione e controllo è configurata per: - ricevere detto parametro di funzionamento e/o stato, - generare un elemento (G5) di realtà aumentata indicativo del parametro rilevato.
  12. 12. Sistema secondo la precedente rivendicazione e la rivendicazione 5, in cui detta unità (106) di elaborazione e controllo è configurata per incorporare l’elemento (G5) di realtà aumentata generato ed aumentata indicativo del parametro rilevato in detta almeno una seconda immagine (IM2).
  13. 13. Sistema secondo una qualsiasi delle rivendicazioni precedenti, in cui detta unità (106) di elaborazione e controllo è configurata per pilotare detto attuatore (104).
  14. 14. Sistema secondo una qualsiasi delle rivendicazioni precedenti, in cui detta macchina (10) per il trattamento di prodotti alimentari è definita da un forno, in cui detto attuatore (104) comprende uno o più elementi riscaldanti per trattare termicamente i prodotti alimentari.
  15. 15. Procedimento per il supporto alla gestione di una macchina (10) per il trattamento di prodotti alimentari, il procedimento comprendente: - fornire un sistema (1) comprendente un dispositivo visore (20) per la realtà aumentata e una macchina (10) per il trattamento di prodotti alimentari secondo una qualsiasi delle rivendicazioni precedenti, - acquisire almeno una prima immagine (IM1) tramite detta telecamera (200), - identificare uno o più elementi reali (O1-O4) all’interno dell’almeno una prima immagine (IM1), - generare uno o più elementi (G1-G6) di realtà aumentata sulla base di informazioni presenti in, o derivate da, detta prima immagine (IM1).
  16. 16. Procedimento secondo la precedente rivendicazione, comprendente ulteriormente le fasi di: - incorporare uno o più elementi di realtà aumentata di tipo grafico (G1-G6) in detta almeno una seconda immagine (IM2), e - mostrare almeno una seconda immagine (IM2) tramite detto almeno un display (202) del dispositivo visore (20).
  17. 17. Procedimento secondo una qualsiasi delle rivendicazioni 15 o 16, in cui detti uno o più elementi reali (O1-O4) identificati sono indicativi di una posizione di uno o più oggetti all’interno dell’almeno una prima immagine (IM1).
  18. 18. Procedimento secondo una qualsiasi delle rivendicazioni da 15 a 17, comprendente associare a detti uno o più elementi reali (O1-O4) identificati detti uno o più elementi (G1-G4) di realtà aumentata.
  19. 19. Procedimento secondo una qualsiasi delle rivendicazioni da 15 a 18, comprendente: - fornire una memoria (126) in cui sono memorizzati una pluralità di elementi (G1-G6) di realtà aumentata relativi al funzionamento e/o l’installazione e/o la manutenzione della macchina (10) per il trattamento di prodotti alimentari, - visualizzare sul display (202) del dispositivo visore un menu (G6), comprendente un’opzione di visualizzazione del corretto funzionamento della macchina (10) e/o un’opzione di manutenzione della macchina (10), - quando una opzione del menu (G6) è scelta, estrarre da detta memoria (126) un insieme di elementi (G1-G6) di realtà aumentata associato a detta opzione, e - visualizzare uno o più di detti elementi (G1-G6) di realtà aumentata dell’insieme.
  20. 20. Procedimento secondo una qualsiasi delle rivendicazioni da 15 a 19, comprendente le fasi di: - fornire almeno un sensore (124), - rilevare, tramite detto almeno un sensore (124), un parametro di funzionamento e/o stato di detta macchina (10) per il trattamento di prodotti alimentari, - generare un elemento (G5) di realtà aumentata comprendente almeno un elemento di realtà aumentata indicativo del parametro operativo rilevato.
  21. 21. Procedimento secondo la precedente rivendicazione e la rivendicazione 5, ulteriormente comprendente la fase di incorporare l’elemento (G5) di realtà aumentata generato in detta almeno una seconda immagine (IM2).
  22. 22. Procedimento secondo la rivendicazione 20 o la 21, comprendente le fasi di: - verificare se il parametro di funzionamento e/o stato rilevato dall’almeno un sensore (124) è all’interno di un intervallo predeterminato indicativo di un corretto funzionamento della macchina (10), - se il parametro di funzionamento e/o stato è al di fuori di detto intervallo predeterminato, generare un elemento (G5) di realtà aumentata definente un messaggio di allarme.
  23. 23. Procedimento secondo la rivendicazione 22, ulteriormente comprendente la fase di incorporare l’elemento (G5) di realtà aumentata generato in detta almeno una seconda immagine (IM2).
  24. 24. Procedimento secondo una qualsiasi delle precedenti rivendicazioni da 15 a 23, in cui la fase di generare uno o più elementi (G1-G6) di realtà aumentata sulla base di informazioni presenti in, o derivate da, detta prima immagine (IM1) prevede di generare una sequenza di uno o più elementi (G1-G6) di realtà aumentata che definisce una procedura assistita per l’esecuzione di una ricetta per la preparazione di un prodotto alimentare sulla macchina stessa.
  25. 25. Procedimento secondo la rivendicazione 24, gli uno o più elementi (G1-G6) di realtà aumentata della sequenza di uno o più elementi (G1-G6) di realtà aumentata sono relativi alla scelta dei prodotti di base, al calcolo della quantità dei prodotti di base, alle istruzioni sulla miscela dei prodotti di base ed al trattamento della miscela stessa.
IT102019000015485A 2019-09-03 2019-09-03 Sistema di supporto per la gestione di una macchina per il trattamento di prodotti alimentari e procedimento corrispondente. IT201900015485A1 (it)

Priority Applications (6)

Application Number Priority Date Filing Date Title
IT102019000015485A IT201900015485A1 (it) 2019-09-03 2019-09-03 Sistema di supporto per la gestione di una macchina per il trattamento di prodotti alimentari e procedimento corrispondente.
US16/986,112 US11163357B2 (en) 2019-09-03 2020-08-05 Support system and corresponding method for the management of a machine for treating food products
JP2020136116A JP7555216B2 (ja) 2019-09-03 2020-08-12 食品を処理するための機械を管理するためのサポートシステムおよび対応する方法
EP20190821.7A EP3789850A1 (en) 2019-09-03 2020-08-13 Support system and corresponding method for the management of a machine for treating food products
KR1020200110059A KR20210028585A (ko) 2019-09-03 2020-08-31 식품 처리용 기계의 관리를 위한 지원 시스템 및 대응 방법
CN202010910740.4A CN112438416A (zh) 2019-09-03 2020-09-02 用于管理用于食品加工的机器的支持系统及相应方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT102019000015485A IT201900015485A1 (it) 2019-09-03 2019-09-03 Sistema di supporto per la gestione di una macchina per il trattamento di prodotti alimentari e procedimento corrispondente.

Publications (1)

Publication Number Publication Date
IT201900015485A1 true IT201900015485A1 (it) 2021-03-03

Family

ID=69158234

Family Applications (1)

Application Number Title Priority Date Filing Date
IT102019000015485A IT201900015485A1 (it) 2019-09-03 2019-09-03 Sistema di supporto per la gestione di una macchina per il trattamento di prodotti alimentari e procedimento corrispondente.

Country Status (6)

Country Link
US (1) US11163357B2 (it)
EP (1) EP3789850A1 (it)
JP (1) JP7555216B2 (it)
KR (1) KR20210028585A (it)
CN (1) CN112438416A (it)
IT (1) IT201900015485A1 (it)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015177008A1 (en) * 2014-05-22 2015-11-26 Nestec S.A. Helical movement device
IT202100008717A1 (it) * 2021-04-07 2022-10-07 Ali Group Srl Carpigiani Metodo e apparato di controllo qualita’ di prodotti alimentari, sistema di trattamento di prodotti alimentari comprendente detto apparato.
CN114193647B (zh) * 2022-02-18 2022-05-13 武汉金合鑫橡塑制品有限公司 一种基于图像处理的橡胶塑炼机控制方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150085853A (ko) * 2014-01-16 2015-07-27 두산중공업 주식회사 증강현실을 이용한 플랜트 유지보수 시스템 및 방법
US20160176724A1 (en) * 2013-12-12 2016-06-23 Hanla Ims Co., Ltd. Remote managed ballast water treatment system using augmented reality
JP2016189043A (ja) * 2015-03-30 2016-11-04 株式会社クボタ 自動販売機装置
US20190060602A1 (en) * 2015-07-17 2019-02-28 Bao Tran Systems and methods for computer assisted operation
US20190075965A1 (en) * 2015-07-24 2019-03-14 Vorwerk & Co. Interholding Gmbh Food processor and method for operating a food processor

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2377147A (en) * 2001-06-27 2002-12-31 Nokia Corp A virtual reality user interface
US9092896B2 (en) * 2012-08-07 2015-07-28 Microsoft Technology Licensing, Llc Augmented reality display of scene behind surface
US9948493B2 (en) * 2014-04-03 2018-04-17 Centurylink Intellectual Property Llc Network functions virtualization interconnection gateway
US9886162B2 (en) * 2014-06-02 2018-02-06 Qualcomm Incorporated Device-provided tracking data for augmented reality
US10732721B1 (en) * 2015-02-28 2020-08-04 sigmund lindsay clements Mixed reality glasses used to operate a device touch freely
US10657719B2 (en) * 2015-08-10 2020-05-19 Arcelik Anonim Sirketi Household appliance controlled by using a virtual interface
US9791936B1 (en) * 2016-05-03 2017-10-17 Aram Kavach Audio and motion-based control of a personalized smart appliance, media, and methods of use
US11132840B2 (en) * 2017-01-16 2021-09-28 Samsung Electronics Co., Ltd Method and device for obtaining real time status and controlling of transmitting devices
US20190066239A1 (en) * 2017-08-23 2019-02-28 Prince Castle LLC System and method of kitchen communication
US11353259B2 (en) * 2018-09-18 2022-06-07 Samsung Electronics Co., Ltd. Augmented-reality refrigerator and method of controlling thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160176724A1 (en) * 2013-12-12 2016-06-23 Hanla Ims Co., Ltd. Remote managed ballast water treatment system using augmented reality
KR20150085853A (ko) * 2014-01-16 2015-07-27 두산중공업 주식회사 증강현실을 이용한 플랜트 유지보수 시스템 및 방법
JP2016189043A (ja) * 2015-03-30 2016-11-04 株式会社クボタ 自動販売機装置
US20190060602A1 (en) * 2015-07-17 2019-02-28 Bao Tran Systems and methods for computer assisted operation
US20190075965A1 (en) * 2015-07-24 2019-03-14 Vorwerk & Co. Interholding Gmbh Food processor and method for operating a food processor

Also Published As

Publication number Publication date
JP7555216B2 (ja) 2024-09-24
US20210064123A1 (en) 2021-03-04
JP2021036862A (ja) 2021-03-11
KR20210028585A (ko) 2021-03-12
CN112438416A (zh) 2021-03-05
US11163357B2 (en) 2021-11-02
EP3789850A1 (en) 2021-03-10

Similar Documents

Publication Publication Date Title
IT201900015485A1 (it) Sistema di supporto per la gestione di una macchina per il trattamento di prodotti alimentari e procedimento corrispondente.
CN106466125B (zh) 厨用机器以及厨用机器的运行方法
WO2011128416A3 (en) Programmable controllers and schedule timers
WO2015171630A4 (en) Food processing management system
WO2015075730A2 (en) Portable fully automatic cooking system
DE602008002305D1 (de) Maschine zur Herstellung von flüssigen oder halbflüssigen Lebensmittelprodukten.
CN105323502B (zh) 图像处理设备和图像处理方法
US20160331179A1 (en) Touchscreen controller for fryer
ITBO20130259A1 (it) Macchina e metodo per la produzione della cioccolata.
WO2018140574A1 (en) Electronic oven with improved human-machine interface
JP2011090571A (ja) 装置稼働実績監視システム
JP2017006550A (ja) 調理器の表示装置
CN110162186A (zh) 控制方法、头戴设备和存储介质
CN110460836A (zh) 一种使用单一同步信息的3d和2d画面显示系统
CN110412766A (zh) 控制方法、头戴设备和存储介质
CN111132589A (zh) 用于烹饪制备设备的用户界面
CN105674661A (zh) 一种基于物联网技术的制冷电器
JP2008228722A (ja) 食品成形装置及びこれを備えた食品生産システム
JP3236190U (ja) 液体または半液体食品を製造するための機械
JP2024514884A (ja) 外科用システムのためのオーバーレイ器具情報の適合及び調整可能性
CN208550767U (zh) 浴室美妆镜和用于浴室美妆镜的摄像头
CN207571565U (zh) Bv线立弯装置用的电控系统
CN107578460A (zh) 一种图像拼接进度展示方法
PL2144480T3 (pl) Sposób sterowania co najmniej jednym środkiem grzejnym urządzenia do gotowania
CN110652190B (zh) 烹饪菜单的显示方法和装置、烹饪器具