IT202100022754A1 - Metodo per predisporre una lista digitale di ingredienti per cibo e metodo per identificare una lista di ricette corrispondenti ad una pluralità di ingredienti per cibo - Google Patents
Metodo per predisporre una lista digitale di ingredienti per cibo e metodo per identificare una lista di ricette corrispondenti ad una pluralità di ingredienti per cibo Download PDFInfo
- Publication number
- IT202100022754A1 IT202100022754A1 IT102021000022754A IT202100022754A IT202100022754A1 IT 202100022754 A1 IT202100022754 A1 IT 202100022754A1 IT 102021000022754 A IT102021000022754 A IT 102021000022754A IT 202100022754 A IT202100022754 A IT 202100022754A IT 202100022754 A1 IT202100022754 A1 IT 202100022754A1
- Authority
- IT
- Italy
- Prior art keywords
- ingredients
- list
- user
- recipes
- digital
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/08—Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
- G06Q10/087—Inventory or stock management, e.g. order filling, procurement or balancing against orders
- G06Q10/0875—Itemisation or classification of parts, supplies or services, e.g. bill of materials
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0633—Managing shopping lists, e.g. compiling or processing purchase lists
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0641—Electronic shopping [e-shopping] utilising user interfaces specially adapted for shopping
- G06Q30/0643—Electronic shopping [e-shopping] utilising user interfaces specially adapted for shopping graphically representing goods, e.g. 3D product representation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/12—Hotels or restaurants
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/68—Food, e.g. fruit or vegetables
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/0092—Nutrition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/414—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
- H04N21/41407—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Finance (AREA)
- Accounting & Taxation (AREA)
- Multimedia (AREA)
- Economics (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Tourism & Hospitality (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Development Economics (AREA)
- General Health & Medical Sciences (AREA)
- Entrepreneurship & Innovation (AREA)
- Human Resources & Organizations (AREA)
- Health & Medical Sciences (AREA)
- Primary Health Care (AREA)
- Nutrition Science (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- General Preparation And Processing Of Foods (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
?Metodo per predisporre una lista digitale di ingredienti per cibo e metodo per identificare una lista di ricette corrispondenti ad una pluralit? di ingredienti per cibo?
DESCRIZIONE
SFONDO TECNOLOGICO DELL?INVENZIONE
Campo di applicazione.
La presente invenzione riguarda in generale il campo tecnico dei servizi di assistenza ad un utente per cucinare cibi, impieganti elaborazione elettronica, ed accessibili mediante applicazioni software (app) eseguibili da dispositivi d?utente, ad esempio smartphone.
Pi? in particolare, l?invenzione si riferisce a metodi, basati su elaborazione elettronica, per predisporre una lista digitale di ingredienti per cibo e per identificare una lista di ricette corrispondenti ad una pluralit? di ingredienti per cibo.
Descrizione dell?arte nota.
Come ben noto, la disponibilit? sempre pi? pervasiva di applicazioni software (app) eseguibili da smartphone sta ampliando l?insieme di funzioni almeno parzialmente automatizzate accessibili agli utenti di tali dispositivi.
Nell?ambito tecnico dei servizi di assistenza all?utente per cucinare cibi, ci? si riflette nella disponibilit?, recentemente emersa, di app che consentono ad un utente di scattare una fotografia di un cibo pronto per la cottura, riconoscere in modo automatico il cibo e fornire suggerimenti di cottura o addirittura comandi all?elettrodomestico di cottura.
Tuttavia, in questo contesto, le esigenze degli utenti continuano a crescere, e risulta sempre pi? importante per i fornitori di servizi di assistenza alla cottura (tipicamente, i fabbricanti di elettrodomestici) offrire soluzioni che soddisfino tali nuove e crescenti esigenze.
Ad esempio, si avverte l?esigenza di consentire agli utenti di riconoscere, tramite smartphone e app, non solo cibi pronti per la cottura, ma anche una pluralit? di ingredienti di base per cibi. Sulla base di ci?, sarebbe desiderabile fornire agli utenti una lista digitale di ingredienti, in modo rapido e automatico, e nel contempo controllabile e correggibile dall?utente.
Le soluzioni note, sopra brevemente menzionate, non soddisfano pienamente tali esigenze. Infatti, bench? sia possibile in linea di principio svolgere pi? volte in sequenza le funzioni delle suddette app per riconoscimento di un cibo, l?utente ? costretto a comprendere le logiche della app per provare a correggere i risultati. Ci? porta ad una procedura lunga e time-consuming, e per di pi? complessa per l?utente, che deve intervenire pi? volte, cominciando da capo, per verificare e confermare o correggere il riconoscimento automatico, tanto da rendere di fatto impraticabile questa soluzione.
Inoltre, altri problemi tecnici devono essere risolti, per pervenire ad una soluzione impiegabile agevolmente e convenientemente dall?utente: ad esempio, come ovviare al fatto che le immagini scattate dall?utente possono essere non ottimali (ad esempio, scattate da angolazioni non comuni, o con l?ingrediente o cibo in posizione periferica dell?immagine) per il successivo riconoscimento, conducendo a possibili tassi d?errore elevati nel riconoscimento stesso.
In associazione all?esigenza sopra menzionata, sarebbe anche desiderabile, dopo la generazione di una lista digitale di ingredienti, la possibilit? di fornire all?utente ricette correlate agli ingredienti riconosciuti, nonch? consigli di cottura e/o comandi per l?elettrodomestico di cottura che siano ottimizzati per ottenere una ricetta selezionata tra quelle proposte.
Per le ragioni sopra illustrate, le sopra citate soluzioni note non consentono di soddisfare pienamente le esigenze sopra menzionate.
SOMMARIO DELL?INVENZIONE
? scopo della presente invenzione quello di fornire un metodo per predisporre una lista digitale di ingredienti per cibo, sulla base di un?interazione assistita con un utente, che consenta di ovviare almeno parzialmente agli inconvenienti qui sopra lamentati con riferimento alla tecnica nota, e di rispondere alle summenzionate esigenze particolarmente avvertite nel settore tecnico considerato. Tale scopo ? raggiunto mediante un metodo in accordo alla rivendicazione 1.
Ulteriori forme di realizzazione di tale metodo sono definite dalle rivendicazioni 2-17.
? inoltre scopo della presente invenzione fornire un metodo per identificare una lista di ricette corrispondenti ad una pluralit? di ingredienti per cibo, che si basa sui risultati del suddetto metodo di predisposizione di una lista digitale di ingredienti.
Tale scopo ? raggiunto mediante un metodo in accordo alla rivendicazione 18.
Ulteriori forme di realizzazione di tale metodo sono definite dalle rivendicazioni 19-28.
Forma altres? oggetto della presente invenzione un metodo per controllare un apparato di cottura per cucinare un cibo, sulla base di ricette identificate mediante il suddetto metodo di identificazione di una lista di ricette. Tale sistema ? definito nella rivendicazione 29.
BREVE DESCRIZIONE DEI DISEGNI
Ulteriori caratteristiche e vantaggi dei metodi e dei sistemi secondo l?invenzione risulteranno dalla descrizione di seguito riportata di esempi preferiti di realizzazione, dati a titolo indicativo e non limitativo, con riferimento all?annessa figura, in cui:
- la figura 1 illustra schematicamente uno schema a blocchi di un metodo, secondo una forma di realizzazione dell?invenzione, per predisporre una lista digitale di ingredienti per cibo, sulla base di un?interazione assistita con un utente;
- la figura 2 illustra schematicamente uno schema a blocchi di un metodo di identificazione e presentazione di una lista di ricette, secondo una forma di realizzazione dell?invenzione;
- la figura 3 mostra alcune schermate di un?interfaccia del dispositivo d?utente, durante l?esecuzione di una forma di realizzazione del metodo per predisporre una lista digitale di ingredienti per cibo, ed alcuni passi dell?interazione con l?utente previsti da tale metodo;
- la figura 4 illustra mediante uno schema a blocchi alcune caratteristiche esemplificative di modelli algoritmi addestrati di classificazione degli oggetti riconosciuti.
DESCRIZIONE DETTAGLIATA
Con riferimento alla figura 1, viene descritto un metodo per predisporre una lista digitale di ingredienti per cibo, sulla base di un?interazione assistita con un utente.
Il metodo comprende le fasi di acquisire almeno un flusso video digitale di uno o pi? rispettivi ingredienti per cibo, mediante un dispositivo d?utente, e di interagire con il suddetto almeno un flusso video digitale, da parte dell?utente mediante il dispositivo di utente, per selezionare nel flusso video digitale almeno una immagine digitale di ognuno dei detti uno o pi? ingredienti per cibo che si desiderano inserire nella lista digitale di ingredienti.
Il metodo prevede poi di riconoscere, mediante mezzi di elaborazione elettronica, una pluralit? di ingredienti sulla base dell?almeno una rispettiva immagine digitale selezionata dall?utente nel flusso video digitale; e di predisporre, mediante mezzi di elaborazione elettronica, una lista digitale di ingredienti proposta, comprendente l?elenco degli uno o pi? ingredienti riconosciuti mediante riconoscimento di immagine.
Il metodo comprende poi le fasi di fornire all?utente la suddetta lista digitale di ingredienti proposta, tramite un?interfaccia digitale del dispositivo d?utente; e di confermare e/o correggere, da parte dell?utente, attraverso l?interfaccia digitale del dispositivo d?utente, la suddetta lista digitale di ingredienti proposta, per predisporre una lista digitale di ingredienti definitiva.
Secondo una forma di realizzazione del metodo, la fase di acquisire comprende acquisire un flusso video digitale inquadrato in tempo reale dall?utente, in cui l?utente inquadra in sequenza una pluralit? di ingredienti che desidera inserire nella lista digitale di ingredienti.
In accordo con una forma di realizzazione del metodo (alcuni aspetti della quale sono illustrati ad esempio in figura 3), la fase di interagire con il flusso video digitale comprende assistere l?utente sovrapponendo al video digitale riquadri o maschere o segni che evidenziano parti dell?inquadratura associate a rispettivi ingredienti; e quindi indicare, da parte dell?utente, mediante selezione dei suddetti riquadri o maschere o segni, le parti del flusso video corrispondenti agli ingredienti da riconoscere, in modo da selezionare le immagini digitali degli ingredienti da inserire nella lista di ingredienti.
Secondo un?opzione implementativa, la suddetta fase di assistere l?utente comprende riconoscere, da parte di un algoritmo di analisi di video/immagini, parti dell?inquadratura che, con alta probabilit?, rappresentano ingredienti candidati; e quindi assistere l?utente sovrapponendo al video digitale i suddetti riquadri o maschere o segni di evidenziazione sulle sopra citate parti dell?inquadratura riconosciute come rilevanti.
Secondo un?opzione implementativa, la suddetta fase di riconoscere parti dell?inquadratura che rappresentano probabilmente ingredienti candidati ? eseguita dal dispositivo d?utente, e il suddetto algoritmo di analisi di video/immagini ? implementato mediante un software eseguito dal dispositivo d?utente.
In accordo con un?opzione implementativa, la suddetta fase di indicare, da parte dell?utente le parti del flusso video corrispondenti agli ingredienti da riconoscere comprende identificare un?area dell?inquadratura video da analizzare tramite una interazione tattile, da parte dell?utente, di evidenziazione di un?area contenente un ingrediente candidato.
Diverse possibili varianti implementative possono essere previste dal metodo per quanto riguarda la modalit? di selezione da parte dell?utente dell?immagine o frame video o inquadratura da analizzare: ad esempio, toccare il touch-screen del dispositivo d?utente sul riquadro o maschera o segno, mostrati dallo stesso touch-screen; oppure, mantenere per un tempo predeterminato l?inquadratura ripresa dal dispositivo d?utente tenendo al centro il riquadro o maschera mostrati dal touchscreen; oppure, quando l?utente ha identificato l?area tramite la suddetta interazione tattile, l?area identificata ? automaticamente selezionata come immagine da analizzare.
Al proposito, si consideri a titolo di esempio la figura 3, nella quale vengono illustrati i seguenti passi del metodo:
S1: rilevazione di oggetto nell?immagine;
S2(a): selezione dell?oggetto da parte dell?utente mediante tocco;
S2(b): selezione dell?oggetto da parte dell?utente mediante altro movimento tattile di evidenziazione di un?area dell?immagine;
S3: trasferimento dati verso elaborazione remota in cloud;
S4: ricezione dati dall?elaboratore remoto (ingrediente identificato nell?immagine);
S5: visualizzazione degli ultimi risultati ottenuti dall?identificazione (in inglese ?classification?) delle immagini trasmesse all?elaboratore remoto;
S6: applicazione di configurazioni di ricetta;
S7: trasferimento dati verso elaborazione remota in cloud;
S8: ricezione dati dall?elaboratore remoto;
S9: visualizzazione all?utente di informazioni ricevute (lista ricette rilevanti individuate).
Secondo una forma di realizzazione del metodo, la suddetta fase di riconoscere parti dell?inquadratura che, con alta probabilit?, rappresentano ingredienti candidati viene svolta da uno o pi? algoritmi di analisi di video/immagini, basati su tecniche di intelligenza artificiale e/o algoritmi addestrati e/o machine learning.
Secondo un?opzione implementativa, le suddette tecniche di intelligenza artificiale e/o algoritmi addestrati e/o machine learning comprendono algoritmi addestrati di rilevazione di oggetti in un?immagine (detti anche in inglese algoritmi di ?object detection?).
In accordo con una forma di realizzazione del metodo, la suddetta fase di riconoscere una pluralit? di ingredienti comprende trasmettere a mezzi di elaborazione remoti le immagini digitali che l?utente, entro il flusso video digitale, ha selezionato; ed effettuare poi su ciascuna di tali immagini digitali una procedura di riconoscimento immagine basata su tecniche di intelligenza artificiale e/o algoritmi addestrati e/o machine learning.
Secondo un?opzione implementativa, le suddette tecniche di intelligenza artificiale e/o algoritmi addestrati e/o machine learning comprendono algoritmi addestrati di riconoscimento di oggetti da immagine (detti anche comunemente in inglese algoritmi di ?image classification?).
Secondo possibili opzioni implementative, i suddetti algoritmi addestrati di rilevazione e/o di riconoscimento di oggetti da immagine comprendono reti neurali profonde addestrate.
Verranno qui di seguito illustrati, a titolo esemplificativo e non limitativo, alcuni ulteriori esempi delle tecniche di intelligenza artificiale e/o algoritmi addestrati e/o machine learning che possono essere utilizzati nel metodo della presente invenzione, per gli scopi sopra indicati.
Come gi? osservato, tali tecniche di intelligenza artificiale e/o machine learning possono essere applicate, nel metodo qui illustrato, sia ad algoritmi di ?object detection?, aventi la funzione di individuare oggetti da analizzare in un?immagine, sia ad algoritmi di ?image classification?, aventi la funzione di riconoscere l?oggetto individuato, cio?, in altri termini, di classificare tale oggetto ? ad esempio ingrediente - come corrispondente ad uno di un insieme predefinito di oggetti (nel caso specifico, ingredienti) riconoscibili.
Come gi? osservato, secondo una forma di realizzazione del metodo, l'identificazione di possibili candidati per il riconoscimento del cibo si effettua tramite algoritmi di ?object detection?, cio? rilevamento di oggetti in una immagine o in un frame video basati su reti neurali profonde.
Secondo possibili opzioni implementative, tali reti neurali profonde comprendono una delle seguenti reti neurali profonde (di per s? note nel contesto tecnico considerato): [R-CNN], [Fast R-CNN], [Faster R-CNN], [YOLOv1], [YOLOv2], [YOLOv3], [YOLOv4], [SSD], [DSSD].
Tali reti neurali per la rilevazione di oggetti sono addestrate su svariati milioni di immagini di oggetti diversi e poi i loro pesi vengono raffinati per meglio adeguarsi allo scopo del particolare progetto.
Tale raffinamento ? detto ?supervisionato? poich?, al fine di definire quale ? la configurazione migliore dei parametri si utilizza una funzione di costo che rappresenta, in modo numerico, la differenza fra la previsione che la rete genera, ed il valore vero (detto etichetta), fornito in input all'algoritmo di ottimizzazione.
Secondo un esempio di implementazione del presente metodo, una rete addestrata su un insieme di immagini divise in 80 classi, ? stata raffinata per permettere di identificare le sole due classi ?cibo sfuso? e ?cibo confezionato?.
Secondo altri esempi di implementazione, viene effettuata una partizione in un sottoinsieme pi? ampio delle suddette 80 classi.
Secondo una particolare opzione implementativa, l'algoritmo di rilevazione di oggetti ? ottimizzato per funzionare su un dispositivo mobile e richiede in ingresso il flusso video scalato a 224x224 pixels.
In accordo con un?opzione implementativa preferita, l'algoritmo di rivelazione di oggetti ? eseguito dal dispositivo di utente per ridurre i ritardi o ?lag? di trasmissione dell'immagine verso un?entit? di elaborazione remota (ad esempio, ?backend cloud?).
Con riferimento ora alla ?image classification?, come gi? osservato, secondo una forma di realizzazione del metodo, Il riconoscimento della categoria di cibo si realizza tramite algoritmi di classificazione basati su reti neurali profonde.
Tali algoritmi sono in grado di analizzare una immagine, fornita come input all?algoritmo, e riconoscere l'oggetto principale inquadrato nell'immagine tramite la sua scomposizione in dettagli via via pi? rappresentativi dell'oggetto da riconoscere. Per esempio, ad un primo livello si identificano segmenti a diverse angolature, per poi combinare pi? di questi segmenti per rappresentare curve e cos? via.
Anche le reti neurali per la classificazione sono addestrate su svariati milioni di immagini di oggetti diversi. L?addestramento viene fatto naturalmente fornendo alla rete neurale oggetti da riconoscere e nel contempo l?informazione di quale oggetto si tratta (all?interno di un insieme predefinito di oggetti riconoscibili).
Anche in questo caso, secondo un?opzione implementativa, viene effettuato un raffinamento ?supervisionato? cos? come gi? sopra descritto.
Secondo una variante implementativa, prima di questa fase di addestramento supervisionato, nel metodo si utilizza un addestramento auto-supervisionato. In tale addestramento auto-supervisionato si fa in modo che le uscite della rete neurale, viste come punti in uno spazio vettoriale a dimensionalit? alta (dalle 100 alle 1000 coordinate), siano vicine, secondo una opportuna funzione di distanza (ad esempio, una funzione euclidea o una funzione coseno), se i due input corrispondenti sono della stessa categoria.
L'utilizzo di queste tecniche permette vantaggiosamente di pre-ordinare le uscite della rete in questo spazio vettoriale (detto ?spazio latente?) senza forzare, in questa fase, l'ottimizzazione dell'accuratezza, che potrebbe essere polarizzata dalla sbilanciata numerosit? dei dettagli che si riesce ad estrarre dalle immagini.
Per ottenere tale risultato si utilizzano anche tecniche di addestramento per contrasto, nel quale ? necessario riordinare, ad ogni ciclo di ottimizzazione dei parametri, l'insieme delle immagini di addestramento, per presentare alla funzione di costo l'uscita della rete data da immagini della stessa o di diversa classe.
Tale riordino si pu? sia ottenere con un confronto uno verso tutti, sia con un confronto tre immagini per volta, di cui due della stessa classe ed una di classe diversa.
La rete neurale cos? ottimizzata non ? ancora in grado di dare in uscita un indice di classe.
Quindi, per ottenere la stessa uscita che ci si attenderebbe da un classificatore, secondo un?opzione implementativa del metodo, viene aggiunta una rete neurale poco profonda, e si esegue l'addestramento supervisionato della sola rete aggiunta. L?utilizzo combinato dello spazio latente e della rete poco profonda, come noto anche in letteratura, permette una migliore generalizzazione della classificazione.
Secondo una forma di realizzazione del metodo, in parallelo alla suddetta rete di classificazione, si utilizza una seconda rete di classificazione, addestrata su macro-categorie di cibo (carne, pesce, ecc.) in modo che l'uscita di questa ulteriore sottorete possa aumentare le informazioni di contesto date alla rete di classificazione. L'uscita di questa rete viene messa in ingresso alle reti di classificazione dei singoli ingredienti, perch? possano sfruttare questa informazione di contesto per migliorare l'accuratezza di classificazione.
La rete rimane cos? anche modulare, avendo la possibilit? di aggiungere classi ingrediente, aggiungendo una nuova rete di classificazione che ha in ingresso lo spazio latente e l'uscita del classificatore di macrocategorie.
L'algoritmo complessivo conta diversi milioni di parametri e, dunque, necessita di un sistema di calcolo potente per la sua esecuzione.
Per questo, secondo una forma di realizzazione preferita, l?algoritmo addestrato di ?image classification? viene eseguito in mezzi di elaborazione remoti (quindi, non dal dispositivo d?utente e dalla app locale in esso installata), ad esempio in cloud.
Alcune caratteristiche esemplificative di modelli algoritmici addestrati di classificazione degli oggetti sono mostrate in figura 4. In tale figura sono illustrati, suddivisi in blocchi funzionali, sequenze di layers di rete neurale, che svolgono diverse funzioni.
Alla sinistra della figura viene schematizzata la struttura di un ?estrattore di caratteristiche? (definibile anche ?feature extractor?, secondo una terminologia comunemente usata), che riceve come ingresso una rappresentazione digitale dell?immagine da analizzare; tale sottorete viene selezionata in base alle performance ottenute ma non addestrata. Una tipologia di rete con ottime prestazioni utilizza layers convoluzionali per l?elaborazione. Ulteriore caratteristica che migliora le prestazioni ? di essere residuale: ossia di trasferire tal quali ?features? relative a layers pi? esterni verso gli strati profondi, permettendo cos? di essere pi? robusta nel generare risposte per immagini con differenti fattori di scala.
L?uscita della prima sottorete va in ingresso ad una rete non molto profonda, ad esempio di tipo ?Percettrone multistrato?, che si occupa di riorganizzare le ?features? estratte in quello che viene definito, qui e in figura 4, come ?embedding? (rappresentazione delle immagini in ingresso nello spazio latente). L?addestramento di questa rete ? ottenuto in modo autosupervisionato: anzich? utilizzare le singole immagini, pi? immagini vengono presentate contemporaneamente alla rete cercando di portare vicine, nello spazio latente, le rappresentazioni di immagini relative alla stessa classe.
Le ?features? e l??embedding? vengono poi passati in ingresso ad una ulteriore rete non molto profonda, ad esempio di tipo ?Percettrone multistrato?, che si occupa di classificare le macro-categorie. Tale rete ? addestrata in modo supervisionato, utilizzando la etichetta di macro-categoria come obiettivo da presentare in uscita.
Infine, le ?features?, l??embedding? e le macrocategorie vengono passate alla rete finale non molto profonda, ad esempio di tipo ?Percettrone multistrato?, che si occupa di classificare le categorie. Tale rete ? addestrata in modo supervisionato, utilizzando la etichetta di categoria come obiettivo da presentare in uscita.
Si osservi che, secondo altre possibili opzioni implementative del metodo, possono essere impiegati altri algoritmi addestrati, con altre procedure di addestramento, di per s? noti.
In accordo con un?ulteriore forma di realizzazione, il metodo comprende inoltre, dopo la fase di riconoscere, l?ulteriore fase di stimare la quantit? di ingrediente riconosciuto presente nell?immagine.
Secondo un?altra forma di realizzazione, il metodo comprende inoltre la fase di trasmettere ai mezzi di elaborazione elettronica remoti ulteriori informazioni, tramite il dispositivo d?utente configurato per comunicare con i suddetti mezzi di elaborazione remoti.
Le suddette ulteriori informazioni sono inserite dall?utente attraverso l?interfaccia del dispositivo d?utente, e comprendono, ad esempio, ulteriori ingredienti non inquadrati che l?utente desidera inserire nella lista, e/o ulteriori informazioni circa gli ingredienti inquadrati.
Secondo un?opzione implementativa, le suddette ulteriori informazioni circa gli ingredienti inquadrati comprendono quantit? e/o identificativo di prodotto e/o tipologia dell?ingrediente inquadrato.
In accordo con un?opzione implementativa, le suddette ulteriori informazioni sono inserite dall?utente come testo attraverso l?interfaccia del dispositivo d?utente.
Secondo un?altra opzione implementativa, le suddette ulteriori informazioni sono inviate sotto forma di ulteriori immagini acquisite, ad esempio immagini di una confezione di prodotto.
Tali ulteriori immagini acquisite sono elaborate, ad esempio mediante OCR, per dedurre informazioni leggibili sul prodotto e/o confezione di prodotto.
Secondo una forma di realizzazione del metodo, la suddetta fase di confermare e/o correggere la lista digitale, da parte dell?utente, comprende editare la lista digitale, mediante l?interfaccia di dispositivo d?utente, per aggiungere e/o togliere e/o correggere ingredienti presenti nella lista.
Viene qui di seguito descritto un metodo per identificare una lista di ricette corrispondenti ad una pluralit? di ingredienti per cibo.
Tale metodo prevede di eseguire un metodo per predisporre una lista digitale di ingredienti per cibo secondo una qualsiasi delle forme di realizzazione precedentemente descritte.
Successivamente, tale metodo comprende le fasi di associare, da parte di mezzi di elaborazione elettronica, la suddetta lista di ingredienti definitiva ad una o pi? ricette contenenti uno o pi? degli ingredienti di detta lista; e di selezionare e/o stabilire una priorit? tra tali ricette sulla base di una comparazione tra il numero e/o la quantit? degli ingredienti della ricetta e il numero e/o la quantit? degli ingredienti della lista di ingredienti definitiva.
Secondo un?opzione implementativa, il suddetto metodo comprende l?ulteriore fase di fornire all?utente, tramite l?interfaccia del dispositivo d?utente, una lista di ricette, comprendente le ricette selezionate e/o ordinate in priorit?.
In accordo con un?opzione implementativa, tale metodo comprende inoltre scegliere, da parte dell?utente, una ricetta tra le ricette della lista di ricette, mediante l?interfaccia del dispositivo d?utente, e quindi trasmettere, attraverso il dispositivo d?utente, parametri associati alla ricetta scelta ad un apparato configurato per cucinare cibi.
Tale opzione implementativa ? illustrata nella figura 2.
Secondo un?opzione implementativa, la suddetta fase di associare comprende associare la lista di ingredienti definitiva ad una o pi? ricette memorizzate in un database di ricette accessibile da parte dei mezzi di elaborazione remoti.
In accordo con una forma di realizzazione, la fase di selezionare e/o stabilire una priorit? comprende selezionare e/o stabilire una priorit? pi? elevata per quelle ricette memorizzate che hanno il maggior numero di ingredienti in comune con la lista di ingredienti definitiva.
Secondo un?opzione implementativa, in cui le ricette memorizzate comprendono un ingrediente principale e un ingrediente secondario, la suddetta fase di selezionare e/o stabilire una priorit? comprende ordinare la lista di ricette evidenziando per prime, con la pi? alta priorit?, le ricette per cui sia l?ingrediente primario che l?ingrediente secondario sono nella lista di ingredienti definitiva, riportando poi per seconde le ricette per cui il solo ingrediente primario ? nella lista di ingredienti definitiva, riportando per terze le ricette per cui il solo ingrediente secondario ? nella lista, e riportando infine, con la pi? bassa priorit?, tutte le ricette per cui c?? sovrapposizione fra gli ingredienti della ricetta e gli ingredienti della lista definitiva di ingredienti.
Secondo una forma di realizzazione, le ricette selezionate fornite all?utente sono ordinate secondo la priorit? stabilita.
In accordo con una forma di realizzazione, le ricette selezionate fornite all?utente comprendono parametri di cottura e/o informazioni su come cucinare la ricetta.
Secondo una forma di realizzazione, il suddetto metodo comprende, prima della fase di fornire all?utente la lista di ricette, l?ulteriore fase di filtrare le ricette in accordo con un predefinito criterio, generando una lista filtrata di ricette. In tal caso, la fase di fornire comprende fornire all?utente la lista filtrata di ricette.
Secondo diverse possibili opzioni implementative, il suddetto predefinito criterio ? relativo a portata e/o occasione e/o intolleranze e/o tempo di cottura e/o difficolt? di realizzazione.
In accordo con una forma di realizzazione dei suddetti metodi, il dispositivo d?utente ? uno smartphone, dotato di telecamera, interfaccia (ad esempio di tipo ?touch?) e processore locale in cui ? memorizzata ed eseguita una applicazione (app) software. Tale app software ? configurata eseguire le suddette fasi di acquisire immagini e/o video digitali, consentire all?utente di confermare e/o correggere la lista di ingredienti, mostrare all?utente la lista di ricette, consentire all?utente di trasmettere i parametri associati alla ricetta all?apparato per cucinare il cibo.
In accordo con una forma di realizzazione dei suddetti metodi, i suddetti mezzi di elaborazione remoti sono mezzi di elaborazione in cloud, comprendenti hardware e software configurati per svolgere le suddette fasi di: riconoscere la pluralit? di ingredienti sulla base dell?almeno una immagine digitale, predisporre e fornire all?utente una lista digitale di ingredienti automaticamente proposta, ricevere dall?utente la lista digitale di ingredienti definitiva, associare la lista di ingredienti definitiva ad una o pi? ricette, selezionare e/o stabilire una priorit? tra le ricette, fornire all?utente, la lista di ricette selezionate e/o ordinate in priorit?.
Viene ora descritto un metodo per controllare un apparato di cottura per cucinare un cibo.
Tale metodo prevede di eseguire un metodo per identificare una lista di ricette corrispondenti ad una pluralit? di ingredienti per cibo secondo una qualsiasi delle forme di realizzazione precedentemente illustrate.
Tale metodo comprende poi le fasi di scegliere, da parte dell?utente, una ricetta tra le ricette della lista di ricette, mediante l?interfaccia del dispositivo d?utente; e poi di trasmettere, attraverso il dispositivo d?utente, parametri associati alla ricetta scelta all?apparato configurato per cucinare cibi.
Viene ora descritto un sistema secondo la presente invenzione, configurato per eseguire i suddetti metodi di predisporre una lista digitale di ingredienti e per identificare una conseguente lista di ricette.
Tale sistema comprende almeno un dispositivo d?utente e mezzi di elaborazione remoti, operativamente collegati al dispositivo d?utente mediante una rete di telecomunicazioni.
In accordo con una forma di realizzazione del sistema, il dispositivo d?utente ? uno smartphone, dotato di telecamera, interfaccia (ad esempio di tipo ?touch?) e processore locale in cui ? memorizzata ed eseguita una applicazione (app) software. Tale app software ? configurata eseguire le suddette fasi di acquisire immagini e/o video digitali, consentire all?utente di confermare e/o correggere la lista di ingredienti, mostrare all?utente la lista di ricette, consentire all?utente di trasmettere i parametri associati alla ricetta all?apparato per cucinare il cibo.
In accordo con una forma di realizzazione del sistema, i suddetti mezzi di elaborazione remoti sono mezzi di elaborazione in cloud, comprendenti hardware e software configurati per svolgere le suddette fasi di: riconoscere la pluralit? di ingredienti sulla base dell?almeno una immagine digitale, predisporre e fornire all?utente una lista digitale di ingredienti automaticamente proposta, ricevere dall?utente la lista digitale di ingredienti definitiva, associare la lista di ingredienti definitiva ad una o pi? ricette, selezionare e/o stabilire una priorit? tra le ricette, fornire all?utente, la lista di ricette selezionate e/o ordinate in priorit?.
Secondo un?opzione implementativa, i mezzi di elaborazione in cloud comprendono uno o pi? server tra loro operativamente collegati.
Secondo un?opzione implementativa, un primo server ? configurato per svolgere le funzioni di ?image classification? e un secondo server ? configurato per svolgere la funzione di selezione ed ordinamento delle ricette disponibili in un database e associabili agli ingredienti riconosciuti.
Secondo una forma di realizzazione, il sistema comprende inoltre un elettrodomestico, atto a cucinare il cibo, operativamente collegato al dispositivo d?utente per ricevere parametri e/o comandi associati alla ricetta scelta mediante il suddetto metodo di identificazione di ricette, e configurato per cuocere o cucinare il cibo secondo i parametri e/o comandi ricevuti.
Come si pu? constatare, lo scopo della presente invenzione ? pienamente raggiunto dai metodi e dal sistema sopra illustrati, in virt? delle loro caratteristiche funzionali e strutturali.
Infatti, il metodo di predisposizione di una lista digitale di ingredienti sopra illustrato consente all?utente di riconoscere, tramite smartphone e app, una pluralit? di ingredienti di base per cibi, e di assiemare una conseguente lista digitale di ingredienti, in modo rapido e assistito, permettendo un agevole controllo e correzione dei risultati dell?algoritmo da parte dell?utente.
Inoltre, grazie all?interazione assistita con un flusso video digitale, l?utente pu? agevolmente e rapidamente selezionare una pluralit? di immagini di ingredienti, anche all?interno di un'unica ripresa video, e per di pi? fornendo diversi ausili per la selezione delle parti di inquadratura rilevanti da analizzare, contenenti le immagini degli ingredienti che si vogliono includere nella lista, e quindi per una acquisizione migliorata delle immagini (il che porta anche ad un miglioramento della precisione del successivo riconoscimento).
In aggiunta, come sopra illustrato, il metodo consente vantaggiosamente all?utente di operare un controllo e una verifica cumulativa sulla lista digitale di ingredienti proposta, per generare una lista definitiva, mediante una interazione semplice e veloce.
Sulla base del suddetto metodo di predisposizione di una lista digitale di ingredienti, l?invenzione consente di fornire anche un efficace metodo di identificazione di ricette, basato sulle correlazioni precedentemente illustrate tra lista di ingredienti e un insieme di ricette memorizzate.
Viene infine offerta all?utente la possibilit? di ricevere consigli di cottura relativi a ricette selezionate, e/o di inviare automaticamente comandi per l?elettrodomestico di cottura che siano ottimizzati per ottenere la ricetta selezionata tra quelle proposte.
Alle forme di realizzazione dei metodi e sistemi sopra descritti, un tecnico del ramo, per soddisfare esigenze contingenti, potr? apportare modifiche, adattamenti e sostituzioni di elementi con altri funzionalmente equivalenti, senza uscire dall'ambito delle seguenti rivendicazioni. Ognuna delle caratteristiche descritte come appartenente ad una possibile forma di realizzazione pu? essere realizzata indipendentemente dalle altre forme di realizzazione descritte.
Claims (29)
1. Metodo per predisporre una lista digitale di ingredienti per cibo, sulla base di un?interazione assistita con un utente, comprendente:
- acquisire almeno un flusso video digitale di uno o pi? rispettivi ingredienti per cibo, mediante un dispositivo d?utente;
- interagire con detto almeno un flusso video digitale, da parte dell?utente mediante il dispositivo di utente, per selezionare nel flusso video digitale almeno una immagine digitale di ognuno di detti uno o pi? ingredienti per cibo che si desiderano inserire nella lista digitale di ingredienti;
- riconoscere, mediante mezzi di elaborazione elettronica, una pluralit? di ingredienti sulla base dell?almeno una rispettiva immagine digitale selezionata dall?utente nel flusso video digitale;
- predisporre, mediante mezzi di elaborazione elettronica, una lista digitale di ingredienti proposta, comprendente l?elenco degli uno o pi? ingredienti riconosciuti mediante riconoscimento di immagine;
- fornire all?utente detta lista digitale di ingredienti proposta, tramite un?interfaccia digitale del dispositivo d?utente;
- confermare e/o correggere, da parte dell?utente, attraverso detta interfaccia digitale del dispositivo d?utente, detta lista digitale di ingredienti proposta, per predisporre una lista digitale di ingredienti definitiva.
2. Metodo secondo la rivendicazione 1, in cui la fase di acquisire comprende:
- acquisire un flusso video digitale inquadrato in tempo reale dall?utente, in cui l?utente inquadra in sequenza una pluralit? di ingredienti che desidera inserire nella lista digitale di ingredienti.
3. Metodo secondo la rivendicazione 1 o la rivendicazione 2, in cui la fase di interagire con il flusso video digitale comprende:
- assistere l?utente sovrapponendo al video digitale riquadri o maschere o segni che evidenziano parti dell?inquadratura associate a rispettivi ingredienti;
- indicare, da parte dell?utente, mediante selezione di detti riquadri o maschere o segni, le parti del flusso video corrispondenti agli ingredienti da riconoscere, in modo da selezionare le immagini digitali degli ingredienti da inserire nella lista di ingredienti.
4. Metodo secondo la rivendicazione 3, in cui detta fase di assistere l?utente comprende:
- riconoscere, da parte di un algoritmo di analisi di video/immagini, parti dell?inquadratura che, con alta probabilit?, rappresentano ingredienti candidati;
- assistere l?utente sovrapponendo al video digitale detti riquadri o maschere o segni di evidenziazione su dette parti dell?inquadratura riconosciute come rilevanti.
5. Metodo secondo la rivendicazione 4, in cui detta fase di riconoscere parti dell?inquadratura ? eseguita dal dispositivo d?utente, e detto algoritmo di analisi di video/immagini ? implementato mediante un software eseguito dal dispositivo d?utente.
6. Metodo secondo la rivendicazione 3, in cui detta fase di indicare comprende:
- identificare un?area dell?inquadratura video da analizzare tramite una interazione tattile, da parte dell?utente, di indicazione di un?area contenente un ingrediente candidato.
7. Metodo secondo una qualsiasi delle rivendicazioni 4-6, in cui detta fase di riconoscere parti dell?inquadratura che, con alta probabilit?, rappresentano ingredienti candidati viene svolta da uno o pi? algoritmi di analisi di video/immagini, basati su tecniche di intelligenza artificiale e/o algoritmi addestrati e/o machine learning.
8. Metodo secondo la rivendicazione 7 in cui dette tecniche di intelligenza artificiale e/o algoritmi addestrati e/o machine learning comprendono algoritmi addestrati di rilevazione di oggetti in una immagine.
9. Metodo secondo una qualsiasi delle rivendicazioni precedenti, in cui la fase di riconoscere una pluralit? di ingredienti comprende:
- trasmettere a mezzi di elaborazione remoti le immagini digitali che l?utente, entro il flusso video digitale, ha selezionato;
- effettuare su ciascuna di dette immagini digitali una procedura di riconoscimento immagine basata su tecniche di intelligenza artificiale e/o algoritmi addestrati e/o machine learning.
10. Metodo secondo la rivendicazione 9 in cui dette tecniche di intelligenza artificiale e/o algoritmi addestrati e/o machine learning comprendono algoritmi addestrati di riconoscimento di oggetti da immagine.
11. Metodo secondo la rivendicazione 8 o la rivendicazione 10, in cui detti algoritmi addestrati di rilevazione e/o di riconoscimento di oggetti da immagine comprendono reti neurali profonde addestrate.
12. Metodo secondo una qualsiasi delle rivendicazioni precedenti, comprendente inoltre, dopo la fase di riconoscere, l?ulteriore fase di stimare la quantit? di ingrediente riconosciuto presente nell?immagine.
13. Metodo secondo una qualsiasi delle rivendicazioni 7-12, comprendente inoltre la fase di trasmettere ai mezzi di elaborazione elettronica remoti ulteriori informazioni, tramite il dispositivo d?utente configurato per comunicare con detti mezzi di elaborazione remoti, dette ulteriori informazioni essendo inserite dall?utente attraverso l?interfaccia del dispositivo d?utente,
dette ulteriori informazioni comprendendo ulteriori ingredienti non inquadrati che l?utente desidera inserire nella lista, e/o ulteriori informazioni circa gli ingredienti inquadrati.
14. Metodo secondo la rivendicazione 11, in cui dette ulteriori informazioni circa gli ingredienti inquadrati comprendono quantit? e/o identificativo di prodotto e/o tipologia dell?ingrediente inquadrato.
15. Metodo secondo una qualsiasi delle rivendicazioni 13 o 14, in cui dette ulteriori informazioni sono inserite dall?utente come testo attraverso l?interfaccia del dispositivo d?utente.
16. Metodo secondo una qualsiasi delle rivendicazioni 13 o 14, in cui dette ulteriori informazioni sono inviate sotto forma di ulteriori immagini acquisite, ad esempio immagini di una confezione di prodotto,
dette ulteriori immagini acquisite essendo elaborate, ad esempio mediante OCR, per dedurre informazioni leggibili sul prodotto e/o confezione di prodotto.
17. Metodo secondo una qualsiasi delle rivendicazioni precedenti, in cui detta fase di confermare e/o correggere la lista digitale, da parte dell?utente, comprende editare la lista digitale, mediante l?interfaccia di dispositivo d?utente, per aggiungere e/o togliere e/o correggere ingredienti presenti nella lista.
18. Metodo per identificare una lista di ricette corrispondenti ad una pluralit? di ingredienti per cibo, comprendente:
- eseguire un metodo per predisporre una lista digitale di ingredienti per cibo secondo una qualsiasi delle rivendicazioni 1-17;
- associare, da parte di mezzi di elaborazione elettronica, detta lista di ingredienti definitiva ad una o pi? ricette contenenti uno o pi? degli ingredienti di detta lista;
- selezionare e/o stabilire una priorit? tra dette ricette sulla base di una comparazione tra il numero e/o la quantit? degli ingredienti della ricetta e il numero e/o la quantit? degli ingredienti della lista di ingredienti definitiva.
19. Metodo secondo la rivendicazione 18 comprendente l?ulteriore fase di:
- fornire all?utente, tramite l?interfaccia del dispositivo d?utente, una lista di ricette, comprendente le ricette selezionate e/o ordinate in priorit?.
20. Metodo secondo la rivendicazione 19, comprendente inoltre:
- scegliere, da parte dell?utente, una ricetta tra le ricette della lista di ricette, mediante l?interfaccia del dispositivo d?utente;
- trasmettere, attraverso il dispositivo d?utente, parametri associati alla ricetta scelta ad un apparato configurato per cucinare cibi.
21. Metodo secondo una qualsiasi delle rivendicazioni 18-20, in cui detta fase di associare comprende associare la lista di ingredienti definitiva ad una o pi? ricette memorizzate in un database di ricette accessibile da parte dei mezzi di elaborazione remoti.
22. Metodo secondo una qualsiasi delle rivendicazioni 18-21, in cui la fase di selezionare e/o stabilire una priorit? comprende selezionare e/o stabilire una priorit? pi? elevata per quelle ricette memorizzate che hanno il maggior numero di ingredienti in comune con la lista di ingredienti definitiva.
23. Metodo secondo la rivendicazione 22, in cui le ricette memorizzate comprendono un ingrediente principale e un ingrediente secondario ed in cui detta fase di selezionare e/o stabilire una priorit? comprende:
- ordinare la lista di ricette evidenziando per prime, con la pi? alta priorit?, le ricette per cui sia l?ingrediente primario che l?ingrediente secondario sono nella lista di ingredienti definitiva, riportando poi per seconde le ricette per cui il solo ingrediente primario ? nella lista di ingredienti definitiva, riportando per terze le ricette per cui il solo ingrediente secondario ? nella lista, e riportando infine, con la pi? bassa priorit?, tutte le ricette per cui c?? sovrapposizione fra gli ingredienti della ricetta e gli ingredienti della lista definitiva di ingredienti.
24. Metodo secondo una qualsiasi delle rivendicazioni 18-23, in cui le ricette selezionate fornite all?utente sono ordinate secondo la priorit? stabilita.
25. Metodo secondo una qualsiasi delle rivendicazioni precedenti, in cui le ricette selezionate fornite all?utente comprendono parametri di cottura e/o informazioni su come cucinare la ricetta.
26. Metodo secondo una qualsiasi delle rivendicazioni 19-25, comprendente, prima della fase di fornire all?utente la lista di ricette, l?ulteriore fase di filtrare le ricette in accordo con un predefinito criterio, generando una lista filtrata di ricette, in cui detto predefinito criterio ? relativo a portata e/o occasione e/o intolleranze e/o tempo di cottura e/o difficolt? di realizzazione,
ed in cui la fase di fornire comprende fornire all?utente detta lista filtrata di ricette.
27. Metodo secondo una qualsiasi delle rivendicazioni precedenti, in cui detto dispositivo d?utente ? uno smartphone, dotato di telecamera, interfaccia touch e processore locale in cui ? memorizzata ed eseguita una app software in grado di eseguire dette fasi di acquisire immagini e/o video digitali, consentire all?utente di confermare e/o correggere la lista di ingredienti, mostrare all?utente la lista di ricette, consentire all?utente di trasmettere i parametri associati alla ricetta all?apparato per cucinare il cibo.
28. Metodo secondo una qualsiasi delle rivendicazioni precedenti, in cui detti mezzi di elaborazione remoti sono mezzi di elaborazione in cloud, comprendenti hardware e software configurati per svolgere dette fasi di:
- riconoscere la pluralit? di ingredienti sulla base dell?almeno una immagine digitale, predisporre e fornire all?utente una lista digitale di ingredienti automaticamente proposta, ricevere dall?utente la lista digitale di ingredienti definitiva, associare la lista di ingredienti definitiva ad una o pi? ricette, selezionare e/o stabilire una priorit? tra le ricette, fornire all?utente, la lista di ricette selezionate e/o ordinate in priorit?.
29. Metodo per controllare un apparato di cottura per cucinare un cibo, comprendente:
- eseguire un metodo per identificare una lista di ricette corrispondenti ad una pluralit? di ingredienti per cibo secondo una qualsiasi delle rivendicazioni 18-28;
- scegliere, da parte dell?utente, una ricetta tra le ricette della lista di ricette, mediante l?interfaccia del dispositivo d?utente;
- trasmettere, attraverso il dispositivo d?utente, parametri associati alla ricetta scelta all?apparato configurato per cucinare cibi.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| IT102021000022754A IT202100022754A1 (it) | 2021-09-02 | 2021-09-02 | Metodo per predisporre una lista digitale di ingredienti per cibo e metodo per identificare una lista di ricette corrispondenti ad una pluralità di ingredienti per cibo |
| EP22193058.9A EP4145258A1 (en) | 2021-09-02 | 2022-08-31 | Method for preparing a digital list of food ingredients and method for identifying a list of recipes corresponding to a plurality of food ingredients |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| IT102021000022754A IT202100022754A1 (it) | 2021-09-02 | 2021-09-02 | Metodo per predisporre una lista digitale di ingredienti per cibo e metodo per identificare una lista di ricette corrispondenti ad una pluralità di ingredienti per cibo |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| IT202100022754A1 true IT202100022754A1 (it) | 2023-03-02 |
Family
ID=78770913
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| IT102021000022754A IT202100022754A1 (it) | 2021-09-02 | 2021-09-02 | Metodo per predisporre una lista digitale di ingredienti per cibo e metodo per identificare una lista di ricette corrispondenti ad una pluralità di ingredienti per cibo |
Country Status (2)
| Country | Link |
|---|---|
| EP (1) | EP4145258A1 (it) |
| IT (1) | IT202100022754A1 (it) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN119715524B (zh) * | 2024-12-10 | 2025-09-30 | 华南理工大学 | 基于图像深度学习的菜品成熟度定性定量检测方法及系统 |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20190001288A1 (en) * | 2017-06-30 | 2019-01-03 | Vita-Mix Management Corporation | Intelligent blending system |
| EP3509014A1 (en) * | 2018-01-05 | 2019-07-10 | Whirlpool Corporation | Detecting objects in images |
| US20210049422A1 (en) * | 2019-08-16 | 2021-02-18 | Lg Electronics Inc. | Artificial intelligence server |
-
2021
- 2021-09-02 IT IT102021000022754A patent/IT202100022754A1/it unknown
-
2022
- 2022-08-31 EP EP22193058.9A patent/EP4145258A1/en active Pending
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20190001288A1 (en) * | 2017-06-30 | 2019-01-03 | Vita-Mix Management Corporation | Intelligent blending system |
| EP3509014A1 (en) * | 2018-01-05 | 2019-07-10 | Whirlpool Corporation | Detecting objects in images |
| US20210049422A1 (en) * | 2019-08-16 | 2021-02-18 | Lg Electronics Inc. | Artificial intelligence server |
Also Published As
| Publication number | Publication date |
|---|---|
| EP4145258A1 (en) | 2023-03-08 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN112418390B (zh) | 使用单调属性函数对图像进行对比解释 | |
| JP7065199B2 (ja) | 画像処理方法及び装置、電子機器、記憶媒体並びにプログラム製品 | |
| US8948500B2 (en) | Method of automatically training a classifier hierarchy by dynamic grouping the training samples | |
| US8819015B2 (en) | Object identification apparatus and method for identifying object | |
| US20150278710A1 (en) | Machine learning apparatus, machine learning method, and non-transitory computer-readable recording medium | |
| WO2019176991A1 (ja) | アノテーション方法、アノテーション装置、アノテーションプログラム及び識別システム | |
| KR102318931B1 (ko) | 폐의류를 활용한 의류 리사이클링 방법 | |
| CN113723288A (zh) | 基于多模态混合模型的业务数据处理方法及装置 | |
| JP6577397B2 (ja) | 画像解析装置、画像解析方法、画像解析プログラム、および画像解析システム | |
| KR20160070379A (ko) | 객체 분류 방법 및 그 장치 | |
| US20200057948A1 (en) | Automatic prediction system, automatic prediction method and automatic prediction program | |
| US20180373764A1 (en) | Information processing system, descriptor creation method, and descriptor creation program | |
| JP2020004360A (ja) | 多変数データシーケンスの画像化 | |
| US11023712B2 (en) | Suspiciousness degree estimation model generation device | |
| IT202100022754A1 (it) | Metodo per predisporre una lista digitale di ingredienti per cibo e metodo per identificare una lista di ricette corrispondenti ad una pluralità di ingredienti per cibo | |
| US20170242661A1 (en) | Module Division Assistance Device, Module Division Assistance Method, and Module Division Assistance Program | |
| US10460155B2 (en) | Facial identification techniques | |
| US20180005089A1 (en) | Information processing apparatus, method and computer program product | |
| KR20170081887A (ko) | 인공 신경망에서 컨벌루션을 이용한 최종 정답 결정 방법 | |
| CN113793326A (zh) | 一种基于图像的疾病识别方法和装置 | |
| WO2021198773A1 (en) | Methods and systems to train artificial intelligence modules | |
| JP2019095932A (ja) | 異常判定方法及び装置 | |
| JP2015001859A (ja) | 情報処理装置、情報処理システム及びプログラム | |
| WO2024036374A1 (en) | Methods and systems for automated analysis of medical images | |
| CN114005010A (zh) | 一种任务处理方法、装置、设备及存储介质 |