EP4345380A1 - Gargerät und verfahren zum betreiben eines gargeräts - Google Patents

Gargerät und verfahren zum betreiben eines gargeräts Download PDF

Info

Publication number
EP4345380A1
EP4345380A1 EP23195032.0A EP23195032A EP4345380A1 EP 4345380 A1 EP4345380 A1 EP 4345380A1 EP 23195032 A EP23195032 A EP 23195032A EP 4345380 A1 EP4345380 A1 EP 4345380A1
Authority
EP
European Patent Office
Prior art keywords
image
food
cooking
cooking appliance
property
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP23195032.0A
Other languages
English (en)
French (fr)
Inventor
Helge Nelson
Francisco Villoria Domingues
Alexandrine Ziethen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Miele und Cie KG
Original Assignee
Miele und Cie KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Miele und Cie KG filed Critical Miele und Cie KG
Publication of EP4345380A1 publication Critical patent/EP4345380A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24CDOMESTIC STOVES OR RANGES ; DETAILS OF DOMESTIC STOVES OR RANGES, OF GENERAL APPLICATION
    • F24C7/00Stoves or ranges heated by electric energy
    • F24C7/08Arrangement or mounting of control or safety devices
    • F24C7/082Arrangement or mounting of control or safety devices on ranges, e.g. control panels, illumination
    • F24C7/085Arrangement or mounting of control or safety devices on ranges, e.g. control panels, illumination on baking ovens

Definitions

  • the invention relates to a cooking appliance and a method for operating a cooking appliance.
  • Cooking devices which have time-controlled automatic programs and sensor-controlled programs to improve a cooking process.
  • multispectral cameras with high spectral resolution are known, which can provide detailed spectral information through the use of many narrow-band filters.
  • the filters are also an important difference to cameras in the spectral range visible to humans or RGB (red-green-blue) cameras.
  • RGB red-green-blue
  • a multispectral camera can distinguish between green tones from the green spectral range and a mixed green from blue and yellow, which the human eye and RGB cameras cannot. Since the reflection in certain spectral ranges indicates the ingredients, this filter width is important. This applies to the visible and extended spectral range, especially near-infrared and infrared.
  • the invention has for its object to provide an improved cooking appliance and an improved method for operating a cooking appliance.
  • a cooking device is created that can reliably and quickly capture a food item to be cooked using two image capture devices. An evaluation of the food to be cooked can also be carried out quickly and reliably.
  • a cooking device for cooking food has a first image capture device, a second image capture device and an evaluation device.
  • the first image capture device is designed to capture a first image of a food item in the cooking device in a spectral range visible to humans.
  • the second image capture device is designed to capture a second image of the food item in the cooking device in at least one further narrow-band spectral range, preferably extending beyond the visible spectral range.
  • the evaluation device is designed to to determine at least one property of the captured food using the first and second images and to provide a property signal representing the property.
  • the cooking appliance can be an oven or a microwave oven or a similar cooking appliance. Even if the approach described is based on a household appliance, the cooking appliance described here can be used in conjunction with a commercial or professional device, for example a catering appliance.
  • the first image capture device and the second image capture device can be arranged adjacent to one another in a cooking chamber of the cooking appliance.
  • the two image capture devices share the same lens, so that the images are identical in image size and detail. This can be achieved by splitting the beam between the two image capture devices only after the lens. This saves effort for image processing, i.e. image overlay, using software with a certain amount of computing effort and additional components such as required lenses.
  • the images can be captured simultaneously by the image capture devices.
  • the evaluation device can be connected to the image capture devices in a way that is capable of transmitting signals. Image data representing the images can be transmitted in the form of electrical image signals.
  • the evaluation device can be designed to determine the properties of the food being cooked by evaluating the images separately or together. For example, the evaluation device can be designed to combine image information included in the images and to evaluate the combined image information.
  • the properties of the captured food being cooked can be a type and/or a state of the food being cooked. In this way, for example, a distinction can be made between meat and vegetables or between a raw state and a cooked state.
  • the first image capture device can be designed as an RGB camera. This allows the red, green and blue channels to be evaluated by the evaluation device.
  • the RGB camera can advantageously capture and reproduce colors very well and is also cost-effective even at high resolution.
  • the second image capture device can be designed as a multispectral camera.
  • the multispectral camera can have a plurality, for example ten, narrow-band spectral channels.
  • the multispectral camera can advantageously record images with a very high information content and thus enable conclusions to be drawn about food properties.
  • the second image capture device can be designed to capture the second image in an ultraviolet and additionally or alternatively in an infrared spectral range.
  • the ultraviolet spectral range can include a spectral range of around 350 nanometers
  • the infrared spectral range can include a spectral range of around 1,000 nanometers.
  • the range from 650 nm to 2500 nm, near infrared, infrared and far infrared is generally of interest.
  • the second image capture device can have a lower image resolution than the first image capture device, in particular at least ten times lower image resolution.
  • the second image capture device can have an image resolution of 64 x 64 pixels and the first image capture device can have an image resolution of 1,000 x 1,000 pixels. Costs can be saved due to the lower image resolution of the second image capture device.
  • the evaluation device can be designed to determine a superimposed image using the first and second images and to determine the at least one property using the superimposed image. Such an overlay is particularly useful if the second image has a lower resolution than the first image.
  • the second image capture device can have a movable mirror for scanning the food being cooked.
  • MEMS micromirror actuators
  • the second image can thus be captured using the mirror.
  • the low resolution of an image sensor of the second image capture device can thus be compensated for cost-effectively.
  • the first image capture device and/or the second image capture device can be designed to capture at least one further image of the food being cooked.
  • the evaluation device can be designed to determine the at least one property of the captured food being cooked using at least one of the further images.
  • an end of a cooking time for the food being cooked can be determined by evaluating a plurality of images. Differences between the images can be evaluated, from which, for example, differences in the cooking state and the food properties can be identified.
  • the evaluation device can be designed to use the first image to determine a shape and additionally or alternatively a movement of the food to be cooked as the property. This means the food to be cooked can be reliably determined. This can be done by the Edges, movement and/or fluctuation of the food shown in images are evaluated.
  • the evaluation device can be designed to determine ingredients of the food to be cooked as the property using the second image. This means that the condition of the food to be cooked can be reliably determined, for example whether the food to be cooked is frozen or thawed.
  • the evaluation device can be designed to determine a cooking state of the food to be cooked as the property using the first image and the second image.
  • the cooking process can be adjusted using the cooking state. This can increase user satisfaction because a reliable cooking result can be achieved.
  • the cooking device can also save time, as a corresponding cooking program can be suggested to the user based on the food recorded. By using these assistance functions, large amounts of energy can be saved when cooking.
  • the evaluation device can be designed to use the property signal to determine a control signal for activating a cooking program of the cooking appliance suitable for cooking the food to be cooked and/or for ending a cooking program.
  • a cooking program suitable for the detected food can be selected and controlled based on the specific property of the food to be cooked.
  • a cooking program can be ended when the evaluation device determines the finished cooking state of the food as the property.
  • a method for operating an embodiment of a cooking appliance mentioned herein includes reading in the first image via an interface to the first image capture device, reading in the second image via an interface to the second image capture device, determining the property of the captured food to be cooked using the first image and the second image, and providing the property signal that represents the property of the detected food to be cooked.
  • the first image capture device can be used in the method to capture a high-resolution image that is appealing to humans, in particular by evaluating the number and position of the items being cooked.
  • the second image capture device can capture the spectral properties of these image areas identified for the items being cooked and can be used in particular to classify the items being cooked.
  • FIG. 1 shows a schematic representation of an exemplary embodiment of a cooking appliance 100 for cooking food.
  • the cooking appliance 100 is designed, for example, as an oven.
  • the cooking appliance 100 is shown in an open state, so that a cooking space 105 is shown.
  • a food item 110 is arranged, for example on a food support 118.
  • the food item 110 is a food item, for example a pizza or a cake.
  • the cooking appliance 100 has, for example, an upper heating element 115 and a lower heating element 120 for cooking the food 110.
  • the cooking appliance 100 has a circulating air fan 125, also for cooking the food 110.
  • the cooking appliance 100 has a different type of heating device, for example in the form a microwave device.
  • the cooking appliance 100 has a first image capture device 130, a second image capture device 135 and an evaluation device 140.
  • the image capture devices 130, 135 are arranged adjacent to one another, for example on a ceiling of the cooking chamber 105, here in the area of the upper heating element 115, so that the image capture devices 130, 135 can capture the area of the food carrier 118 and thus a food 110 to be cooked in the cooking appliance 100.
  • the image capture devices 130, 135 are each designed to capture an image of the food 110 to be cooked.
  • the captured images are subsequently evaluated by the evaluation device 140.
  • the image capture devices 130, 135 are connected to the evaluation device 140 in a signal-transmitting manner.
  • the first image capture device 130 is designed, for example, as an RGB camera and captures a first image of the food 110 to be cooked in a spectral range that is visible to humans.
  • the second image capture device 135 is designed, for example, as a multispectral camera and captures a second image of the food 110 to be cooked in a further spectral range, which is at least partially outside the visible spectral range.
  • the second image capture device 135 has a lower image resolution than the first image capture device 130.
  • the second image capture device 135 optionally has a movable mirror 150 for scanning the cooking chamber 105 in order to be able to at least partially compensate for the lower resolution of an image sensor of the second image capture device 135 .
  • the images of the food 110 to be cooked are captured, for example, by the image capture devices 130, 135 at the same time or with a short time interval.
  • the images are evaluated in the evaluation device 140.
  • the images are combined to create a superimposed image and then the superimposed image is evaluated.
  • at least one property of the recorded food 110 is determined in the evaluation device 140.
  • a shape and/or a movement of the food 110 to be cooked is determined.
  • ingredients of the food 110 to be cooked are determined.
  • a cooking program can be displayed to the user on a display device on the cooking appliance 100.
  • the evaluation device 140 evaluates the food 110 to be cooked as a pizza based on the images.
  • a corresponding cooking program for example a pizza cooking program, is then suggested or started to the user.
  • a cooking state of the food 110 can be determined by the image capture devices 130, 135 again capturing images of the food 110, which are evaluated by the evaluation device 140.
  • an end to the cooking time can be determined.
  • the degree of browning of the pizza is recorded during the cooking process. If the degree of browning of the pizza reaches a predetermined state, for example a local or global maximum, the cooking process is automatically ended, for example.
  • the approach presented here comprises a combination of the following components: the first image capture device 130, which can also be referred to as a high-resolution RGB camera, the second image capture device 135, which can also be referred to as a multispectral camera, and the evaluation device 140, which can also be referred to as electronic evaluation via a device control.
  • the first image capture device 130 has, for example, an image resolution of 1000 x 1000 pixels, with only the three channels red, green and blue being evaluated by the evaluation device 140 in a broadband manner in the visible spectrum, according to one exemplary embodiment.
  • the second image capture device 135 has, for example, ten narrow-band spectral channels between 350 and 1000 nanometers, with a significantly lower resolution of for example 64 x 64 pixels.
  • the second image capture device 135 is designed to record images with significantly more information content than the first image capture device 130 through the individually resolved broadband spectral ranges.
  • the chemical composition of the observed object is inferred via a spectral evaluation, for example.
  • Applications for food include evaluation of the water content, for example in chocolate cake, which does not brown due to its dark color, evaluation of ingredients such as water, fat, carbohydrates and monitoring of crust formation through chemical conversion, for example in bread.
  • the evaluation device 140 is designed to combine the information from both images.
  • the pixel-by-pixel superimposition of the images is critical in order to assign the spectral information to the correct areas of the RGB image. This makes it possible to record a high-resolution image with sufficient broadband spectral information at minimal cost.
  • the high resolution of the first image which can also be referred to as an RGB image, enables good object recognition including edge evaluation, movement evaluation and/or fluctuation evaluation.
  • the additional spectral information from the second image capture device 135 allows conclusions to be drawn about the ingredients and thus better fulfillment of the automation task.
  • An evaluation of the second image which can also be referred to as a multispectral image, allows the objects in the first image to be identified or classified. Objects that look similar can be distinguished from one another or identified based on their spectral signature. This means that even complex or combined dishes can be classified perfectly and the appropriate cooking program can be suggested.
  • a possible alternative is to combine the second image capture device 135 with mechanical scanning via movable mirrors (150). This is also a cost-effective way to improve the resolution.
  • a corresponding automation task can be carried out using the described camera system consisting of the first image capture device 130 and the second
  • Image capture device 135 solve very well. It is a cost-optimized solution.
  • the classification of food items and the automatic detection of the optimal cooking end time are possible, for example, for complex or composite items such as fries with fish fingers or meat, vegetables and/or side dishes.
  • the approach presented here also enables the cooking parameters to be adjusted during the ongoing cooking process, for example an addition of moisture if drying out of the surface of the food to be cooked is detected, for example when regenerating food. More precisely, it is possible to change the target temperature to ensure gentler or slower browning towards the end of the cooking process. Additionally or alternatively, it is possible to change the type of heating according to set times in the detected cooking progress.
  • the approach presented here can be used for all cooking appliances or household appliances with optical monitoring, for example a camera.
  • FIG 2 shows a flow chart of an embodiment of a method 200 for operating a cooking appliance.
  • the cooking appliance is similar or corresponds to the cooking appliance from Figure 1 .
  • the method 200 for operating an embodiment of a cooking appliance mentioned herein comprises a step 205 of reading in a first image, for example using a first image signal, a step 210 of reading in a second image, for example using a second image signal, a step 215 of determining a property of the food to be cooked using the read in images and a step of providing a property signal representing the property.
  • the first image is read in step 205 of reading in via an interface to a first image capture device.
  • the first image represents the food to be cooked in the cooking appliance in a spectral range visible to humans.
  • the second image is read in step 210 of reading in via an interface to a second image capture device.
  • the second image represents the food being cooked in the cooking appliance in at least one additional spectral range lying outside the visible spectral range.
  • the property is provided in step 215 of determining using the first image and the second image, for example using a combination of the images.
  • the property signal represents a property of the captured food being cooked. Steps 205, 210, 215, 220 can be carried out repeatedly in order to read in additional images captured by at least one of the image capture devices and to use them to more accurately determine the property or to determine an updated property.
  • Figure 3 shows a block diagram of an evaluation device 140 for an exemplary embodiment of a cooking appliance.
  • the evaluation device 140 is similar to or corresponds to the evaluation device from the figures described above.
  • the evaluation device 140 is designed to read in a first image 305, for example in the form of a first image signal, and a second image 315, for example in the form of a second image signal, via suitable interfaces.
  • the first image 305 represents a recording of the food being cooked in the cooking appliance in a spectral range visible to humans.
  • the second image 315 represents a recording of the same food being cooked in the cooking appliance in a further spectral range lying outside the visible spectral range.
  • the evaluation device 140 is designed to determine at least one property of the food being cooked using the read-in images and to provide a property signal 325 representing the property.
  • the property signal 325 is read in by a control device 330.
  • the control device 330 is designed to determine and output a control signal 335 for controlling the cooking appliance using the property signal 325.

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Electric Ovens (AREA)

Abstract

Die Erfindung betrifft ein Gargerät (100) zum Garen von Lebensmitteln. Das Gargerät (100) weist eine erste Bilderfassungseinrichtung (130), eine zweite Bilderfassungseinrichtung (135) und eine Auswerteeinrichtung (140) auf. Die erste Bilderfassungseinrichtung (130) ist ausgebildet, um ein erstes Bild eines Garguts (110) in dem Gargerät (100) in einem für den Menschen sichtbaren Spektralbereich zu erfassen. Die zweite Bilderfassungseinrichtung (135) ist ausgebildet, um ein zweites Bild des Garguts (110) in dem Gargerät (100) in mindestens einem weiteren schmalbandigen Spektralbereich zu erfassen. Die Auswerteeinrichtung (140) ist ausgebildet, um unter Verwendung des ersten und zweiten Bildes zumindest eine Eigenschaft des erfassten Garguts (110) zu bestimmen und ein die Eigenschaft repräsentierendes Eigenschaftssignal bereitzustellen.

Description

  • Die Erfindung betrifft ein Gargerät und ein Verfahren zum Betreiben eines Gargeräts.
  • Es sind Gargeräte bekannt, die zur Verbesserung eines Garprozesses zeitgesteuerte Automatikprogramme und sensorgesteuerte Programme aufweisen. Im Industriebereich und Agrarbereich sind multispektrale Kameras mit großer spektraler Auflösung bekannt, welche durch die Verwendung vieler schmalbandiger Filter detaillierte Spektralinformationen liefern können.
  • Neben dem Spektralbereich sind auch die Filter ein wichtiger Unterschied zu Kameras im für den Menschen sichtbaren Spektralbereich bzw. RGB-(Rot-Grün-Blau) Kameras. Zum Beispiel kann eine Multispektralkamera zwischen Grüntönen aus dem grünen Spektralbereich und einem gemischten Grün aus Blau und Gelb unterscheiden, was das menschliche Auge und auch RGB-Kameras nicht können. Da die Reflektion in bestimmten Spektralbereichen auf die Inhaltsstoffe schließen lassen, ist diese Filterbreite wichtig. Das gilt für den sichtbaren und den erweiterten Spektralbereich, insbesondere Nahinfrarot und Infrarot.
  • Der Erfindung stellt sich die Aufgabe, ein verbessertes Gargerät und ein verbessertes Verfahren zum Betreiben eines Gargeräts zu schaffen.
  • Erfindungsgemäß wird diese Aufgabe durch ein Gargerät und ein Verfahren zum Betreiben eines Gargeräts mit den Merkmalen der Hauptansprüche gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen der Erfindung ergeben sich aus den nachfolgenden Unteransprüchen.
  • Die mit der Erfindung erreichbaren Vorteile bestehen darin, dass ein Gargerät geschaffen wird, das mittels zweier Bilderfassungseinrichtungen ein Gargut zuverlässig und schnell erfassen kann. Eine Auswertung des Garguts kann ebenfalls schnell und zuverlässig erfolgen.
  • Ein Gargerät zum Garen von Lebensmitteln weist eine erste Bilderfassungseinrichtung, eine zweite Bilderfassungseinrichtung und eine Auswerteeinrichtung auf. Die erste Bilderfassungseinrichtung ist ausgebildet, um ein erstes Bild eines Garguts in dem Gargerät in einem für den Menschen sichtbaren Spektralbereich zu erfassen. Die zweite Bilderfassungseinrichtung ist ausgebildet, um ein zweites Bild des Garguts in dem Gargerät in mindestens einem weiteren schmalbandigen, vorzugweise über sichtbaren Spektralbereich hinausgehenden Spektralbereich zu erfassen. Die Auswerteeinrichtung ist ausgebildet, um unter Verwendung des ersten und zweiten Bildes zumindest eine Eigenschaft des erfassten Garguts zu bestimmen und ein die Eigenschaft repräsentierendes Eigenschaftssignal bereitzustellen.
  • Bei dem Gargerät kann es sich um einen Backofen oder einen Mikrowellenherd oder um ein ähnliches Gargerät handeln. Auch wenn der beschriebene Ansatz anhand eines Haushaltgeräts beschrieben wird, kann das hier beschriebe Gargerät entsprechend im Zusammenhang mit einem gewerblichen oder professionellen Gerät, beispielsweise einem Gastronomiegerät eingesetzt werden. Die erste Bilderfassungseinrichtung und die zweite Bilderfassungseinrichtung können benachbart zueinander in einem Garraum des Gargeräts angeordnet sein. In einer besonders vorteilhaften und kostengünstigen Ausführung teilen sich die beiden Bilderfassungseinrichtungen dasselbe Objektiv, sodass die Abbildungen in Bildgröße und -Ausschnitt identisch sind. Dies kann erreicht werden, indem die Strahlaufteilung auf die beiden Bilderfassungseinrichtungen erst nach dem Objektiv erfolgt. Dadurch werden Aufwände für die Bildverarbeitung, d.h. Bildüberlagerung, durch eine Software mit bestimmtem Rechenaufwand und zusätzlich Bauteile wir beispielsweise benötigte Linsen eingespart.
  • Die Bilder können zeitgleich von den Bilderfassungseinrichtungen erfasst werden. Die Auswerteeinrichtung kann signalübertragungsfähig mit den Bilderfassungseinrichtungen verbunden sein. Die Bilder repräsentierende Bilddaten können in Form von elektrischen Bildsignalen übertragen werden. Die Auswerteeinrichtung kann ausgebildet sein, um die Eigenschaft des Garguts durch eine separate oder gemeinsame Auswertung der Bilder zu bestimmen. Beispielsweise kann die Auswerteeinrichtung ausgebildet sein, um von den Bildern umfasste Bildinformationen zu kombinieren und die kombinierten Bildinformationen auszuwerten. Bei der Eigenschaft des erfassten Garguts kann es sich um eine Art und/oder einen Zustand des Garguts handeln. Auf diese Weise kann beispielsweise zwischen Fleisch und Gemüse oder zwischen einem Rohzustand und einem gegarten Zustand unterschieden werden.
  • Die erste Bilderfassungseinrichtung kann als eine RGB-Kamera ausgebildet sein Dadurch können von der Auswerteeinrichtung die Kanäle Rot, Grün und Blau ausgewertet werden. Vorteilhafterweise kann die RGB-Kamera Farben sehr gut erfassen und wiedergeben und ist zudem auch bei hoher Auflösung kostengünstig.
  • Die zweite Bilderfassungseinrichtung kann als eine Multispektralkamera ausgebildet sein. Dabei kann die Multispektralkamera eine Mehrzahl, beispielsweise zehn schmalbandige spektrale Kanäle aufweisen. Vorteilhafterweise kann die Multispektralkamera Bilder mit einem sehr hohen Informationsgehalt aufnehmen und dadurch Rückschlüsse auf Lebensmitteleigenschaften ermöglichen.
  • Die zweite Bilderfassungseinrichtung kann ausgebildet sein, um das zweite Bild in einem ultravioletten und zusätzlich oder alternativ in einem infraroten Spektralbereich zu erfassen. Der ultraviolette Spektralbereich kann einen Spektralbereich um 350 Nanometer umfassen, der infrarote Spektralbereich kann einen Spektralbereich um 1.000 Nanometer umfassen. Interessant ist grundsätzlich der Bereich von 650 nm bis 2500 nm, Nahinfrarot, Infrarot und Ferninfrarot.
  • Die zweite Bilderfassungseinrichtung kann eine niedrigere Bildauflösung als die erste Bilderfassungseinrichtung aufweisen, insbesondere eine zumindest zehnmal niedrigere Bildauflösung. Beispielsweise kann die zweite Bilderfassungseinrichtung eine Bildauflösung von 64 x 64 Pixel aufweisen und die erste Bilderfassungseinrichtung eine Bildauflösung von 1.000 x 1.000 Pixel aufweisen. Durch die niedrigere Bildauflösung der zweiten Bilderfassungseinrichtung können Kosten eingespart werden.
  • Die Auswerteeinrichtung kann ausgebildet sein, um unter Verwendung des ersten und zweiten Bildes ein überlagertes Bild zu ermitteln und die zumindest eine Eigenschaft unter Verwendung des überlagerten Bilds zu bestimmen. Eine solche Überlagerung bietet sich insbesondere dann an, wenn das zweite Bild eine geringere Auflösung als das erste Bild aufweist.
  • Die zweite Bilderfassungseinrichtung kann einen beweglichen Spiegel zum Abtasten des Garguts aufweisen. Dafür können beispielweise Mikrospiegelaktoren (MEMS) verwendet werden, grundsätzlich sind aber alle bekannten Techniken einsetzbar, etwa wie von Beamern/Projektoren bekannt sind. Somit kann das zweite Bild unter Verwendung des Spiegels erfasst werden. Somit kann die niedrige Auflösung eines Bildsensors der zweiten Bilderfassungseinrichtung kostengünstig ausgeglichen werden.
  • Die erste Bilderfassungseinrichtung und/oder die zweite Bilderfassungseinrichtung können ausgebildet sein, um zumindest je ein weiteres Bild des Garguts zu erfassen. Dabei kann die Auswerteeinrichtung ausgebildet sein, um unter Verwendung zumindest eines der weiteren Bilder die zumindest eine Eigenschaft des erfassten Garguts zu bestimmen. Somit kann beispielsweise ein Ende einer Garzeit für das Gargut bestimmt werden, indem eine Mehrzahl von Bildern ausgewertet wird. Dabei können Unterschiede zwischen den Bildern ausgewertet werden, aus denen sich beispielsweise Unterschiede des Garzustands und den Garguteigenschaften erkennen lassen.
  • Die Auswerteeinrichtung kann ausgebildet sein, um unter Verwendung des ersten Bildes eine Form und zusätzlich oder alternativ eine Bewegung des Garguts als die Eigenschaft zu bestimmen. Somit kann das Gargut zuverlässig bestimmt werden. Dabei können von den Bildern abgebildete Kanten, Bewegung und/oder Fluktuation des Garguts ausgewertet werden.
  • Die Auswerteeinrichtung kann ausgebildet sein, um unter Verwendung des zweiten Bildes Inhaltsstoffe des Garguts als die Eigenschaft zu bestimmen. Somit kann ein Zustand des Garguts zuverlässig ermittelt werden, beispielsweise ob das Gargut gefroren oder aufgetaut ist.
  • Die Auswerteeinrichtung kann ausgebildet sein, um unter Verwendung des ersten Bildes und des zweiten Bildes einen Garzustand des Garguts als die Eigenschaft zu bestimmen. Vorteilhafterweise kann der Garprozess unter Verwendung des Garzustandes angepasst werden. Dadurch kann die Nutzerzufriedenheit erhöht werden, da ein zuverlässiges Garergebnis erzielt werden kann. Auch kann das Gargerät für eine Zeitersparnis sorgen, da dem Nutzer aufgrund des erfassten Garguts ein entsprechendes Garprogramm vorgeschlagen werden kann. Durch den Einsatz dieser Assistenzfunktionen können große Mengen Energie beim Garen eingespart werden.
  • Die Auswerteeinrichtung kann ausgebildet sein, um unter Verwendung des Eigenschaftssignals ein Steuersignal zum Aktivieren eines zum Garen des Garguts geeigneten Garprogramms des Gargeräts und/oder zum Beenden eines Garprogramms zu bestimmen. Vorteilhafterweise kann basierend auf der bestimmten Eigenschaft des Garguts ein für das erfasste Gargut passendes Garprogramm ausgewählt und angesteuert werden. Ferner kann ein Garprogramm beendet werden, wenn die Auswerteeinrichtung als die Eigenschaft einen fertigen Garzustand des Garguts bestimmt.
  • Ein Verfahren zum Betreiben einer Ausführungsform eines hierin genannten Gargeräts umfasst ein Einlesen des ersten Bilds über eine Schnittstelle zu der ersten Bilderfassungseinrichtung, ein Einlesen des zweiten Bilds über eine Schnittstelle zu der zweiten Bilderfassungseinrichtung, ein Bestimmen der Eigenschaft des erfassten Garguts unter Verwendung des ersten Bilds und des zweiten Bilds, und ein Bereitstellen des Eigenschaftssignals, das die Eigenschaft des erfassten Garguts repräsentiert.
  • Durch die erste Bilderfassungseinrichtungen kann in dem Verfahren insbesondere ein für den Menschen ansprechendes hochaufgelöstes Bild erfasst werden, indem vor allem die Anzahl und Position der Gargüter ausgewertet werden. Durch die zweite Bilderfassungseinrichtung können die spektralen Eigenschaften dieser für die Gargüter identifizierten Bildbereiche erfasst werden und insbesondere für eine Klassifikation der Gargüter genutzt werden.
  • Ein Ausführungsbeispiel der Erfindung ist in den Zeichnungen rein schematisch dargestellt und wird nachfolgend näher beschrieben. Es zeigt
  • Figur 1
    eine schematische Darstellung eines Ausführungsbeispiels eines Gargeräts;
    Figur 2
    ein Ablaufdiagramm eines Ausführungsbeispiels eines Verfahrens zum Betreiben eines Gargeräts; und
    Figur 3
    ein Blockschaltbild einer Auswerteeinrichtung für ein Ausführungsbeispiel eines Gargeräts.
  • Figur 1 zeigt eine schematische Darstellung eines Ausführungsbeispiels eines Gargeräts 100 zum Garen von Lebensmitteln. Das Gargerät 100 ist beispielsweise als ein Backofen ausgebildet.
  • Das Gargerät 100 ist in einem geöffneten Zustand dargestellt, sodass ein Garraum 105 gezeigt ist. Innerhalb des Garraums 105 ist beispielhaft ein Gargut 110 angeordnet, beispielsweise auf einem Gargutträger 118. Bei dem Gargut 110 handelt es sich um ein Lebensmittel, beispielsweise eine Pizza oder einen Kuchen. Das Gargerät 100 weist zum Garen des Garguts 110 beispielsweise ein Oberheizelement 115 und ein Unterheizelement 120. Zusätzlich weist das Gargerät 100 ein Umluftgebläse 125 auf, ebenfalls zum Garen des Garguts 110. Alternativ oder zusätzlich weist das Gargerät 100 eine andersartige Heizeinrichtung auf, beispielsweise in Form einer Mikrowelleneinrichtung.
  • Das Gargerät 100 weist eine erste Bilderfassungseinrichtung 130, eine zweite Bilderfassungseinrichtung 135 und eine Auswerteeinrichtung 140 auf. Dadurch lässt sich eine Eigenschaft des Garguts 100 bestimmen und beispielsweise ein Garprozess anpassen. Dazu sind die Bilderfassungseinrichtungen 130, 135 beispielsweise benachbart zueinander angeordnet, beispielhaft an einer Decke des Garraums 105, hier im Bereich des Oberheizelements 115, sodass die Bilderfassungseinrichtungen 130, 135 den Bereich des Gargutträgers 118 und somit ein Gargut 110 in dem Gargerät 100 erfassen können. Die Bilderfassungseinrichtungen 130, 135 sind ausgebildet, um je ein Bild des Garguts 110 zu erfassen. Die erfassten Bilder werden nachfolgend von der Auswerteeinrichtung 140 ausgewertet. Dazu sind die Bilderfassungseinrichtungen 130, 135 signalübertragungsfähig mit der Auswerteeinrichtung 140 verbunden.
  • Die erste Bilderfassungseinrichtung 130 ist beispielsweise als eine RGB-Kamera ausgebildet und erfasst ein erstes Bild des Garguts 110 in einem für den Menschen sichtbaren Spektralbereich.
  • Die zweite Bilderfassungseinrichtung 135 ist beispielsweise als eine Multispektralkamera ausgebildet und erfasst ein zweites Bild des Garguts 110 in einem weiteren Spektralbereich, der zumindest bereichsweise außerhalb des sichtbaren Spektralbereichs liegt.
  • Gemäß einem Ausführungsbeispiel weist die zweite Bilderfassungseinrichtung 135 eine niedrigere Bildauflösung auf als die erste Bilderfassungseinrichtung 130. Die zweite Bilderfassungseinrichtung 135 weist optional einen beweglichen Spiegel 150 zum Abtasten des Garraums 105 auf, um die niedrigere Auflösung eines Bildsensors der zweiten Bilderfassungseinrichtung 135 zumindest teilweise ausgleichen zu können.
  • Die Bilder des Garguts 110 werden beispielsweise von den Bilderfassungseinrichtungen 130, 135 zeitgleich oder mit geringem zeitlichem Abstand erfasst. In der Auswerteeinrichtung 140 werden die Bilder ausgewertet. Beispielsweise werden die Bilder kombiniert, um ein überlagertes Bild zu erstellen und anschließend wird das überlagerte Bild ausgewertet. Unter Verwendung der Bilder wird in der Auswerteeinrichtung 140 zumindest eine Eigenschaft des erfassten Garguts 110 bestimmt. Beispielsweise wird eine Form und/oder eine Bewegung des Garguts 110 bestimmt. Zusätzlich oder alternativ werden Inhaltsstoffe des Garguts 110 bestimmt. Unter Verwendung einer oder mehrerer erfassten Eigenschaften des Garguts 110 ist es möglich, dem Nutzer ein für das erfasste Gargut 110 entsprechendes Garprogramm vorzuschlagen. Dem Nutzer kann beispielsweise ein Garprogramm auf einer Anzeigeeinrichtung am Gargerät 100 angezeigt werden. Die Auswerteeinrichtung 140 wertet beispielsweise anhand der Bilder das Gargut 110 als eine Pizza aus. Daraufhin wird ein entsprechendes Garprogramm, beispielsweise ein Pizza-Garprogramm dem Nutzer vorgeschlagen oder gestartet. Während des Garprozesses ist ein Garzustand des Garguts 110 bestimmbar, indem die Bilderfassungseinrichtungen 130, 135 erneut Bilder des Garguts 110 erfassen, die von der Auswerteeinrichtung 140 ausgewertet werden. Infolgedessen ist ein Ende der Garzeit bestimmbar. Beispielsweise wird während des Garprozesses ein Bräunungsgrad der Pizza erfasst. Erreicht der Bräunungsgrad der Pizza einen vorab festgelegten Zustand, beispielsweise ein lokales oder globales Maximum, wird der Garprozess beispielsweise automatisch beendet.
  • In anderen Worten ausgedrückt weist der hier vorgestellte Ansatz eine Kombination folgender Komponenten auf: die erste Bilderfassungseinrichtung 130, die auch als hochauflösende RGB-Kamera bezeichnet werden kann, die zweite Bilderfassungseinrichtung 135, die auch als multispektrale Kamera bezeichnet werden kann und die Auswerteeinrichtung 140, die auch als elektronische Auswertung über eine Gerätesteuerung bezeichnet werden kann.
  • Die erste Bilderfassungseinrichtung 130 weist beispielsweise eine Bildauflösung von 1000 x 1000 Pixeln auf, wobei gemäß einem Ausführungsbeispiel lediglich die drei Kanäle Rot, Grün und Blau breitbandig im sichtbaren Spektrum von der Auswerteeinrichtung 140 ausgewertet werden.
  • Die zweite Bilderfassungseinrichtung 135 weist beispielsweise zehn schmalbandige spektrale Kanäle zwischen 350 und 1000 Nanometer auf, bei einer deutlich geringeren Auflösung von beispielhaft 64 x 64 Pixeln. Die zweite Bilderfassungseinrichtung 135 ist ausgebildet, um durch die einzeln aufgelösten breitbandigen Spektralbereiche Bilder mit deutlich mehr Informationsgehalt aufzunehmen als die erste Bilderfassungseinrichtung 130. Dabei wird über eine spektrale Auswertung zum Beispiel auf die chemische Zusammensetzung des beobachteten Objektes geschlossen. Anwendungsfälle für Nahrungsmittel sind zum Beispiel Auswertung des Wassergehaltes, zum Beispiel bei Schokokuchen, welcher aufgrund seiner dunklen Farbe nicht bräunt, Bewertung der Inhaltsstoffe wie zum Beispiel Wasser, Fett, Kohlenhydrate und Überwachung der Krustenbildung durch chemische Umwandlung zum Beispiel bei Broten.
  • Die Auswerteeinrichtung 140 ist ausgebildet, um die Informationen beider Bilder zusammenführen. Dabei ist insbesondere das pixelweise übereinanderlegen der Bilder kritisch, um die spektralen Informationen den richtigen Bereichen des RGB-Bildes zuzuweisen. Somit ist es möglich bei minimalen Kosten ein hochauflösendes Bild mit ausreichenden breitbandigen spektralen Informationen aufzunehmen.
  • Die hohe Auflösung des ersten Bildes, das auch als RGB-Bild bezeichnet werden kann, ermöglicht eine gute Objekterkennung inklusive Kantenauswertung, Bewegungsauswertung und/oder Fluktuationsauswertung. Die zusätzlichen spektralen Informationen der zweiten Bilderfassungseinrichtung 135 erlauben Rückschlüsse über die Inhaltsstoffe und damit eine bessere Erfüllung der Automatisierungsaufgabe. Eine Auswertung des zweiten Bildes, das auch als Multispektralbild bezeichnet werden kann, lässt eine Identifikation bzw. Klassifizierung der im ersten Bild vorhandenen Objekte zu. Anhand ihrer spektralen Signatur sind ähnlich aussehende Objekte voneinander zu unterscheiden bzw. bestimmbar. So lassen sich auch komplexe oder zusammengesetzte Gerichte einwandfrei klassifizieren und das passende Garprogramm vorschlagen.
  • Eine mögliche Alternative ist es, die zweite Bilderfassungseinrichtung 135 mit einer mechanischen Abtastung über bewegliche Spiegel (150) zu kombinieren. Auch so lässt sich kostengünstig eine Verbesserung der Auflösung umsetzen.
  • Bei der Klassifizierung wird üblicherweise nur ein Bild des Garraums 105 bzw. des Garguts 110 zu Beginn des Garprozesses ausgewertet. Für die Garzeitendeerkennung werden Bildreihen ausgewertet, wobei die Bilder in kurzen zeitlichen Abständen aufgenommen werden. Hierbei wird insbesondere der Verlauf der Daten bzw. die Unterschiede zwischen Bildern ausgewertet.
  • Eine entsprechende Automatisierungsaufgabe lässt sich durch das beschriebene Kamerasystem aus erster Bilderfassungseinrichtung 130 und zweiter
  • Bilderfassungseinrichtung 135 sehr gut lösen. Es handelt sich um eine kostenoptimierte Lösung.
  • Mit dem hier vorgestellten Ansatz ist eine Klassifizierung von üblicherweise ähnlich aussehenden Gargütern und Vorschlagen des optimalen Garprogramms möglich. Dazu gehören zum Beispiel Brot- und Kuchenteig, gefrorene oder nicht gefrorene Brötchen und kalte bereits gegarte Speisen zum Wiedererwärmen.
  • Ferner ist eine automatische Erkennung des optimalen Garendezeitpunktes für viele Lebensmittel möglich. Insbesondere bei nicht bräunenden Gargütern, Gargütern mit starker chemischer Veränderung an der Oberfläche wie zum Beispiel Krustenbildung.
  • Die Klassifizierung von Gargütern und die automatische Erkennung des optimalen Garendezeitpunkts sind beispielsweise für komplexe oder zusammengesetzte Gargüter wie zum Beispiel Pommes mit Fischstäbchen oder Fleisch, Gemüse und/oder Beilage möglich.
  • Der hier vorgestellte Ansatz ermöglicht zusätzlich eine Anpassung der Garparameter im laufenden Garprozess, beispielsweise eine Zufuhr von Feuchtigkeit, wenn ein Austrocknen der Gargutoberfläche detektiert wird, zum Beispiel beim Regenerieren von Speisen. Genauer gesagt ist eine Veränderung der Solltemperatur möglich, um eine schonendere bzw. langsamere Bräunung gegen Ende des Garvorgangs zu gewährleisten. Zusätzlich oder alternativ ist eine Veränderung der Beheizungsart nach festgelegten Zeitpunkten im erkannten Garfortschritt möglich.
  • Der hier vorgestellte Ansatz ist für alle Gargeräte bzw. Haushaltgeräte mit optischer Überwachung, beispielsweise einer Kamera, verwendbar.
  • Figur 2 zeigt ein Ablaufdiagramm eines Ausführungsbeispiels eines Verfahrens 200 zum Betreiben eines Gargeräts. Das Gargerät ähnelt oder entspricht hierbei dem Gargerät aus Figur 1.
  • Das Verfahren 200 zum Betreiben einer Ausführungsform eines hierin genannten Gargeräts umfasst einen Schritt 205 des Einlesens eines ersten Bilds, beispielsweise unter Verwendung eines ersten Bildsignals, einen Schritt 210 des Einlesens eines zweiten Bilds, beispielsweise unter Verwendung eines zweiten Bildsignals, einen Schritt 215 des Bestimmens einer Eigenschaft des Garguts unter Verwendung der eingelesenen Bilder und einen Schritt des Bereitstellens eines die Eigenschaft repräsentierenden Eigenschaftssignals. Das erste Bild wird im Schritt 205 des Einlesens über eine Schnittstelle zu einer ersten Bilderfassungseinrichtung eingelesen. Dabei repräsentiert das erste Bild das Gargut in dem Gargerät in einem für den Menschen sichtbaren Spektralbereich. Das zweite Bild wird im Schritt 210 des über eine Schnittstelle zu einer zweiten Bilderfassungseinrichtung eingelesen. Dabei repräsentiert das zweite Bild das Gargut in dem Gargerät in zumindest einem außerhalb des sichtbaren Spektralbereich liegenden weiteren Spektralbereich. Die Eigenschaft wird im Schritt 215 des Bestimmens unter Verwendung des ersten Bilds und des zweiten Bilds, beispielsweise unter Verwendung einer Kombination aus den Bildern, bereitgestellt. Dabei repräsentiert das Eigenschaftssignal eine Eigenschaft des erfassten Garguts. Die Schritte 205, 210, 215, 220 können wiederholt ausgeführt werden, um weitere von zumindest einer der Bildererfassungseinrichtungen erfasste Bilder einzulesen und zum genaueren Bestimmen der Eigenschaft oder zum Bestimmen einer aktualisierten Eigenschaft zu verwenden.
  • Figur 3 zeigt ein Blockschaltbild einer Auswerteeinrichtung 140 für ein Ausführungsbeispiel eines Gargeräts. Die Auswerteeinrichtung 140 ähnelt oder entspricht hierbei der Auswerteeinrichtung aus den vorstehend beschriebenen Figuren.
  • Die Auswerteeinrichtung 140 ist ausgebildet, um eines ersten Bilds 305, beispielsweise in Form eines ersten Bildsignals, und ein zweites Bild 315, beispielsweise in Form eines zweiten Bildsignals, über geeignete Schnittstellen einzulesen. Das erste Bild 305 repräsentiert eine Aufnahme des Garguts in dem Gargerät in einem für den Menschen sichtbaren Spektralbereich. Das zweite Bild 315 repräsentiert eine Aufnahme desselben Garguts in dem Gargerät in einem außerhalb des sichtbaren Spektralbereich liegenden weiteren Spektralbereich. Die Auswerteeinrichtung 140 ist ausgebildet, um unter Verwendung der eingelesenen Bilder zumindest eine Eigenschaft des Garguts zu bestimmen und ein die Eigenschaft repräsentierendes Eigenschaftssignal 325 bereitzustellen.
  • Optional wird das Eigenschaftssignal 325 von einer Steuereinrichtung 330 eingelesen. Die Steuereinrichtung 330 ist ausgebildet, um unter Verwendung des Eigenschaftssignals 325 ein Steuersignal 335 zum Ansteuern des Gargeräts zu bestimmen und auszugeben.

Claims (10)

  1. Gargerät (100) zum Garen von Lebensmitteln, wobei das Gargerät (100) die folgenden Merkmale aufweist:
    eine erste Bilderfassungseinrichtung (130), die ausgebildet ist, um ein erstes Bild (305) eines Garguts (110) in dem Gargerät (100) in einem für den Menschen sichtbaren Spektralbereich zu erfassen;
    eine zweite Bilderfassungseinrichtung (135), die ausgebildet ist, um ein zweites Bild (315) des Garguts (110) in dem Gargerät (100) in mindestens einem weiteren schmalbandigen Spektralbereich zu erfassen; und
    eine Auswerteeinrichtung (140), die ausgebildet ist, um unter Verwendung des ersten und zweiten Bildes (305, 315) zumindest eine Eigenschaft des erfassten Garguts (110) zu bestimmen und ein die Eigenschaft repräsentierendes Eigenschaftssignal (325) bereitzustellen.
  2. Gargerät (100) gemäß Anspruch 1, wobei die erste Bilderfassungseinrichtung (130) als eine RGB-Kamera ausgebildet ist.
  3. Gargerät (100) gemäß einem der vorangegangenen Ansprüche, wobei die zweite Bilderfassungseinrichtung (135) als eine Multispektralkamera ausgebildet ist, die ausgebildet ist, um das zweite Bild (315) in einem ultravioletten und/oder sichtbaren und/oder infraroten Spektralbereich zu erfassen. Für die spektrale Auswertung werden Filter geringer spektraler Breite von maximal 100 nm verwendet. Besonders vorteilhaft sind schmalbandige Filter mit spektraler Breit von 50 nm und weniger.
  4. Gargerät (100) gemäß einem der vorangegangenen Ansprüche, wobei die zweite Bilderfassungseinrichtung (135) eine niedrigere Bildauflösung als die erste Bilderfassungseinrichtung (130) aufweist, insbesondere eine zumindest zehnmal niedrigere Bildauflösung.
  5. Gargerät (100) gemäß einem der vorangegangenen Ansprüche, wobei die Auswerteeinrichtung (140) ausgebildet ist, um unter Verwendung des ersten und zweiten Bildes (305, 315) ein überlagertes Bild zu ermitteln und die zumindest eine Eigenschaft unter Verwendung des überlagerten Bilds zu bestimmen.
  6. Gargerät (100) gemäß einem der vorangegangenen Ansprüche, wobei die zweite Bilderfassungseinrichtung (135) zum Erfassen des zweiten Bilds (315) einen beweglichen Spiegel bzw. MEMS-Spiegel (150) zum Abtasten des Garguts (110) aufweist.
  7. Gargerät (100) gemäß einem der vorangegangenen Ansprüche, wobei die erste Bilderfassungseinrichtung (130) und/oder die zweite Bilderfassungseinrichtung (135) ausgebildet sind, um zumindest je ein weiteres Bild des Garguts (110) zu erfassen, wobei die Auswerteeinrichtung (140) ausgebildet ist, um unter Verwendung der weiteren Bilder die zumindest eine Eigenschaft des erfassten Garguts (110) zu bestimmen.
  8. Gargerät (100) gemäß einem der vorangegangenen Ansprüche, wobei die Auswerteeinrichtung (140) ausgebildet ist, um unter Verwendung zumindest eines de Bilder (305, 315) eine Form und/oder eine Bewegung des Garguts (110) als die Eigenschaft zu bestimmen und/oder
    Inhaltsstoffe des Garguts (110) als die Eigenschaft zu bestimmen, und/oder
    einen Garzustand des Garguts (110) als die Eigenschaft zu bestimmen.
  9. Gargerät (100) gemäß einem der vorangegangenen Ansprüche, wobei die Auswerteeinrichtung (140) ausgebildet ist, um unter Verwendung des Eigenschaftssignals (325) ein Steuersignal (335) zum Aktivieren eines zum Garen des Garguts (110) geeigneten Garprogramms des Gargeräts (100) und/oder zum Beenden eines Garprogramms zu bestimmen.
  10. Verfahren (200) zum Betreiben eines Gargeräts (100) gemäß einem der vorangegangenen Ansprüche 1 bis 9, wobei das Verfahren (200) die folgenden Schritte umfasst:
    Einlesen (205) des ersten Bilds (305) über eine Schnittstelle zu der ersten Bilderfassungseinrichtung (130);
    Einlesen (210) des zweiten Bilds (315) über eine Schnittstelle zu der zweiten Bilderfassungseinrichtung (135);
    Bestimmen (215) der Eigenschaft des erfassten Garguts (110) unter Verwendung des ersten Bilds (305) und des zweiten Bilds (315); und
    Bereitstellen (220) des Eigenschaftssignals (325), das die Eigenschaft des erfassten Garguts (110) repräsentiert.
EP23195032.0A 2022-09-27 2023-09-04 Gargerät und verfahren zum betreiben eines gargeräts Pending EP4345380A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
BE20225771A BE1030917B1 (de) 2022-09-27 2022-09-27 Gargerät und Verfahren zum Betreiben eines Gargeräts

Publications (1)

Publication Number Publication Date
EP4345380A1 true EP4345380A1 (de) 2024-04-03

Family

ID=85157200

Family Applications (1)

Application Number Title Priority Date Filing Date
EP23195032.0A Pending EP4345380A1 (de) 2022-09-27 2023-09-04 Gargerät und verfahren zum betreiben eines gargeräts

Country Status (2)

Country Link
EP (1) EP4345380A1 (de)
BE (1) BE1030917B1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3722673A1 (de) * 2019-04-08 2020-10-14 Miele & Cie. KG Gargerät und verfahren
DE102019131694A1 (de) * 2019-11-22 2021-05-27 Rational Aktiengesellschaft Gargerät mit Sensorsystem sowie Sensorsystem
US20220015572A1 (en) * 2020-07-15 2022-01-20 June Life, Inc. Method and system for foodstuff identification

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3722673A1 (de) * 2019-04-08 2020-10-14 Miele & Cie. KG Gargerät und verfahren
DE102019131694A1 (de) * 2019-11-22 2021-05-27 Rational Aktiengesellschaft Gargerät mit Sensorsystem sowie Sensorsystem
US20220015572A1 (en) * 2020-07-15 2022-01-20 June Life, Inc. Method and system for foodstuff identification

Also Published As

Publication number Publication date
BE1030917A1 (de) 2024-04-19
BE1030917B1 (de) 2024-04-22

Similar Documents

Publication Publication Date Title
DE102019120008B4 (de) Verfahren zum Betreiben eines Gargeräts und Gargerät
EP3500798A1 (de) Feststellen eines bräunungsgrads von gargut
EP3560185B1 (de) System und verfahren zum erfassen von messbildern eines messobjekts
EP2326882B1 (de) Kochfeldvorrichtung
EP3446040A1 (de) Verfahren zum feststellen einer reinigungsnotwendigkeit und qualitätsmanagement-überwachungssystem eines gewerblichen gargeräts und gewerbliches gargerät
EP3715721A1 (de) Verfahren zum betreiben eines gargeräts und gargerät
EP1565885B1 (de) Verfahren zum erfassen einer eigenschaft mindestens eines gegenstands
BE1030917B1 (de) Gargerät und Verfahren zum Betreiben eines Gargeräts
EP3742051B1 (de) Belichtungsregelung von gargütern
EP3722673A1 (de) Gargerät und verfahren
EP3502569B1 (de) Verfahren und vorrichtung zur optimierung eines backvorgangs
DE102019212364A1 (de) Betreiben eines Haushalts-Gargeräts mit mindestens einer Kamera
WO2022148593A1 (de) Verfahren zum bestimmen eines garzeiteindes von gargut sowie haushaltsgargerät
DE102014205701A1 (de) Verfahren und Vorrichtung zur Bestimmung der Position und/oder Orientierung zumindest eines Steckkontakts
EP1004240A1 (de) Vorrichtung zur Erkennung von Pflanzen und/oder Mustern in landwirtschaftlichen Anwendung
EP2790151B1 (de) Verfahren zur echtzeitfähigen Materialschätzung und zur materialbasierten Bildsegmentierung in elektronischen Bildsequenzen
DE102019107828A1 (de) Verfahren zum Betreiben eines Gargeräts und Gargerät
BE1030431B1 (de) Verfahren zum Garen eines Garguts in einem Gargerät mit einer Kameraeinrichtung
WO2019170447A1 (de) Interaktionsmodul
DE102014103457A1 (de) Verfahren zum Auswählen eines Garprogramms und Gargerät
DE102019203259A1 (de) Optisches Erkennen eines Garguts
BE1030426B1 (de) Verfahren zum Garen eines Garguts in einem Gargerät mit einer Kameraeinrichtung
DE102021110068A1 (de) Verfahren zum Betreiben eines Gargeräts und Gargerät
EP3948091B1 (de) Verfahren zum zubereiten eines garguts mit optisch angezeigten gargutzonen des garguts, gargerät und computerprogrammprodukt
DE102023209367A1 (de) Betreiben eines Gargeräts mit einer digitalen Garraum-Farbkamera

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN PUBLISHED

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC ME MK MT NL NO PL PT RO RS SE SI SK SM TR