EP3715721A1 - Verfahren zum betreiben eines gargeräts und gargerät - Google Patents

Verfahren zum betreiben eines gargeräts und gargerät Download PDF

Info

Publication number
EP3715721A1
EP3715721A1 EP20163337.7A EP20163337A EP3715721A1 EP 3715721 A1 EP3715721 A1 EP 3715721A1 EP 20163337 A EP20163337 A EP 20163337A EP 3715721 A1 EP3715721 A1 EP 3715721A1
Authority
EP
European Patent Office
Prior art keywords
food
cooking
cooked
over time
image elements
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP20163337.7A
Other languages
English (en)
French (fr)
Inventor
Ulrich Sillmen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Miele und Cie KG
Original Assignee
Miele und Cie KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Miele und Cie KG filed Critical Miele und Cie KG
Publication of EP3715721A1 publication Critical patent/EP3715721A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24CDOMESTIC STOVES OR RANGES ; DETAILS OF DOMESTIC STOVES OR RANGES, OF GENERAL APPLICATION
    • F24C7/00Stoves or ranges heated by electric energy
    • F24C7/08Arrangement or mounting of control or safety devices
    • F24C7/082Arrangement or mounting of control or safety devices on ranges, e.g. control panels, illumination
    • F24C7/085Arrangement or mounting of control or safety devices on ranges, e.g. control panels, illumination on baking ovens

Definitions

  • the present invention relates to a method for operating a cooking appliance with at least one cooking area for preparing food to be cooked.
  • the food is monitored in the cooking area during the cooking process.
  • images of the cooking area are recorded over time by means of at least one camera device.
  • the object of the present invention to enable an improved monitoring of food in a cooking space during a cooking process.
  • the monitoring should take place with a camera device.
  • the method according to the invention is used to operate a cooking appliance, in particular an oven with at least one lockable cooking space.
  • the cooking device comprises at least one cooking area for preparing food.
  • the food is monitored in the cooking area during the cooking process.
  • images of the cooking area are recorded over time by means of at least one camera device.
  • the images each consist of a large number of picture elements. All of the direct measurands that are accessible for the entire image are also accessible for each image element.
  • the images are evaluated by means of at least one processing device. Image elements that change over time are identified and assigned as belonging to the item to be cooked, in order to enable a distinction to be made from the image elements in the cooking area that originate from outside the item to be cooked.
  • the method according to the invention offers many advantages.
  • a considerable advantage is that the image elements originating from the food to be cooked contain the properties of the food to be cooked without any falsification, and information is therefore available for further processing or evaluation which actually originates from the food to be cooked with particularly high reliability. Disturbing or irrelevant influences from outside the food to be cooked can then be evaluated or masked out accordingly. This enables significantly improved monitoring of the food to be cooked. In this way, a particularly meaningful characterization of certain cooking product properties can take place.
  • automatic programs can be adapted very specifically to the respective cooking product or the respective cooking process, so that particularly tasty cooking results can be achieved.
  • the special feature of the identification according to the invention lies in the time factor, which is available during cooking processes and which makes it particularly easy to identify the food being cooked. Recognizing in a still image where the food to be cooked is located is extraordinarily difficult and, if at all, only halfway satisfactorily achieved with methods of artificial intelligence. In the method described here, in contrast to the still image, use is made of the fact that a sequence of images about the cooking process can be recorded during cooking, for which it can be observed how individual image elements develop over time. Image elements that contain food to be cooked behave completely differently than image elements that contain the cooking area with cooking space walls, vessels and the like. This otherness does not only refer to the change caused by tanning and discoloration, but also e.g. B. also on distances due to volume changes or changes in surface temperature.
  • the images are recorded in particular during at least one time segment of the cooking process.
  • the image elements that change during at least one time segment of the cooking process are identified.
  • the camera device records images of the cooking area over a period of time in which the food to be cooked is treated and, in particular, warmed or heated.
  • the image elements that change during the treatment and in particular during the heating or heating are identified and assigned accordingly.
  • the images recorded over time are in particular an image sequence.
  • the food to be cooked is arranged in the cooking area during the cooking process. In the context of the present invention, the food to be cooked is in particular not understood as part of the cooking area, even if it is positioned there.
  • the camera device comprises a large number of sensor segments.
  • at least one image element from the cooking area can preferably be detected in a spatially resolved manner with at least one sensor segment.
  • a picture element is in particular assigned to at least one sensor segment of the camera device or in at least one mapped to a sensor segment.
  • picture element and pixel can be used synonymously.
  • those image elements are assigned to the food which have a minimum change over time.
  • the image elements of the food to be cooked can thus be recognized particularly reliably.
  • it is usually only the food that is changed due to the heating.
  • Other parts do not change or only change at the beginning of the cooking process.
  • the walls of the cooking space essentially no longer heat up after heating and change their color and geometry only insignificantly compared to corresponding changes in the food.
  • the minimum change is determined in such a way that a false positive assignment is reliably counteracted.
  • those picture elements are assigned to the food which have a rate of change over time above a threshold value.
  • those image elements are not assigned to the food to be cooked and / or are assigned to the cooking area which do not achieve a minimum change over time.
  • it is the walls of the cooking space and the food carriers that are not changed during the cooking process or after heating. In the holding phase of the cooking space temperature, there is no significant temperature change in these components either.
  • those image elements are not assigned to the food and / or are assigned to the cooking area which have a rate of change over time below a threshold value. At least one time interval is preferably defined over which the minimum change must exist.
  • image elements assigned to the food to be cooked are not taken into account for the further evaluation if these image elements do not achieve a minimum change over time. This enables particularly reliable detection of relevant image areas. For example, it is possible that apples in a cake batter are not taken into account for an evaluation of the browning process. In this way, only the browning of the dough can be specifically monitored without the apples falsifying the result.
  • image elements assigned to the food to be cooked are not taken into account for the further evaluation if they lie outside a course corridor.
  • the course corridor can be determined, for example, at the beginning or in an early phase of the cooking process or also later on the basis of the data already recorded at this point in time.
  • the output value can be determined in advance, for example, and stored in the cooking appliance or in the processing device. It is also possible for the output value to be established or at least partially influenced on the basis of user inputs. The output value can be influenced or selected by entering the type of food to be cooked, for example baked goods, meat or vegetables.
  • At least one change over time of at least one color information and / or brightness information and / or intensity information item is evaluated to identify the picture elements that change over time.
  • Such an evaluation offers a particularly reliable identification of the food to be cooked. It is also possible for the identification of the image elements that change over time to be evaluated for at least one change over time of at least one other suitable characteristic variable of the image processing.
  • those picture elements are assigned to the food which have a minimum change in color information and / or brightness information and / or intensity information over time.
  • Such information can include, for example, a color coordinate and / or brightness coordinate and / or intensity coordinator.
  • color information and / or brightness information and / or intensity information lying outside a limit value are not taken into account for the evaluation. For example, purple or turquoise or other color values that are unusual for cooking or baking processes can be disregarded.
  • those image elements are assigned to the food which have an increase in browning and / or at least a change in a color value that is characteristic of browning, for example a red-green value, over time.
  • those picture elements are assigned to the food which, over time, have an increase in another color value characteristic of browning.
  • the image elements must have a decrease in such a value in order to be assigned to the food to be cooked. Since browning is a particularly characteristic feature for heating many foods, a particularly reliable and accurate assignment can be made.
  • the images captured by means of the camera device show temperature distributions in the cooking area.
  • at least one change in the temperature distributions over time is evaluated in order to identify the picture elements which change over time.
  • the camera setup comprises in particular a thermal imaging camera or is designed as such.
  • the images captured by means of the camera device are, in particular, thermal images.
  • the camera device is suitable and designed to capture images in at least one infrared range.
  • the camera device is designed as an IR camera.
  • a picture element corresponds in particular to a temperature value or comprises at least one such.
  • temperatures from or from the cooking area can be detected in a spatially resolved manner by means of the camera device.
  • those image elements are assigned to the food which have a minimum change over time in the detected heat output and / or the temperature and / or an emissivity and / or a false color value for the temperature. It is also possible for those image elements to be assigned to the food which have a minimum change over time in another variable that can be detected by a thermal imaging camera.
  • the images captured by means of the camera device contain spatial image information from the cooking area.
  • Spatial image information is understood to mean, in particular, three-dimensional image information.
  • at least one change in the spatial image information over time preferably a change in the distance between the surface of the food being cooked and the camera device, is evaluated.
  • those image elements are assigned to the food which have a minimum change over time in the spatial image information and in particular in the distance.
  • those image elements are not assigned to the food to be cooked and / or are assigned to the cooking area which do not achieve a minimum change in the spatial image information and in particular the distance over time.
  • Those image elements are preferably assigned to the food to be cooked, the distance between which increases and / or decreases by a certain minimum amount over time. Whether an increase or decrease is necessary depends, for example, on the positioning of the camera device in relation to the food to be cooked. If the camera device is arranged above or above the item to be cooked, a decrease in the distance or an increase in the height of the item to be cooked is particularly typical for the detection of baked goods. Baked goods usually rise during preparation in the oven and thus gain height. For other items to be cooked and for example for a roast or meat, however, the increase in the distance or the decrease in height can be a characteristic feature for the assignment of the image elements to the item to be cooked. Spatial image information thus enables particularly meaningful monitoring of the food to be cooked.
  • the camera device in particular comprises at least one 3D camera or is designed as such.
  • the camera device is suitable and designed to capture images with three-dimensional image information or three-dimensional images from the cooking area.
  • the image elements provide spatially resolved three-dimensional information from the cooking area.
  • the 3D camera is operated, for example, according to the TOF (time of flight) principle. Other designs for 3D cameras are also possible.
  • At least one course corridor is calculated and / or taken into account during the cooking process, which describes an expected change over time for image elements of the food to be cooked.
  • image elements which lie outside the course corridor are not taken into account and / or are not assigned to the food to be cooked.
  • the course corridor can be determined, for example, at the beginning or in an early phase of the cooking process or also later on the basis of the data already recorded at this point in time. A previously determined course corridor can also be stored.
  • the course corridor can be calculated from data from the current cooking process.
  • the course corridor is preferably calculated from the change over time in the image elements recorded up to that point. It is possible that the course corridor is calculated from a mean value and / or a standard deviation or the like or corresponds to such.
  • the course corridor can be dependent on a set automatic program and / or on a preselected type of food. Such a course corridor offers many advantages for recognizing the food to be cooked. In addition or as an alternative to the course corridor, a target value can also be calculated which an image element must have at the end of the time change in order to be assigned to the food or the cooking area.
  • the image elements of the food to be cooked are identified or assigned within the first 20 minutes and preferably within the first 10 minutes after the start of the cooking process. During this period, the changes in the food due to heating are particularly characteristic, so that a particularly reliable assignment can be made.
  • the image elements of the food to be cooked are assigned after a maximum of 20 minutes and preferably after a maximum of 10 minutes after the start of the cooking process. It is also possible that the image elements of the food to be cooked are assigned within the first 5 minutes or less. It is also possible for the image elements of the food to be assigned within the first 30 minutes or 40 minutes or within the first hour. It is possible that the time period for the assignment is based on a set automatic program and / or a preselected type of food.
  • the image elements assigned to the item to be cooked are subjected to an evaluation to determine a ready time and / or a Surface expansion and / or a spatial expansion of the food to be cooked. Due to the particularly reliable detection of the food to be cooked, the time of completion can be determined particularly reliably and precisely. In addition, the surface extent or spatial extent can be determined considerably more reliably if the areas belonging to the food to be cooked have been identified beforehand.
  • the image elements assigned to the food to be cooked can be subjected to at least one other evaluation.
  • the image elements can be analyzed with regard to the homogeneity of the ingredients and / or for browning differences on the surface or the like.
  • the image elements assigned to the item to be cooked can also be subjected to an evaluation to determine another property to be cooked, for example to determine the type of food to be cooked. In this way it can be recognized whether it is pasta or meat or fish or vegetables or fruit.
  • the image elements that change over time are particularly preferably identified, taking into account at least one automatic program set for the cooking process and / or at least one preselected type of food being cooked.
  • a minimum change over time and / or an initial value is defined as a function of the automatic program and / or the type of food being cooked.
  • a different minimum change in time may be necessary for pasta than for roasting so that image elements are assigned to the food to be cooked.
  • at least one value for the minimum change and / or the initial value are determined as a function of at least one automatic program and / or as a function of at least one preselected type of food to be cooked.
  • the cooking appliance is designed with a cooking space.
  • the cooking area is preferably located in or corresponds to the cooking space, so that the food in the cooking space is monitored during the cooking process.
  • the cooking device is designed as an oven.
  • the cooking space can be closed by at least one cooking space door.
  • the cooking space is designed to be heatable.
  • the cooking device is designed with a hob and that the cooking area lies on or corresponds to the hob.
  • the food on the hob is monitored during the cooking process.
  • the camera device is located in an extractor hood and / or Lighting device and / or kitchen furniture or the like is arranged. Another arrangement of the camera device in relation to the hob is also possible.
  • the camera device records the time images of the cooking space and / or the hob.
  • the method presented here also offers advantageous monitoring with a hob.
  • the cooking appliance according to the invention can be operated according to the method described above.
  • the cooking appliance is suitable and designed to be operated according to the method described above.
  • the method described above is used in particular to operate the cooking appliance according to the invention.
  • the cooking appliance according to the invention also offers many advantages and enables considerably improved monitoring of the food in the cooking area.
  • the cooking appliance comprises at least one cooking space and / or at least one hob.
  • the cooking space and / or the hob provide in particular at least part of the cooking area or are designed as such.
  • the camera device is arranged in particular on a component of the cooking appliance, so that the image information can be transported from the cooking area to the camera device without hindrance. If the camera device is not in direct line of sight to the cooking space, an optical path is created, in particular by means of at least one component, which ensures the transport of information.
  • Such components are, for example, mirrors and / or lenses and / or screens or the like.
  • the Figure 1 shows a cooking device 1 according to the invention, which is designed here as an oven 100.
  • the cooking appliance 1 is operated according to the method according to the invention.
  • the cooking appliance 1 has a cooking area 11, which here is provided by a heatable cooking space 21 provided.
  • the cooking chamber 21 can be closed by a cooking chamber door 31.
  • the cooking device 1 is provided here as a built-in device. It can also be designed as a stand-alone device.
  • a treatment device 2 For the preparation of food to be cooked, a treatment device 2 is provided which, in the view shown here, is not visible in the cooking space 21 or inside the device.
  • the treatment device 2 comprises, for. B. a heating device with several heating sources for heating the cooking space 21.
  • a heating source for example, a top heat and / or a bottom heat, a hot air heat source and / or a grill heat source or other types of heat sources can be provided.
  • a steam generator can also be provided.
  • the treatment device 2 can be designed for heating or cooking with high-frequency radiation and for this purpose can comprise at least one high-frequency generator.
  • the cooking appliance 1 here comprises a control device, which is not shown in detail and which is operatively connected to the treatment device 2, for controlling or regulating device functions and operating states. Preselectable operating modes and preferably also various automatic programs or program operating modes and other automatic functions can be executed via the control device.
  • the control device controls z. B. the treatment device 2 depending on a preselected operating mode or automatic program accordingly.
  • An operating device 101 is provided for operating the cooking appliance 1. For example, the operating mode, the cooking space temperature and / or an automatic program or a program operating mode or other automatic function can be selected and set. Further user inputs can also be made via the operating device 101 and, for example, menu control can be performed.
  • the operating device 101 also includes a display device 102 via which user instructions and z. B. Prompts can be displayed.
  • the operating device 101 can comprise operating elements and / or a touch-sensitive display device 102 or a touchscreen.
  • images of the cooking area 11 are captured by means of a camera device 3.
  • the camera device 3 is not visible in the interior of the device or in the cooking chamber 21.
  • the images consist of a large number of picture elements or pixels.
  • the camera device 3 is designed with a sensor with a multiplicity of sensor segments, so that the image information can be detected pixel by pixel or spatially resolved.
  • those image elements are identified by means of a processing device 4 which are change during the cooking process.
  • the picture elements which for example have a minimum change over time, are then assigned to the food to be cooked.
  • Image elements without a change or below a minimum change over time are assigned to the cooking area 11. Since the food to be cooked changes during preparation, but the surroundings show no changes at all or only very few changes, the recorded images can be used to differentiate very reliably between the food to be cooked and the cooking area 11.
  • the camera device 3 is designed, for example, as a thermal imaging camera or IR camera. In the process, thermal images are recorded which show temperature distributions in the cooking area 11. The individual image elements represent the temperatures in the cooking area 11 with spatial resolution.
  • the identification of the food to be cooked here makes it possible to record the temperature of the food alone, without using, for example, a very imprecise mean value over the entire field of view of the camera. When cooking, the food and the cooking area usually have very different temperatures.
  • Those picture elements which show characteristic changes during the cooking process are then assigned to the food to be cooked. For example, many foods brown the surface when they are heated. This results in a change in the emissivity, which can be taken from the thermal images and which can thus be used to identify the image elements belonging to the food to be cooked. In contrast, the emissivity of the cooking area does not change.
  • the camera device 3 captures a thermal image of the filled cooking space 21. This includes cooking space walls, food carriers and other components, as well as the food.
  • the IR camera sees the contents of the cooking space with the food, container, baking tray, grill grate, baking sheet holders, radiators, lamps, cooking space walls or general cooking accessories and cooking space accessories.
  • the IR camera records a first thermal image at the beginning of a cooking process and it is initially unknown in which pixels of the IR camera the temperature of the food is recorded. Where this is the case will only become apparent during cooking.
  • the different emissivity of the different materials in the thermal image of the IR camera, which determines the thermal radiation emitted by the object, results in a different temperature reading for each material.
  • the cooking process will start.
  • the cooking space temperature rises.
  • the IR camera continuously takes more thermal images.
  • the temperature measurement values increase in all pixels, more or less synchronously with the increase in temperature of the cooking space air.
  • the temperature in the thermal image of the IR camera rises for each object with different material properties or with a different emissivity to its own measured value for its holding temperature (in fact, all object temperatures in the cooking area are roughly the same, but the emissivity leads to different measured values in the thermal image of the IR camera). Only the temperature of the food remains at a different temperature level because it contains water that cannot be heated above around 100 ° C.
  • the mean values are "somewhere" depending on the emissivity of the objects.
  • the emissivity is a number between 0 and 1 (0% and 100%).
  • An object with emissivity 1 e.g. enamel
  • An object with emissivity 0.1 e.g. chrome-plated steel.
  • the output of the emitted thermal radiation increases sharply with the thermal radiation. If the output of the emitted thermal radiation changes from an object, this can be interpreted as a change in the object temperature or as a change in the object's emissivity.
  • the emissivity of the inorganic materials in the cooking chamber does not change or changes only insignificantly.
  • the temperature in the cooking space is in the holding phase and only fluctuates around its mean value with the control amplitude. This means that all cooking space and accessories fluctuate around their individual (radiation) temperatures in the thermal image of the IR camera. None changes further. All pixels in which this finding is present do not belong to the food to be cooked.
  • the effect arises from the fact that on the one hand the surface temperature after the surface has dried out and the associated browning rises above the holding value of the initial phase (where there was still water on the surface) and on the other hand the organic material of the food changes chemically and physically and thus in the Its emissivity is also in step. Both lead to a different measured value in the thermal image of the IR camera. Depending on the food and surface changes, the temperature change in the thermal image can go in one direction or the other. It is only important that something changes, although the cooking space itself is in a stationary state after its heating-up phase.
  • Another option for identifying the food to be cooked is to use a measuring probe to pierce the food in addition to the thermal imaging camera. The surface temperature of the food to be cooked is then determined by means of this measuring probe. Since the food to be cooked changes its color during the cooking process and, for example, is browned, there is a change in the emissivity of the food. Accordingly, there is a temperature difference between the temperature values of the measuring probe and the thermal image. Since the emissivity of the cooking area 11 does not change, no such temperature difference can be observed for its picture elements. It is thus possible to distinguish between the food and the cooking area 11 via this temperature difference.
  • Another implementation of this principle is to observe not the temperature difference but a tracking of the emissivity of the thermal imager. Since the emissivity of the food changes during preparation, the emissivity of the thermal imaging camera would have to be adjusted accordingly until its temperature readings match those of the measuring probe. Such tracking is not necessary for the cooking area 11, since its emissivity does not change. Reliable identification of the food to be cooked is thus also possible via the time deviation of the emissivity.
  • color information, brightness information and / or intensity information or other variables of the image processing can be evaluated to identify the picture elements that change over time.
  • the camera device 3 is designed, for example, to capture images in the visible and / or in the infrared range of light.
  • the picture elements are identified which show a change in one or more color values during the cooking process. These picture elements are then assigned in the food.
  • RGB color coordinates can be viewed for this purpose. It is also possible that color coordinates in the Lab color space (also referred to as L * a * b * color space or CIELAB) are considered.
  • the Lab display objects can be recognized particularly well that experience a change in brightness or color over time.
  • the picture elements which do not change in their brightness over time, are shown in white in the Lab display.
  • the image elements that come from an object that has been tanned over time are also displayed correspondingly darker.
  • baked goods made from light-colored dough can be reliably identified.
  • the component surfaces in the cooking area 11 do not experience any change in color and accordingly remain white in the Lab display. They can therefore be extracted very easily and reliably from further analysis. Even minor changes during baking are reliably detected.
  • the food can now be further observed, detached from the rest of the cooking area, and examined, for example, for an increase in browning.
  • the baking process can be ended.
  • the food to be cooked it can be a condition that the brightness must change by a certain amount in a defined time interval. Otherwise it is assumed that the picture element does not belong to the food. Another possibility is to only observe those picture elements that are already outside a minimal change window at a certain point in time during the cooking process. The picture elements with values within the change window are then assigned to the cooking area 11.
  • the picture elements can be restricted to a permissible start window. Image elements whose values lie outside the start window and show exotic colors, for example, are then sorted out or not assigned to the food to be cooked. If necessary, adapted start windows or adapted permissible start values can be provided for automatic programs or for foods or food groups (meat, baked goods, vegetables, etc.). For example, a different start window can be provided for a light dough than for a dark dough.
  • the time course of the color coordinates of the picture elements to be observed can be followed. If the picture elements run out of a corridor over time, which z. B. is spanned by the color coordinates Lab, the picture elements are discarded for further observation with regard to the browning.
  • the spatial corridor is generated dynamically during the ongoing cooking process, for example.
  • the corridor results z. B. from the trajectories of the remaining picture elements through the corresponding color space.
  • One possibility of forming a band for a permitted corridor is, for example, possible as follows.
  • a mean value and the standard deviation of the lightness (L) are calculated for each point in time.
  • the middle of the band results, for example, from the mean value.
  • the range is a fraction to a multiple of the standard deviation. In this way, outliers that are too dark or too bright can be eliminated from the set of picture elements or the set of pixels. If a track falls out of the band at any point in time, it is no longer used for the further calculation of the mean value and standard deviation. This prevents the standard deviation caused by the outliers from becoming larger and larger as the cooking time progresses and the permissible channel from becoming wider and wider.
  • Colored target windows can also be set for the color coordinates, for example at the time of completion. If you work through the color space with accompanying (color) channels from start to finish, the start window and finish window are already part of the observation and are already included in the channels. By looking at the progression over time with different browning speeds and different initial colors, the various components of a cake can be differentiated, for example.
  • an apple pie is to be prepared on a baking sheet, the apples brown much less slowly than the light batter.
  • the light-colored dough makes up a smaller proportion of the surface area of a cake densely covered with apples
  • the previously described method can be used to specifically identify the image elements that show a significant browning (dough).
  • dough browning
  • the other picture elements or the white pixels represent apples and are not included in the browning measurement or are less weighted. Be like that identifies those image elements that only represent the light dough in a simple and reliable manner. The browning is only determined on these and not averaged integrally over a surface of unknown composition.
  • the camera device 3 can also be designed as a 3D camera so that spatial image information from the cooking area 11 can be recorded.
  • To identify the food to be cooked for example, the distance between the camera device 3 and the objects recorded in the cooking area 11 is detected in a spatially resolved manner. Since the components of the cooking area 11 that do not belong to the food to be cooked do not change their distance from the camera device 3 during the cooking process, they can be reliably identified by this. In contrast, when a food is heated, changes in shape and thus changes in distance occur.
  • the identification of the food in the cooking area 11 presented here enables further sensory evaluations to be carried out particularly advantageously.
  • the area of the food can be determined from the perspective of the camera 3.
  • the identification of the image elements with the food to be cooked must be carried out anew at each measurement time so that it can be recognized that the number of image elements with the food to be cooked has increased or decreased with the cooking time and by what amount.
  • a cooking device 1 designed as a hob 41 is shown.
  • the hob 41 here forms the cooking area 11. It is also possible for the cooking appliance 1 to be configured as one with a hob 41 equipped stove is formed.
  • An extractor hood 103 is arranged here above the hob 41.
  • the treatment device 2 here comprises a plurality of heatable hotplates.
  • the camera device 3 is housed here together with the processing device 4 in the extractor hood 103.
  • the camera device 3 detects the cooking area 11 from there.
  • the cooking appliance 1 is operated here according to the method according to the invention. The images are captured and evaluated, and the image elements belonging to the food to be cooked are identified, preferably as before with reference to the Figure 1 written.

Abstract

Die vorliegende Erfindung betrifft ein Verfahren zum Betreiben eines Gargeräts (1) mit einem Garbereich (11) zur Zubereitung von Gargut, wobei das Gargut im Garbereich (11) während des Garprozesses überwacht wird und wobei dazu mittels einer Kameraeinrichtung (3) über die Zeit Bilder des Garbereichs erfasst werden, wobei die Bilder jeweils aus einer Vielzahl von Bildelementen bestehen und mittels einer Verarbeitungseinrichtung (4) ausgewertet werden. Dabei werden sich über die Zeit verändernde Bildelemente identifiziert und als zu dem Gargut gehörend zugeordnet, um eine Unterscheidung von den von außerhalb des Garguts stammenden Bildelementen zu ermöglichen.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zum Betreiben eines Gargeräts mit wenigstens einem Garbereich zur Zubereitung von Gargut. Das Gargut wird in dem Garbereich während des Garprozesses überwacht. Dazu werden mittels wenigstens einer Kameraeinrichtung über die Zeit Bilder des Garbereichs erfasst.
  • Für ein optimales Garergebnis ist es in der Regel entscheidend, bestimmte Eigenschaften des Garguts zu berücksichtigen. Solche Informationen über das Gargut sind besonders wichtig für einen zuverlässigen Ablauf von Automatikprogrammen. Besonders komfortabel ist es, wenn bestimmte Eigenschaften des Garguts während des Garprozesses und zudem auch selbstständig und berührungslos vom Gargerät erfasst und berücksichtigt werden können. Dazu sind beispielsweise Gargeräte bekannt geworden, bei denen das Gargut mit einer Kamera beobachtet wird. Dabei ist es in Hinblick auf Zuverlässigkeit und Praxistauglichkeit wünschenswert, die bekannten Lösungen weiter zu verbessern.
  • Es ist daher die Aufgabe der vorliegenden Erfindung, eine verbesserte Überwachung eines Garguts in einem Garraum während eines Garprozesses zu ermöglichen. Insbesondere soll die Überwachung dabei dabei mit einer Kameraeinrichtung erfolgen.
  • Diese Aufgabe wird gelöst durch ein Verfahren mit den Merkmalen des Anspruchs 1 sowie durch ein Gargerät mit den Merkmalen des Anspruchs 16. Bevorzugte Merkmale sind Gegenstand der Unteransprüche. Weitere Vorteile und Merkmale ergeben sich aus der allgemeinen Beschreibung der Erfindung und der Beschreibung der Ausführungsbeispiele.
  • Das erfindungsgemäße Verfahren dient zum Betreiben eines Gargeräts, insbesondere eines Backofens mit wenigstens einem verschließbaren Garraum. Das Gargerät umfasst wenigstens einen Garbereich zur Zubereitung von Gargut. Das Gargut wird in dem Garbereich während des Garprozesses überwacht. Dazu werden mittels wenigstens einer Kameraeinrichtung über die Zeit Bilder des Garbereichs erfasst. Die Bilder bestehen jeweils aus einer Vielzahl von Bildelementen. Alle für das gesamte Bild zugänglichen direkten Messgrößen sind auch für jedes Bildelement zugänglich. Die Bilder werden mittels wenigstens einer Verarbeitungseinrichtung ausgewertet. Dabei werden sich über die Zeit verändernde Bildelemente identifiziert und als zu dem Gargut gehörend zugeordnet, um eine Unterscheidung von den von außerhalb des Garguts stammenden Bildelementen im Garbereich zu ermöglichen.
  • Das erfindungsgemäße Verfahren bietet viele Vorteile. Ein erheblicher Vorteil ist, dass die von dem Gargut stammenden Bildelemente unverfälscht die Eigenschaften des Garguts enthalten und Für die Weiterverarbeitung bzw. Auswertung stehen somit Informationen bereit, welche mit besonders hoher Zuverlässigkeit auch tatsächlich von dem Gargut ausgehen. Störende oder nicht relevante Einflüsse von außerhalb des Garguts können dann entsprechend gewertet bzw. ausgeblendet werden. So ist eine erheblich verbesserte Überwachung des Garguts möglich. Dadurch kann eine besonders aussagekräftige Charakterisierung von bestimmten Garguteigenschaften erfolgen. Durch die Erfindung können beispielsweise Automatikprogramme sehr gezielt an das jeweilige Gargut bzw. den jeweiligen Garprozess angepasst werden, sodass besonders schmackhafte Garergebnisse erzielt werden können.
  • Das Besondere der erfindungsgemäßen Identifizierung steckt in dem Faktor Zeit, der bei Garprozessen zur Verfügung steht und die Garguterkennung besonders einfach macht. In einem Standbild zu erkennen, wo sich Gargut befindet, ist außergewöhnlich schwierig und, wenn überhaupt, nur halbwegs zufriedenstellend mit Methoden der künstlichen Intelligenz zu realisieren. Bei dem hier beschriebenem Verfahren wird im Unterschied zum Standbild ausgenutzt, dass während des Garens eine Bildfolge über den Garvorgang aufgenommen werden kann, für die beobachtet werden kann, wie sich einzelne Bildelemente zeitlich entwickeln. Bildelemente, die Gargut enthalten, verhalten sich völlig anders als Bildelemente, die den Garbereich mit Garraumwänden, Gefäßen uä enthalten. Diese Andersartigkeit bezieht sich nicht nur auf die Veränderung durch Bräunen und Verfärben, sondern z. B. auch auf Abstände durch Volumenveränderung oder Veränderungen der Oberflächentemperatur.
  • Die Bilder werden insbesondere während wenigstens eines Zeitabschnitts des Garprozesses erfasst. Insbesondere werden die sich während wenigstens eines Zeitabschnitts des Garprozesses verändernden Bildelemente identifiziert. Insbesondere werden mittels der Kameraeinrichtung Bilder des Garbereichs über einen Zeitraum erfasst, in welchem das Gargut behandelt und insbesondere erwärmt bzw. erhitzt wird. Insbesondere werden die sich während der Behandlung und insbesondere während des Erwärmens bzw. Erhitzens verändernden Bildelemente identifiziert und entsprechend zugeordnet. Die über die Zeit erfassten Bilder sind insbesondere eine Bildfolge. Insbesondere ist das Gargut während des Garprozesses in dem Garbereich angeordnet. Im Rahmen der vorliegenden Erfindung wird das Gargut insbesondere nicht als Teil des Garbereichs verstanden, auch wenn es dort positioniert ist.
  • Die Kameraeinrichtung umfasst insbesondere eine Vielzahl von Sensorsegmenten. Dabei ist vorzugsweise mit jeweils wenigstens einem Sensorsegment jeweils wenigstens ein Bildelement aus dem Garbereich ortsaufgelöst erfassbar. Ein Bildelement ist insbesondere jeweils wenigstens einem Sensorsegment der Kameraeinrichtung zugeordnet bzw. in wenigstens einem Sensorsegment abbildbar. Im Rahmen der vorliegenden Erfindung können Bildelement und Pixel synonym verwendet werden.
  • Vorzugsweise werden diejenigen Bildelemente dem Gargut zugeordnet, welche eine zeitliche Mindeständerung aufweisen. So können besonders zuverlässig die Bildelemente des Garguts erkannt werden. Bei Garprozessen ist es in der Regel nur das Gargut, welches durch das Erwärmen eine Änderung erfährt. Andere Teile verändern sich nicht oder nur zu Beginn des Garprozesses. Beispielsweise erhitzen sich die Wände des Garraums nach dem Aufheizen im Wesentlichen nicht mehr weiter und ändern ihre Farbe und Geometrie im Vergleich zu entsprechenden Änderungen beim Gargut nur unwesentlich. Insbesondere wird die Mindeständerung so festgelegt, dass einer falsch positiven Zuordnung zuverlässig entgegengewirkt wird. Insbesondere werden diejenigen Bildelemente dem Gargut zugeordnet, welche eine zeitliche Änderungsrate oberhalb eines Schwellenwertes aufweisen.
  • Vorzugsweise werden diejenigen Bildelemente dem Gargut nicht zugeordnet und/oder dem Garbereich zugeordnet, welche eine zeitliche Mindeständerung nicht erreichen. Beispielsweise sind es die Wandungen des Garraums und die Gargutträger, welche während des Garprozesses bzw. nach dem Aufheizen keine Änderung erfahren. So kommt es in der Haltephase der Garraumtemperatur auch an diesen Bauteilen zu keiner nennenswerten Temperaturveränderung. Insbesondere werden diejenigen Bildelemente dem Gargut nicht zugeordnet und/oder dem Garbereich zugeordnet, welche eine zeitliche Änderungsrate unterhalb eines Schwellenwertes aufweisen. Vorzugsweise ist wenigstens ein Zeitintervall definiert, über den die Mindeständerung vorliegen muss.
  • Es ist möglich, dass dem Gargut zugeordnete Bildelemente für die weitere Auswertung unberücksichtigt bleiben, wenn diese Bildelemente eine zeitliche Mindeständerung nicht erreichen. Das ermöglicht eine besonders zuverlässige Erkennung von relevanten Bildbereichen. So ist es beispielsweise möglich, dass Äpfel in einem Kuchenteig für eine Auswertung des Bräunungsverlaufs unberücksichtigt bleiben. So kann gezielt nur das Bräunen des Teigs überwacht werden, ohne dass die Äpfel das Ergebnis verfälschen würden. Insbesondere bleiben dem Gargut zugeordnete Bildelemente für die weitere Auswertung unberücksichtigt, wenn diese außerhalb eines Verlaufskorridors liegen. Der Verlaufskorridor kann beispielsweise zu Beginn oder in einer frühen Phase des Garprozesses oder auch später anhand der zu diesem Zeitpunkt bereits erfassten Daten festgelegt werden.
  • Es ist auch möglich, dass diejenigen Bildelemente unberücksichtigt bleiben und/oder nicht dem Gargut zugeordnet werden, welche zu Beginn des Garprozesses von wenigstens einem vorbestimmten Ausgangswert abweichen. Das hat den Vorteil, dass Bildelemente mit einem nicht zuverlässig identifizierbaren Inhalt nicht zu unerwünschten Abweichungen führen. Der Ausgangswert kann beispielsweise im Vorfeld ermittelt werden und in dem Gargerät bzw. in der Verarbeitungseinrichtung hinterlegt sein. Möglich ist auch, dass der Ausgangswert aufgrund von Benutzereingaben festgelegt oder zumindest teilweise beeinflusst wird. Der Ausgangswert kann durch die Eingabe des Garguttyps, beispielsweise Backwaren, Fleisch oder Gemüse, beeinflusst oder ausgewählt werden.
  • Vorzugsweise wird zur Identifizierung der sich über die Zeit verändernden Bildelemente wenigstens eine zeitliche Veränderung wenigstens einer Farbinformation und/oder Helligkeit Information und/oder Intensitätsinformation ausgewertet. Eine solche Auswertung bietet eine besonders zuverlässige Identifizierung des Garguts. Möglich ist auch, dass Identifizierung der sich über die Zeit verändernden Bildelemente wenigstens eine zeitliche Veränderung wenigstens einer anderen geeigneten charakteristischen Größe der Bildverarbeitung ausgewertet wird. Insbesondere werden diejenigen Bildelemente dem Gargut zugeordnet, welch eine zeitliche Mindeständerung der Farbinformation und/oder Helligkeitsinformation und/oder Intensitätsinformation aufweisen. Solche Informationen können beispielsweise eine Farbkoordinate und/oder Helligkeitskoordinate und/oder Intensitätskoordinator umfassen.
  • Insbesondere bleiben außerhalb eines Grenzwertes liegende Farbinformationen und/oder Helligkeitsinformationen und/oder Intensitätsinformationen für die Auswertung unberücksichtigt. Beispielsweise können lila oder türkis oder andere für Gar- bzw. Backvorgänge ungewöhnliche Farbwerte unberücksichtigt bleiben.
  • Besonders bevorzugt werden diejenigen Bildelemente dem Gargut zugeordnet, welche über die Zeit eine Zunahme einer Bräunung und/oder wenigstens eine Änderung eines Farbwertes, der charakteristisch für eine Bräunung ist, aufweisen, zum Beispiel ein Rot-Grün-Wert. Insbesondere werden diejenigen Bildelemente dem Gargut zugeordnet, welche über die Zeit eine Zunahme eines anderen für eine Bräunung charakteristischen Farbwerts aufweisen. Je nach Art des Wertes bzw. Darstellung des Wertes kann auch vorgesehen sein, dass die Bildelemente eine Abnahme eines solchen Wertes aufweisen müssen, um dem Gargut zugeordnet zu werden. Da die Bräunung ein besonders charakteristisches Merkmal für das Erhitzen von vielen Lebensmitteln ist, kann so eine besonders zuverlässige und treffsichere Zuordnung erfolgen.
  • In einer bevorzugten und besonders vorteilhaften Ausgestaltung zeigen die mittels der Kameraeinrichtung erfassten Bilder Temperaturverteilungen im Garbereich. Vorzugsweise wird dabei zur Identifizierung der sich über die Zeit verändernden Bildelemente wenigstens eine zeitliche Veränderung der Temperaturverteilungen ausgewertet. Die Kameraeinrichtung umfasst dabei insbesondere eine Wärmebildkamera oder ist als eine solche ausgebildet. Die mittels der Kameraeinrichtung erfassten Bilder sind insbesondere Wärmebilder. Insbesondere ist die Kameraeinrichtung dazu geeignet und ausgebildet, Bilder wenigstens in einem Infrarotbereich zu erfassen. Insbesondere ist die Kameraeinrichtung als IR-Kamera ausgebildet.
  • Dabei entspricht ein Bildelement insbesondere einem Temperaturwert oder umfasst wenigstens einen solchen. Insbesondere sind mittels der Kameraeinrichtung Temperaturen von dem bzw. aus dem Garbereich ortsaufgelöst erfassbar. Vorzugsweise werden diejenigen Bildelemente dem Gargut zugeordnet, welche eine zeitliche Mindeständerung der erfassten Wärmeleistung und/oder der Temperatur und/oder eines Emissionsgrads und/oder eines Falschfarbenwerts für die Temperatur aufweisen. Möglich ist auch, dass diejenigen Bildelemente dem Gargut zugeordnet werden, welche eine zeitliche Mindeständerung einer anderen durch eine Wärmebildkamera erfassbaren Größe aufweisen.
  • In einer ebenfalls bevorzugten und vorteilhaften Ausgestaltung enthalten die mittels der Kameraeinrichtung erfassten Bilder räumliche Bildinformationen aus dem Garbereich. Das bietet eine besonders vorteilhafte Überwachung. Unter einer räumlichen Bildinformation wird dabei insbesondere eine dreidimensionale Bildinformation verstanden. Vorzugsweise wird zur Identifizierung der sich über die Zeit verändernden Bildelemente wenigstens eine zeitliche Veränderung der räumlichen Bildinformation, vorzugsweise eine Abstandsänderung der Gargutoberfläche zur Kameraeinrichtung, ausgewertet. Insbesondere werden diejenigen Bildelemente dem Gargut zugeordnet, welche eine zeitliche Mindeständerung der räumlichen Bildinformation und insbesondere des Abstands aufweisen. Insbesondere werden diejenigen Bildelemente dem Gargut nicht zugeordnet und/oder dem Garbereich zugeordnet, welche eine zeitliche Mindeständerung der räumlichen Bildinformation und insbesondere des Abstands nicht erreichen.
  • Bevorzugt werden diejenigen Bildelemente dem Gargut zugeordnet, deren Abstand über die Zeit um ein bestimmtes Mindestmaß zunimmt und/oder abnimmt. Ob eine Zunahme oder Abnahme erforderlich ist, hängt beispielsweise von der Positionierung der Kameraeinrichtung in Bezug zu dem Gargut ab. Ist die Kameraeinrichtung oberhalb bzw. über dem Gargut angeordnet, ist insbesondere eine Abnahme des Abstands bzw. eine Zunahme der Höhe des Garguts besonders typisch zur Erkennung Backgut. Backgut geht in der Regel bei der Zubereitung im Backofen auf und gewinnt so an Höhe. Für anderes Gargut und beispielsweise für einen Braten bzw. Fleisch kann hingegen die Zunahme des Abstandes bzw. die Abnahme der Höhe ein charakteristisches Merkmal für die Zuordnung der Bildelemente zu dem Gargut sein. Räumliche Bildinformationen ermöglichen somit eine besonders aussagekräftige Überwachung des Garguts.
  • Die Kameraeinrichtung umfasst insbesondere wenigstens eine 3D-Kamera oder ist als eine solche ausgebildet. Insbesondere ist die Kameraeinrichtung dazu geeignet und ausgebildet, Bilder mit dreidimensionalen Bildinformationen bzw. dreidimensionale Bilder aus dem Garbereich zu erfassen. Die Bildelemente stellen insbesondere ortsaufgelöste dreidimensionale Informationen aus dem Garbereich zur Verfügung. Die 3D-Kamera wird beispielsweise nach dem TOF-Prinzip (time of flight) betrieben. Möglich sind auch andere Bauarten für 3D-Kameras.
  • In einer vorteilhaften Ausgestaltung wird während des Garprozesses wenigstens ein Verlaufskorridor berechnet und/oder berücksichtigt, welcher eine zu erwartende zeitliche Änderung für Bildelemente des Garguts beschreibt. Insbesondere bleiben Bildelemente unberücksichtigt und/oder werden nicht dem Gargut zugeordnet, welche außerhalb des Verlaufskorridors liegen. Der Verlaufskorridor kann beispielsweise zu Beginn oder in einer frühen Phase des Garprozesses oder auch später anhand der zu diesem Zeitpunkt bereits erfassten Daten festgelegt werden. Es kann auch ein zuvor ermittelter Verlaufskorridor hinterlegt sein. Der Verlaufskorridor kann aus Daten des aktuellen Garprozesses berechnet werden. Der Verlaufskorridor wird vorzugsweise aus der zeitlichen Änderung der bis dahin erfassten Bildelemente berechnet. Es ist möglich, dass der Verlaufskorridor aus einem Mittelwert und/oder einer Standardabweichung oder dergleichen berechnet wird bzw. solchen entspricht. Der Verlaufskorridor kann abhängig von einem eingestellten Automatikprogramm und/oder von einem vorgewählten Garguttyp sein. Ein solcher Verlaufskorridor bietet viele Vorteile für die Erkennung des Garguts. Zusätzlich oder alternativ zum Verlaufskorridor kann auch ein Zielwert berechnet werden, welchen ein Bildelement am Ende der zeitlichen Änderung aufweisen muss, um dem Gargut bzw. dem Garbereich zugeordnet zu werden.
  • Insbesondere erfolgt Identifizierung bzw. Zuordnung der Bildelemente des Garguts innerhalb der ersten 20 Minuten und vorzugsweise innerhalb der ersten 10 Minuten nach Beginn des Garprozesses. In diesem Zeitraum sind die Veränderungen des Garguts durch Erhitzen besonders charakteristisch, sodass eine besonders zuverlässige Zuordnung erfolgen kann. Insbesondere erfolgt die Zuordnung der Bildelemente des Garguts nach maximal 20 Minuten und vorzugsweise nach maximal 10 Minuten nach Beginn des Garprozesses. Möglich ist auch, dass die Zuordnung der Bildelemente des Garguts innerhalb der ersten 5 Minuten oder weniger erfolgt. Möglich ist auch das die Zuordnung der Bildelemente des Garguts innerhalb der ersten 30 Minuten oder 40 Minuten oder innerhalb der ersten Stunde erfolgt. Es ist möglich, dass der Zeitraum für die Zuordnung in Abhängigkeit eines eingestellten Automatikprogramms und/oder eines vorgewählten Garguttyps erfolgt.
  • In allen Ausgestaltungen ist es besonders bevorzugt, dass die dem Gargut zugeordneten Bildelemente einer Auswertung zur Bestimmung eines Fertigzeitpunktes und/oder einer Flächenausdehnung und/oder einer räumlichen Ausdehnung des Garguts unterzogen werden. Aufgrund der besonders zuverlässigen Erkennung des Garguts kann die Bestimmung des Fertigzeitpunktes besonders verlässlich und exakt erfolgen. Zudem können die Flächenausdehnung bzw. räumliche Ausdehnung erheblich zuverlässiger ermittelt werden, wenn zuvor die zum Gargut gehörenden Bereiche identifiziert wurden.
  • Möglich ist auch, dass die dem Gargut zugeordneten Bildelemente wenigstens einer anderen Auswertung unterzogen werden. Beispielsweise können die Bildelemente im Hinblick auf eine Homogenität der Zutaten und/oder auf Bräunungsunterschiede an der Oberfläche oder dergleichen hin analysiert werden. Die dem Gargut zugeordneten Bildelemente können auch einer Auswertung zur Bestimmung einer anderen Garguteigenschaft unterzogen werden, beispielsweise zur Bestimmung des Garguttyps. So kann erkannt werden, ob es sich um Teigwaren oder Fleisch oder Fisch oder Gemüse oder Obst handelt.
  • Besonders bevorzugt erfolgt Identifizierung der sich über die Zeit verändernden Bildelemente unter Berücksichtigung wenigstens eines für den Garprozess eingestellten Automatikprogramms und/oder wenigstens eines vorgewählten Garguttyps. Insbesondere wird abhängig von dem Automatikprogramm und/oder von dem Garguttyp eine zeitliche Mindeständerung und/oder ein Ausgangswert festgelegt. Beispielsweise kann für Teigwaren eine andere zeitliche Mindeständerung als für einen Braten notwendig sein, damit Bildelemente dem Gargut zugeordnet werden. Es ist bevorzugt, dass wenigstens ein Wert für die Mindeständerung und/oder der Ausgangswert abhängig von wenigstens einem Automatikprogramm und/oder abhängig von wenigstens einem vorgewählten Garguttyp festgelegt werden.
  • In allen Ausgestaltungen ist es besonders bevorzugt, dass das Gargerät mit einem Garraum ausgebildet ist. Vorzugsweise liegt der Garbereich in dem Garraum oder entspricht diesem, sodass das Gargut im Garraum während des Garprozesses überwacht wird. Insbesondere ist das Gargerät als ein Backofen ausgebildet. Insbesondere ist der Garraum durch wenigstens eine Garraumtür verschließbar. Insbesondere ist der Garraum beheizbar ausgebildet. Bei der Zubereitung von Lebensmitteln in einem beheizbaren Garraum können durch das hier vorgestellte Verfahren eine besonders zuverlässige Überwachung und auch eine besonders reproduzierbare Bestimmung des Fertigzeitpunktes durchgeführt werden.
  • Möglich ist aber auch, dass das Gargerät mit einem Kochfeld ausgebildet ist und dass der Garbereich auf dem Kochfeld liegt oder diesem entspricht. Insbesondere wird das Gargut auf dem Kochfeld während des Garprozesses überwacht. Dabei ist möglich, dass die Kameraeinrichtung in einer über dem Kochfeld angeordneten Dunstabzugshaube und/oder Beleuchtungseinrichtung und/oder Küchenmöbel oder dergleichen angeordnet ist. Möglich ist auch eine andere Anordnung der Kameraeinrichtung in Bezug zu dem Kochfeld. Insbesondere werden mittels der Kameraeinrichtung über die Zeitbilder des Garraums und/oder des Kochfeldes erfasst. Auch mit einem Kochfeld bietet das hier vorgestellte Verfahren eine vorteilhafte Überwachung.
  • Das erfindungsgemäße Gargerät ist nach dem zuvor beschriebenen Verfahren betreibbar. Insbesondere ist das Gargerät dazu geeignet und ausgebildet, nach dem zuvor beschriebenen Verfahren betrieben zu werden. Das zuvor beschriebene Verfahren dient insbesondere zum Betreiben des erfindungsgemäßen Gargerätes.
  • Auch das erfindungsgemäße Gargerät bietet viele Vorteile und ermöglicht eine erheblich verbesserte Überwachung des Garguts im Garbereich. Insbesondere umfasst das Gargerät wenigstens einen Garraum und/oder wenigstens ein Kochfeld. Der Garraum und/oder das Kochfeld stellen insbesondere wenigstens einen Teil des Garbereichs bereit oder sind als ein solcher ausgebildet.
  • Die Kameraeinrichtung ist insbesondere an einem Bauteil des Gargeräts angeordnet, sodass die Bildinformation aus dem Garbereich ohne Behinderung zu der Kameraeinrichtung transportiert werden kann. Wenn sich die Kameraeinrichtung nicht in direkter Sichtverbindung zum Garraum befindet, ist insbesondere mittels wenigstens eines Bauelementes ein optischer Weg geschaffen, welcher den Informationstransport sicherstellt. Solche Bauelemente sind beispielsweise Spiegel und/oder Linsen und/oder Blenden oder dergleichen.
  • Weitere Vorteile und Merkmale der vorliegenden Erfindung ergeben sich aus den Ausführungsbeispielen, welche im Folgenden mit Bezug auf die beiliegenden Figuren erläutert werden.
  • Es zeigen:
  • Figur 1
    eine rein schematische Darstellung eines erfindungsgemäßen Gargerätes in einer Vorderansicht; und
    Figur 2
    eine rein schematische Darstellung eines anderen erfindungsgemäßen Gargerätes in einer perspektivischen Ansicht.
  • Die Figur 1 zeigt ein ein erfindungsgemäßes Gargerät 1, welches hier als ein Backofen 100 ausgeführt ist. Das Gargerät 1 wird nach dem erfindungsgemäßen Verfahren betrieben. Das Gargerät 1 hat einen Garbereich 11, welcher hier durch einen beheizbaren Garraum 21 bereitgestellt wird. Der Garraum 21 ist durch eine Garraumtür 31 verschließbar. Das Gargerät 1 ist hier als ein Einbaugerät vorgesehen. Es kann auch als ein Standgerät ausgebildet sein.
  • Zur Zubereitung von Garguts ist eine Behandlungseinrichtung 2 vorgesehen, die in der hier dargestellten Ansicht nicht sichtbar im Garraum 21 bzw. Geräteinneren angeordnet ist. Die Behandlungseinrichtung 2 umfasst z. B. eine Heizeinrichtung mit mehreren Heizquellen für die Beheizung des Garraums 21. Als Heizquelle können beispielsweise eine Oberhitze und/oder eine Unterhitze, eine Heißluftheizquelle und/oder eine Grillheizquelle oder andere Arten von Heizquellen vorgesehen sein. Es kann auch ein Dampferzeuger vorgesehen sein. Zudem kann die Behandlungseinrichtung 2 zum Erhitzen bzw. Garen mit Hochfrequenzstrahlung ausgebildet sein und dazu wenigstens einen Hochfrequenzerzeuger umfassen.
  • Das Gargerät 1 umfasst hier eine nicht näher dargestellte und mit der Behandlungseinrichtung 2 wirkverbundene Steuereinrichtung zur Steuerung bzw. Regelung von Gerätefunktionen und Betriebszuständen. Über die Steuereinrichtung sind vorwählbare Betriebsmodi und vorzugsweise auch verschiedene Automatikprogramme bzw. Programmbetriebsarten und andere Automatikfunktionen ausführbar. Die Steuereinrichtung steuert dazu z. B. die Behandlungseinrichtung 2 in Abhängigkeit eines vorgewählten Betriebsmodus bzw. Automatikprogramms entsprechend an.
  • Zur Bedienung des Gargerätes 1 ist eine Bedieneinrichtung 101 vorgesehen. Beispielsweise können darüber der Betriebsmodus, die Garraumtemperatur und/oder ein Automatikprogramm bzw. eine Programmbetriebsart oder andere Automatikfunktion ausgewählt und eingestellt werden. Über die Bedieneinrichtung 101 können auch weitere Benutzereingaben vorgenommen werden und zum Beispiel eine Menüsteuerung vorgenommen werden. Die Bedieneinrichtung 101 umfasst auch eine Anzeigeeinrichtung 102, über die Benutzerhinweise und z. B. Eingabeaufforderungen angezeigt werden können. Die Bedieneinrichtung 101 kann Bedienelemente und/oder eine berührungsempfindliche Anzeigeeinrichtung 102 bzw. einen Touchscreen umfassen.
  • Zur Überwachung des Garguts während eines Garprozesses werden mittels einer Kameraeinrichtung 3 Bilder des Garbereichs 11 erfasst. Die Kameraeinrichtung 3 ist in der hier dargestellten Ansicht nicht sichtbar im Geräteinneren bzw. im Garraum 21 angeordnet. Die Bilder bestehen aus einer Vielzahl von Bildelementen bzw. Pixeln. Die Kameraeinrichtung 3 ist dazu mit einem Sensor mit einer Vielzahl von Sensorsegmenten ausgebildet, sodass die Bildinformationen pixelweise bzw. ortsaufgelöst erfassbar sind.
  • Um das Gargut von seiner Umgebung bzw. vom Garbereich 11 zu unterscheiden, werden mittels einer Verarbeitungseinrichtung 4 diejenigen Bildelemente identifiziert, welche sich während des Garprozesses verändern. Die Bildelemente, welche beispielsweise eine zeitliche Mindeständerung aufweisen, werden dann dem Gargut zugeordnet. Bildelemente ohne Veränderung bzw. unterhalb einer zeitlichen Mindeständerung werden dem Garbereich 11 zugeordnet. Da sich das Gargut während der Zubereitung verändert, die Umgebung jedoch gar nicht oder nur sehr wenig Änderungen zeigt, kann über die aufgenommenen Bilder sehr zuverlässig zwischen Gargut und Garbereich 11 unterschieden werden.
  • Die Kameraeinrichtung 3 ist beispielsweise als eine Wärmebildkamera bzw. IR-Kamera ausgebildet. Dabei werden Wärmebilder erfasst, welche Temperaturverteilungen im Garbereich 11 zeigen. Die einzelnen Bildelemente stellen die Temperaturen im Garbereich 11 ortsaufgelöst dar. Durch die hier vorgestellte Identifizierung des Garguts ist es möglich, allein die Temperatur des Lebensmittels zu erfassen, ohne dass beispielsweise ein nur sehr ungenauer Mittelwert über das gesamte Sichtfeld der Kamera herangezogen wird. Gargut und Garbereich haben beim Garen in der Regel sehr unterschiedlich hohe Temperaturen.
  • Diejenigen Bildelemente, welche während des Garprozesses charakteristische Veränderungen aufweisen, werden dann dem Gargut zugeordnet. Beispielsweise kommt es durch Erhitzen bei vielen Lebensmitteln zu einer Bräunung der Oberfläche. Dadurch ergibt sich eine Veränderung des Emissionsgrades, welche den Wärmebildern zu entnehmen ist und welche somit zur Identifizierung der zu dem Gargut gehörenden Bildelemente herangezogen werden kann. Der Emissionsgrad des Garbereichs ändert sich dagegen nicht.
  • Bei einem beispielhaften Messvorgang wird mit der Kameraeinrichtung 3 ein Wärmebild des gefüllten Garraums 21 erfasst. Dort sind Garraumwände, Gargutträger und andere Bauteile sowie das Lebensmittel umfasst.
  • Die IR-Kamera sieht den Garrauminhalt mit Gargut, Gargutgefäß, Backblech, Grillrost, Backblechhalterungen, Heizkörpern, Lampen, Garraumwänden oder allgemein Gargutzubehör und Garraumzubehör. Die IR-Kamera erfasst zu Beginn eines Garprozesses ein erstes Wärmebild und es ist zunächst unbekannt, in welchen Pixeln der IR-Kamera die Temperatur des Garguts erfasst wird. Wo das der Fall ist, ergibt sich erst während des Garens.
  • Trotz überall gleicher Temperatur im Garraum ergibt sich durch den unterschiedlichen Emissionsgrad der unterschiedlichen Materialien (Lebensmittel, Email, verchromter Stahl) im Wärmebild der IR-Kamera, die die vom Objekt emittierte Wärmestrahlung bestimmt, für jedes Material ein anderer Temperaturmesswert.
  • Der Garprozess wird gestartet. Die Garraumtemperatur steigt an. Die IR-Kamera macht fortwährend weitere Wärmebildaufnahmen.
  • In allen Pixeln steigen die Temperturmesswerte an, mehr oder weniger synchron mit der Temperaturerhöhung der Garraumluft. In der Haltephase für die Garraumlufttemperatur steigt die Temperatur im Wärmebild der IR-Kamera für jedes Objekt mit anderen Materialeigenschaften bzw. mit anderem Emissionsgrad auf seinen eigenen Messwert für seine Haltetemperatur (tatsächlich sind alle Objekttemperaturen des Garbereichs etwa gleich, der Emissionsgrad führt aber zu unterschiedlichen Messwerten im Wärmebild der IR-Kamera). Allein die Temperatur des Garguts bleibt auf einem anderen Temperaturniveau, weil es Wasser enthält, das nicht über etwa 100 °C erhitzt werden kann.
  • Im Folgenden schwanken alle Temperaturen nur mit einer temperaturregelungsabhängigen Amplitude um ihren Mittelwert. Die Mittelwerte liegen je nach Emissionsgrad der Objekte "irgendwo". Der Emissionsgrad ist eine Zahl zwischen 0 und 1 (0% und 100%). Ein Objekt mit Emissionsgrad 1 (z. B. Email) emittiert bei gleicher Temperatur 10x mehr Wärmestrahlung als ein Objekt mit Emissionsgrad 0,1 (z. B. verchromter Stahl).
  • Bei konstantem Emissionsgrad steigt die Leistung der emittierten Wärmestrahlung stark mit der Wärmestrahlung. Ändert sich bei einem Objekt die Leistung der emittierten Wärmestrahlung, kann das als Änderung der Objekttemperatur oder als Änderung des Objekt-Emissionsgrades gedeutet werden.
  • Für die Erkennung des Garguts im Wärmebild der IR-Kamera wird nun berücksichtigt, dass sich bei den anorganischen Materialien im Garraum (Gläser, Metalle, Email, ....) der Emissionsgrad nicht oder nur nur unwesentlich ändert. Die Temperatur im Garraum ist in der Haltephase und schwankt nur mit der Regelamplitude um seinen Mittelwert. Das heißt, alle Garraum- und Zubehörteile schwanken im Wärmebild der IR-Kamera um ihre individuellen (Strahlungs-) Temperaturen. Nichts ändert sich weiter. Alle Pixel, in denen dieser Befund vorliegt, gehören nicht zum Gargut.
  • Dann gibt es Pixel, in denen der zeitliche Verlauf der Temperatur im Wärmebild ein anderer ist. Auch hier wird zunächst im Wärmebild ein Anstieg auf eine individuelle Haltetemperatur beobachtet, auf tatsächlich etwa 100 °C. Trotz unveränderter Bedingungen bei der Temperaturregelung kommt es in diesen Pixeln dann aber noch zu einer Veränderung des Temperaturwertes, um den die Regelamplitude schwankt. Ab diesem Zeitpunkt kann das Gargut erkannt werden.
  • Der Effekt kommt dadurch zustande, dass einerseits die Oberflächentemperatur nach Austrocknung der Oberfläche und damit einhergehender Bräunung über den Haltewert der Anfangsphase (wo noch Wasser an der Oberfläche war) ansteigt und dass sich andererseits das organische Material des Lebensmittels chemisch und physikalisch ändert und damit im Gleichschritt auch sein Emissionsgrad. Beides führt zu einem anderen Messwert im Wärmebild der IR-Kamera. Je nach Gargut und Oberflächenveränderung kann die Temperaturveränderung im Wärmebild in die eine oder andere Richtung gehen. Wichtig ist nur, dass sich etwas ändert, obwohl sich der Garraum selbst, nach seiner Aufheizphase, in der Haltephase in einem stationären Zustand befindet. Es ist zur Erkennung von Pixeln, die das Gargut erfassen, nicht erforderlich zu wissen, ob die Temperaturänderung im Wärmebild wegen tatsächlicher Temperaturänderung an der Gargutoberfläche oder wegen Änderung des Emissionsgrades erfolgt. Alle Pixel, in denen dieser Befund vorliegt, gehören mit hoher Wahrscheinlichkeit zum Gargut.
  • Eine weitere Möglichkeit zur Identifizierung des Garguts ist, zusätzlich zur Wärmebildkamera eine Messsonde zum Einstechen in das Gargut einzusetzen. Mittels dieser Messsonde wird dann die Oberflächentemperatur des Garguts ermittelt. Da das Gargut während des Garprozesses seine Farbe verändert und beispielsweise gebräunt wird, kommt es zu einer Veränderung des Emissionsgrades des Lebensmittels. Entsprechend ergibt sich eine Temperaturdifferenz zwischen den Temperaturwerten der Messsonde und des Wärmebildes. Da sich der Emissionsgrad des Garbereichs 11 nicht verändert, ist für dessen Bildelemente keine solche Temperaturdifferenz zu beobachten. Somit kann über diese Temperaturdifferenz zwischen Gargut und Garbereich 11 unterschieden werden.
  • Eine andere Umsetzung dieses Prinzips ist, nicht die Temperaturdifferenz, sondern eine Nachführung des Emissionsgrades der Wärmebildkamera zu beobachten. Da sich der Emissionsgrad des Garguts während der Zubereitung ändert, müsste der Emissionsgrad der Wärmebildkamera entsprechend nachgeführt werden, bis dessen Temperaturmesswerte mit denen der Messsonde übereinstimmen. Für den Garbereich 11 ist eine solche Nachführung nicht nötig, da sich dessen Emissionsgrad nicht ändert. Somit ist über die zeitliche Abweichung des Emissionsgrades ebenfalls eine zuverlässige Identifizierung des Garguts möglich.
  • Zusätzlich oder alternativ können zur Identifizierung der sich über die Zeit verändernden Bildelemente beispielsweise Farbinformationen, Helligkeitsinformationen und/oder Intensitätsinformationen oder andere Größen der Bildverarbeitung ausgewertet werden. In einem solchen Fall ist die Kameraeinrichtung 3 beispielsweise zur Erfassung von Bildern im sichtbaren und/oder im infraroten Bereich des Lichts ausgebildet.
  • Beispielsweise zeigen viele Lebensmittel bei der Zubereitung eine charakteristische Bräunung und somit eine Farbänderung. Dazu werden die Bildelemente identifiziert, welche während des Garprozesses eine Veränderung eines oder mehrerer Farbwerte zeigen. Diese Bildelemente werden dann im Gargut zugeordnet.
  • Dazu können beispielsweise RGB-Farbkoordinaten betrachtet werden. Möglich ist auch, dass Farbkoordinaten im Lab-Farbraum (auch als L*a*b*-Farbraum oder CIELAB bezeichnet) betrachtet werden.
  • Bei der Lab-Darstellung können besonders gut Objekte erkannt werden, die über die Zeit eine Helligkeitsveränderung oder Farbänderung erfahren. Die Bildelemente, welche sich über die Zeit in ihrer Helligkeit nicht verändern, werden in der Lab-Darstellung weiß dargestellt. Die Bildelemente, die von einem Objekt stammen, welches über die Zeit gebräunt wurde, werden auch entsprechend dunkler dargestellt. So können beispielsweise Backwaren aus hellem Teig zuverlässig erkannt werden. Die Bauteilflächen im Garbereich 11 erfahren keine farbliche Änderung und bleiben in der Lab-Darstellung entsprechend weiß. Sie sind somit sehr einfach und zuverlässig aus der weiteren Analyse zu extrahieren. Auch geringe Änderungen während des Backens werden zuverlässig erkannt.
  • Das Lebensmittel kann nun, nach Identifizierung losgelöst vom übrigen Garbereich, weiter beobachtet werden und beispielsweise auf eine Zunahme der Bräunung hin untersucht werden. Ist eine bestimmte Bräunung erreicht, kann der Backvorgang beendet werden.
  • Für die Zuordnung zum Gargut kann es eine Bedingung sein, dass sich die Helligkeit in einem definierten Zeitintervall um einen bestimmten Betrag ändern muss. Ansonsten wird unterstellt, dass das Bildelement nicht zu dem Lebensmittel gehört. Eine andere Möglichkeit ist, nur diejenigen Bildelemente zu beobachten, die sich zu einem bestimmten Zeitpunkt des Garprozesses bereits außerhalb eines minimalen Änderungsfensters befinden. Die Bildelemente mit Werten innerhalb des Änderungsfensters werden dann dem Garbereich 11 zugeordnet.
  • Es kann eine Einschränkung der Bildelemente auf ein zulässiges Startfenster vorgesehen sein. Bildelemente, deren Werte außerhalb des Startfensters liegen und beispielsweise exotische Farben zeigen, werden dann aussortiert bzw. nicht dem Gargut zugeordnet. Gegebenenfalls können für Automatikprogramme oder für Lebensmittel bzw. Lebensmittelgruppen (Fleisch, Backwaren, Gemüse, etc.) angepasste Startfenster bzw. angepasste zulässige Startwerte vorgesehen sein. Beispielsweise kann für einen hellen Teig ein anderes Startfenster als für einen dunklen Teig vorgesehen sein.
  • Während der Auswertung kann der zeitliche Verlauf der Farbkoordinaten der zu beobachtenden Bildelemente verfolgt werden. Laufen die Bildelemente mit der Zeit aus einem Korridor, welcher z. B. durch die Farbkoordinaten Lab aufgespannt ist, werden die Bildelemente zur weiteren Beobachtung hinsichtlich der Bräunung verworfen.
  • Dabei wird der räumliche Korridor beispielsweise dynamisch während des laufenden Garprozesses erzeugt. Der Korridor ergibt sich z. B. aus den Bahnen der bis dahin übrig gebliebenen Bildelemente durch den entsprechenden Farbraum.
  • Eine Möglichkeit, ein Band für einen erlaubten Korridor zu bilden, ist beispielsweise wie folgt möglich. Zu jedem Zeitpunkt wird ein Mittelwert berechnet und die Standardabweichung der Helligkeit (L). Die Bandmitte ergibt sich zum Beispiel durch den Mittelwert. Die Bandbreite ist ein Bruchteil bis Vielfaches der Standardabweichung. So können besonders gut zu dunkle oder zu helle Ausreißer aus der Menge der Bildelemente bzw. der Pixelmenge eliminiert werden. Fällt eine Bahn zu einem Zeitpunkt aus dem Band, wird sie ab dem Zeitpunkt nicht mehr zur weiteren Berechnung von Mittelwert und Standardabweichung verwendet. Dadurch wird verhindert, dass die Standardabweichung durch die Ausreißer mit fortschreitender Gardauer immer größer und der zulässige Kanal immer breiter wird.
  • Es können auch farbliche Zielfenster für die Farbkoordinaten gesetzt werden, beispielsweise zum Fertigzeitpunkt. Wird von Start bis Ziel mit begleitenden (Farb-) Kanälen durch den Farbraum gearbeitet, sind Startfenster und Zielfenster schon Teil der Betrachtung und bereits in den Kanälen enthalten. Durch die Betrachtung von zeitlichen Verläufen mit unterschiedlicher Bräunungsgeschwindigkeit und unterschiedlicher Anfangsfarbe können zum Beispiel bei einem Kuchen die verschiedenen Komponenten unterschieden werden.
  • Soll beispielsweise ein Marmorkuchen zubereitet werden, gibt es hellen und schokoladenfarbigen Teig in verschiedenen Bereichen. Somit sind die Anfangswerte unterschiedlich. Auch die Verfärbungen im zeitlichen Verlauf erfolgen unterschiedlich stark. Da der dunkle Teig schon zu Beginn relativ dunkel ist, wird dieser während der Bräunung nicht so stark dunkler, wie ein bereits zu Beginn heller Teig. Durch die zuvor beschriebene Ausgestaltung des Verfahrens können die schokoladenfarbenen Bereiche ignorier werden. Es können gezielt nur die zu Beginn hellen Bereiche analysiert werden, um an ihnen die Bräunung zu bestimmen.
  • Soll beispielsweise ein Apfelkuchen auf einem Backblech zubereitet werden, bräunen die Äpfel wesentlich weniger langsamer als der helle Teig. Obwohl der helle Teig einen flächenmäßig geringeren Anteil der Oberfläche eines dicht mit Äpfeln belegen Kuchens ausmacht, können durch das zuvor beschriebene Verfahren gezielt die Bildelemente erkannt werden, die eine deutliche Bräunung zeigen (Teig). Zunächst werden alle Bereiche betrachtet, welche anfangs hell sind (Äpfel und Teig). Dann werden jedoch nur noch die sich schneller bräunenden Bereiche betrachtet. Die anderen Bildelemente bzw. die weißen Pixel stellen Äpfel dar und werden in die Bräunungsmessung nicht einbezogen oder weniger gewichtet. So werden unaufwendig und zuverlässig diejenigen Bildelemente identifiziert, die nur den hellen Teig darstellen. Nur an diesen wird die Bräunung bestimmt und nicht etwa integral gemittelt über eine Oberfläche unbekannter Zusammensetzung.
  • Die Kameraeinrichtung 3 kann auch als eine 3D-Kamera ausgebildet sein, sodass räumliche Bildinformationen aus dem Garbereich 11 erfasst werden können. Zur Identifizierung des Garguts wird dann beispielsweise der Abstand zwischen Kameraeinrichtung 3 und den im Garbereich 11 aufgenommenen Objekten ortsaufgelöst erfasst. Da die nicht zum Gargut gehörenden Komponenten des Garbereichs 11 während des Garprozesses ihren Abstand zur Kameraeinrichtung 3 nicht verändern, können diese darüber zuverlässig identifiziert werden. Hingegen kommt es bei einem Lebensmittel durch die Erhitzung zu Formänderungen und somit zu Abstandsänderungen.
  • Beispielsweise geht ein Kuchen während des Backens auf, sodass dessen Höhe zunimmt. Bei der hier gezeigten Anordnung der Kameraeinrichtung 3 oberhalb des Garbereichs 11 bzw. über dem Gargut kommt es dadurch zu einer Verminderung des Abstands. Dann können die Bildelemente, welche eine Abnahme des Abstandes aufweisen, den Gargut zugeordnet werden.
  • Andere Lebensmittel, wie zum Beispiel Fleisch, Fisch oder Gemüse, schrumpfen und scheren in der Regel während der Zubereitung. Dadurch nimmt deren Höhe ab oder an anderen Stellen auch zu, sodass bei der hier gezeigten Anordnung der Kameraeinrichtung 3 eine Zu- oder Abnahme des Abstands zur Kameraeinrichtung 3 erfasst werden kann.
  • Durch die hier vorgestellte Identifizierung des Lebensmittels im Garbereich 11 können besonders vorteilhaft weitere sensorische Auswertungen erfolgen. Beispielsweise kann die Flächenausdehnung des Lebensmittels aus dem Blickwinkel der Kamera 3 bestimmt werden. Dazu muss die Identifizierung der Bildelemente mit Gargut zu jedem Messzeitpunkt neu erfolgen, damit erkannt werden kann, die Anzahl Bildelemente mit Gargut hat sich mit der Garzeit erhöht oder verringert und um welchen Betrag. Es kann bestimmt werden, wie homogen ein Lebensmittel ist (Rosinenteig, mehrere Komponenten bei Ausläufen). Es können Durchmesserverteilungen für Pellkartoffeln, von Kartoffelstücken oder Kartoffelscheiben ermittelt werden. Grundsätzlich kann gemessen werden, wie feinstückig eine Lebensmittelzubereitung ist, um die erforderliche Garzeit abschätzen zu können. Ebenso können mittlere Bräunung und Bräunungsunterschiede an der Oberfläche sicher und zuverlässig ermittelt und überwacht werden.
  • In der Figur 2 ist ein als Kochfeld 41 ausgebildetes Gargerät 1 gezeigt. Das Kochfeld 41 bildet hier den Garbereich 11. Möglich ist auch, dass das Gargerät 1 als ein mit einem Kochfeld 41 ausgestatteter Herd ausgebildet ist. Oberhalb des Kochfeldes 41 ist hier eine Dunstabzugshaube 103 angeordnet. Die Behandlungseinrichtung 2 umfasst hier eine Mehrzahl von beheizbaren Kochstellen.
  • Die Kameraeinrichtung 3 ist hier zusammen mit der Verarbeitungseinrichtung 4 in der Dunstabzugshaube 103 untergebracht. Die Kameraeinrichtung 3 erfasst von dort den Garbereich 11. Das Gargerät 1 wird hier nach dem erfindungsgemäßen Verfahren betrieben. Dabei erfolgt das Erfassen der Bilder und dessen Auswertung sowie die Identifizierung der zu dem Gargut gehörenden Bildelemente vorzugsweise so wie zuvor mit Bezug zu der Figur 1 geschrieben.
  • Bezugszeichenliste
  • 1
    Gargerät
    2
    Behandlungseinrichtung
    3
    Kameraeinrichtung
    4
    Verarbeitungseinrichtung
    11
    Garbereich
    21
    Garraum
    31
    Garraumtür
    41
    Kochfeld
    100
    Backofen
    101
    Bedieneinrichtung
    102
    Anzeigeeinrichtung
    103
    Dunstabzugshaube

Claims (16)

  1. Verfahren zum Betreiben eines Gargeräts (1) mit wenigstens einem Garbereich (11) zur Zubereitung von Gargut, wobei das Gargut im Garbereich (11) während des Garprozesses überwacht wird und wobei dazu mittels wenigstens einer Kameraeinrichtung (3) über die Zeit Bilder des Garbereichs erfasst werden, wobei die Bilder jeweils aus einer Vielzahl von Bildelementen bestehen und mittels wenigstens einer Verarbeitungseinrichtung (4) ausgewertet werden,
    dadurch gekennzeichnet,
    dass sich über die Zeit verändernde Bildelemente identifiziert und als zu dem Gargut gehörend zugeordnet werden, um eine Unterscheidung von den von außerhalb des Garguts stammenden Bildelementen zu ermöglichen.
  2. Verfahren nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass diejenigen Bildelemente dem Gargut zugeordnet werden, welche eine zeitliche Mindeständerung aufweisen.
  3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass diejenigen Bildelemente dem Gargut nicht zugeordnet werden und/oder dem Garbereich (11) zugeordnet werden, welche eine zeitliche Mindeständerung nicht erreichen.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass dem Gargut zugeordnete Bildelemente für die weitere Auswertung unberücksichtigt bleiben, wenn diese eine zeitliche Mindeständerung nicht erreichen.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass diejenigen Bildelemente unberücksichtigt bleiben und/oder nicht dem Gargut zugeordnet werden, welche zu Beginn des Garprozesses von wenigstens einem vorbestimmten Ausgangswert abweichen.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zur Identifizierung der sich über die Zeit verändernden Bildelemente wenigstens eine zeitliche Veränderung wenigstens einer Farbinformation und/oder Helligkeitsinformation und/oder Intensitätsinformation ausgewertet wird.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass außerhalb eines Grenzwertes liegende Farbinformationen und/oder Helligkeitsinformationen und/oder Intensitätsinformationen für die Auswertung unberücksichtigt bleiben.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass diejenigen Bildelemente dem Gargut zugeordnet werden, welche über die Zeit eine Abnahme einer Helligkeit bzw. eine Zunahme einer Bräunung und/oder wenigstens eine Veränderung eines Farbwertes aufweisen.
  9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die mittels der Kameraeinrichtung (3) erfassten Bilder Temperaturverteilungen im Garbereich (11) zeigen und dass zur Identifizierung der sich über die Zeit verändernden Bildelemente wenigstens eine zeitliche Veränderung der Temperaturverteilungen ausgewertet wird.
  10. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die mittels der Kameraeinrichtung (3) erfassten Bilder räumliche Bildinformationen aus dem Garbereich (11) enthalten und dass zur Identifizierung der sich über die Zeit verändernden Bildelemente wenigstens eine zeitliche Veränderung der räumlichen Bildinformationen, vorzugsweise eine Abstandsänderung zur Kameraeinrichtung (3), ausgewertet wird.
  11. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass während des Garprozesses wenigstens ein Verlaufskorridor berechnet und/oder berücksichtigt wird, welcher eine zu erwartende zeitliche Änderung für Bildelemente des Garguts beschreibt und dass Bildelemente unberücksichtigt bleiben und/oder nicht dem Gargut zugeordnet werden, welche außerhalb des Verlaufskorridors liegen.
  12. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Identifizierung der Bildelemente des Garguts innerhalb der ersten 20 Minuten und vorzugsweise innerhalb der ersten 10 Minuten nach Beginn des Garprozesses erfolgt.
  13. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die dem Gargut zugeordneten Bildelemente einer Auswertung zur Bestimmung einer sich im Garprozess verändernden Eigenschaft des Garguts unterzogen werden.
  14. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Identifizierung der sich über die Zeit verändernden Bildelemente unter Berücksichtigung wenigstens eines für den Garprozess eingestellten Automatikprogramms und/oder wenigstens eines vorgewählten Garguttyps erfolgt.
  15. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Gargerät (1) mit einem Garraum (21) ausgebildet ist und dass der Garbereich (11) in dem Garraum (21) liegt oder diesem entspricht, sodass das Gargut im Garraum (21) während des Garprozesses überwacht wird.
  16. Gargerät (1), geeignet und ausgebildet zur Durchführung eines Verfahrens nach einem der vorhergehenden Ansprüche.
EP20163337.7A 2019-03-27 2020-03-16 Verfahren zum betreiben eines gargeräts und gargerät Withdrawn EP3715721A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019107812.1A DE102019107812A1 (de) 2019-03-27 2019-03-27 Verfahren zum Betreiben eines Gargeräts und Gargerät

Publications (1)

Publication Number Publication Date
EP3715721A1 true EP3715721A1 (de) 2020-09-30

Family

ID=69903011

Family Applications (1)

Application Number Title Priority Date Filing Date
EP20163337.7A Withdrawn EP3715721A1 (de) 2019-03-27 2020-03-16 Verfahren zum betreiben eines gargeräts und gargerät

Country Status (2)

Country Link
EP (1) EP3715721A1 (de)
DE (1) DE102019107812A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113676706A (zh) * 2021-08-26 2021-11-19 广东美的厨房电器制造有限公司 烹饪视频生成方法、装置、服务器及控制系统
WO2022089977A1 (de) 2020-10-29 2022-05-05 Miele & Cie. Kg Verfahren zum betreiben eines gargerätes und gargerät
BE1030431A1 (de) 2022-04-05 2023-10-27 Miele & Cie Verfahren zum Garen eines Garguts in einem Gargerät mit einer Kameraeinrichtung

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023165827A1 (de) 2022-03-04 2023-09-07 BSH Hausgeräte GmbH Bestimmen einer volumengrösse von gargut
DE102022210321A1 (de) 2022-09-29 2024-04-04 BSH Hausgeräte GmbH Identifizieren von Gargut in einem Wärmebild

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014086487A1 (en) * 2012-12-04 2014-06-12 Ingo Stork Genannt Wersborg Heat treatment device with monitoring system
WO2016179424A1 (en) * 2015-05-05 2016-11-10 June Life, Inc. Connected food preparation system and method of use
DE102016215550A1 (de) * 2016-08-18 2018-02-22 BSH Hausgeräte GmbH Feststellen eines Bräunungsgrads von Gargut
DE102017101183A1 (de) * 2017-01-23 2018-07-26 Miele & Cie. Kg Verfahren zum Betreiben eines Gargerätes und Gargerät
DE102017206056A1 (de) * 2017-04-10 2018-10-11 BSH Hausgeräte GmbH Betreiben eines Gargeräts

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013110644B3 (de) * 2013-09-26 2015-03-05 Rational Aktiengesellschaft Verfahren zum Garen von Lebensmitteln in einem Gargerät
DE102014210672A1 (de) * 2014-06-05 2015-12-17 BSH Hausgeräte GmbH Gargerät mit Lichtmusterprojektor und Kamera

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014086487A1 (en) * 2012-12-04 2014-06-12 Ingo Stork Genannt Wersborg Heat treatment device with monitoring system
WO2016179424A1 (en) * 2015-05-05 2016-11-10 June Life, Inc. Connected food preparation system and method of use
DE102016215550A1 (de) * 2016-08-18 2018-02-22 BSH Hausgeräte GmbH Feststellen eines Bräunungsgrads von Gargut
DE102017101183A1 (de) * 2017-01-23 2018-07-26 Miele & Cie. Kg Verfahren zum Betreiben eines Gargerätes und Gargerät
DE102017206056A1 (de) * 2017-04-10 2018-10-11 BSH Hausgeräte GmbH Betreiben eines Gargeräts

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022089977A1 (de) 2020-10-29 2022-05-05 Miele & Cie. Kg Verfahren zum betreiben eines gargerätes und gargerät
BE1028761B1 (de) * 2020-10-29 2022-05-31 Miele & Cie Verfahren zum Betreiben eines Gargerätes und Gargerät
CN113676706A (zh) * 2021-08-26 2021-11-19 广东美的厨房电器制造有限公司 烹饪视频生成方法、装置、服务器及控制系统
CN113676706B (zh) * 2021-08-26 2023-09-12 广东美的厨房电器制造有限公司 烹饪视频生成方法、装置、服务器及控制系统
BE1030431A1 (de) 2022-04-05 2023-10-27 Miele & Cie Verfahren zum Garen eines Garguts in einem Gargerät mit einer Kameraeinrichtung

Also Published As

Publication number Publication date
DE102019107812A1 (de) 2020-10-01

Similar Documents

Publication Publication Date Title
EP3715721A1 (de) Verfahren zum betreiben eines gargeräts und gargerät
EP3610198B1 (de) Betreiben eines gargeräts
EP3500798B1 (de) Feststellen eines bräunungsgrads von gargut
DE102019120008B4 (de) Verfahren zum Betreiben eines Gargeräts und Gargerät
DE102016107617A1 (de) Verfahren zum Betreiben eines Gargeräts und Gargerät
DE102019107834A1 (de) Verfahren zum Betreiben eines Gargeräts und Gargerät
DE102019107819A1 (de) Verfahren zum Betreiben eines Gargeräts und Gargerät
DE102019200583A1 (de) Gargerät und Verfahren zum Betreiben eines Gargeräts
DE102019107846A1 (de) Verfahren zum Betreiben eines Gargeräts und Gargerät
EP4229336A1 (de) Verfahren zur bestimmung des zeitpunktes für die reinigung eines garraums eines gargeräts
DE102019107828B4 (de) Verfahren zum Betreiben eines Gargeräts und Gargerät
EP4018129A1 (de) Betreiben eines haushalts-gargeräts mit mindestens einer kamera
EP3722673A1 (de) Gargerät und verfahren
DE102017129320A1 (de) Verfahren zum Betreiben eines Gargeräts sowie Gargerät
DE102019107815B4 (de) Verfahren zum Betreiben eines Gargeräts und Gargerät
BE1030431B1 (de) Verfahren zum Garen eines Garguts in einem Gargerät mit einer Kameraeinrichtung
DE102019107859A1 (de) Verfahren zum Betreiben eines Gargeräts und Gargerät
WO2023011841A1 (de) Verfahren zum überwachen von gargut und haushaltsgargerät
BE1030917B1 (de) Gargerät und Verfahren zum Betreiben eines Gargeräts
WO2019129446A1 (de) Haushaltsgerätevorrichtung, insbesondere haushaltskältegerätevorrichtung
EP4237748A1 (de) Verfahren zum betreiben eines gargerätes und gargerät
DE102021110068A1 (de) Verfahren zum Betreiben eines Gargeräts und Gargerät
EP3938710A1 (de) Optisches erkennen eines garguts
DE102019216682A1 (de) Bestimmen eines Ziel-Verarbeitungszustands eines zu behandelnden Garguts
DE102019206239A1 (de) Verfahren zum Betreiben eines Kochfeldes und Kochvorrichtung mit Kochfeld

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN PUBLISHED

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20210331