DE102020126930A1 - Method for determining the point in time for cleaning a cooking chamber of a cooking appliance - Google Patents
Method for determining the point in time for cleaning a cooking chamber of a cooking appliance Download PDFInfo
- Publication number
- DE102020126930A1 DE102020126930A1 DE102020126930.7A DE102020126930A DE102020126930A1 DE 102020126930 A1 DE102020126930 A1 DE 102020126930A1 DE 102020126930 A DE102020126930 A DE 102020126930A DE 102020126930 A1 DE102020126930 A1 DE 102020126930A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- camera
- cooking chamber
- cooking
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010411 cooking Methods 0.000 title claims abstract description 236
- 238000000034 method Methods 0.000 title claims abstract description 78
- 238000004140 cleaning Methods 0.000 title claims abstract description 55
- 238000011156 evaluation Methods 0.000 claims abstract description 68
- 238000012935 Averaging Methods 0.000 claims abstract description 31
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 16
- 238000011109 contamination Methods 0.000 claims description 41
- 230000008569 process Effects 0.000 claims description 37
- 238000009795 derivation Methods 0.000 claims description 29
- 238000012937 correction Methods 0.000 claims description 10
- 238000004422 calculation algorithm Methods 0.000 claims description 4
- 230000004069 differentiation Effects 0.000 claims description 2
- 238000001914 filtration Methods 0.000 claims description 2
- 238000010191 image analysis Methods 0.000 abstract description 3
- 235000013305 food Nutrition 0.000 description 34
- 230000003287 optical effect Effects 0.000 description 13
- 230000008859 change Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 238000001816 cooling Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000000197 pyrolysis Methods 0.000 description 5
- 238000009413 insulation Methods 0.000 description 4
- 239000000047 product Substances 0.000 description 4
- 238000010438 heat treatment Methods 0.000 description 3
- 235000019645 odor Nutrition 0.000 description 3
- 235000013550 pizza Nutrition 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 239000005388 borosilicate glass Substances 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 235000012020 french fries Nutrition 0.000 description 2
- 239000003365 glass fiber Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000011088 parchment paper Substances 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 238000001931 thermography Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 241000272525 Anas platyrhynchos Species 0.000 description 1
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 235000007688 Lycopersicon esculentum Nutrition 0.000 description 1
- 241001237745 Salamis Species 0.000 description 1
- 240000003768 Solanum lycopersicum Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 235000013351 cheese Nutrition 0.000 description 1
- 239000007795 chemical reaction product Substances 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 229910002804 graphite Inorganic materials 0.000 description 1
- 239000010439 graphite Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 235000008216 herbs Nutrition 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 235000021190 leftovers Nutrition 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 235000014594 pastries Nutrition 0.000 description 1
- 238000004393 prognosis Methods 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 235000015175 salami Nutrition 0.000 description 1
- 235000015067 sauces Nutrition 0.000 description 1
- 239000004071 soot Substances 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 235000013311 vegetables Nutrition 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F24—HEATING; RANGES; VENTILATING
- F24C—DOMESTIC STOVES OR RANGES ; DETAILS OF DOMESTIC STOVES OR RANGES, OF GENERAL APPLICATION
- F24C7/00—Stoves or ranges heated by electric energy
- F24C7/08—Arrangement or mounting of control or safety devices
- F24C7/082—Arrangement or mounting of control or safety devices on ranges, e.g. control panels, illumination
- F24C7/085—Arrangement or mounting of control or safety devices on ranges, e.g. control panels, illumination on baking ovens
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F24—HEATING; RANGES; VENTILATING
- F24C—DOMESTIC STOVES OR RANGES ; DETAILS OF DOMESTIC STOVES OR RANGES, OF GENERAL APPLICATION
- F24C14/00—Stoves or ranges having self-cleaning provisions, e.g. continuous catalytic cleaning or electrostatic cleaning
Landscapes
- Engineering & Computer Science (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Mechanical Engineering (AREA)
- General Engineering & Computer Science (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
Abstract
Die vorliegende Erfindung bezieht sich auf ein Verfahren zur Bestimmung des Zeitpunktes für die Reinigung eines Garraums (6) eines Gargeräts (30), bei dem Kamerabilder (32) einer in den Garraum (6) gerichteten Kamera (8) einer Auswerteelektronik (40) zugeführt werden, die anhand der Kamerabilder (32) den Verschmutzungsgrad des Garraums (6) über eine softwaregestützte Bildauswertung bestimmt.Um den richtigen Zeitpunkt für die Reinigung des Garraums (6) mit einer verbesserten Genauigkeit zu bestimmen, wird vorgeschlagen, dass aus mehreren Kamerabildern (32) die Helligkeitswerte (60) mehrerer oder aller Pixel der Kamerabilder (32) über eine Mittelwertbildung (70) mittels einer Metrik und anschließender Grenzwertbildung (80) oder über eine Grenzwertbildung (80) und anschließender Mittelwertbildung (70) mittels einer Metrik entschieden wird, ob eine Reinigung erforderlich ist.The present invention relates to a method for determining the time for cleaning a cooking chamber (6) of a cooking appliance (30), in which camera images (32) of a camera (8) directed into the cooking chamber (6) are fed to evaluation electronics (40). which uses the camera images (32) to determine the degree of soiling of the cooking chamber (6) using software-supported image analysis. In order to determine the right time for cleaning the cooking chamber (6) with improved accuracy, it is proposed that several camera images (32 ) the brightness values (60) of several or all pixels of the camera images (32) via an averaging (70) using a metric and subsequent limit value formation (80) or via a limit value formation (80) and subsequent averaging (70) using a metric, it is decided whether cleaning is required.
Description
Die vorliegende Erfindung bezieht sich auf ein Verfahren zur Bestimmung des Zeitpunktes für die Reinigung eines Garraums eines Gargeräts, bei dem Kamerabilder einer in den Garraum gerichteten Kamera einer Auswerteelektronik zugeführt werden, die anhand der Kamerabilder den Verschmutzungsgrad des Garraums über eine softwaregestützte Bildauswertung bestimmt.The present invention relates to a method for determining the time for cleaning a cooking chamber of a cooking appliance, in which camera images from a camera directed into the cooking chamber are fed to evaluation electronics, which uses the camera images to determine the degree of soiling of the cooking chamber using software-supported image analysis.
Aus der Schrift
Aus der Schrift
In der Schrift
Aus der Schrift
Das generelle Problem besteht darin, dass ein Gargerät zu selten gereinigt und eine Reinigung aufgeschoben wird, obwohl sie die Funktion des Gargeräts und das Ergebnis des Garprozesses verbessern helfen könnte. Einen wesentlichen Teil einer Verschmutzung eines Gargeräts machen Fettspritzer aus, die an den Innenraumflächen eines Gargeräts anhaften.The general problem is that a cooking appliance is cleaned too infrequently and cleaning is postponed even though it could help the function of the cooking appliance and the result of the cooking process. Fat spatters adhering to the interior surfaces of a cooking appliance make up a significant part of the soiling of a cooking appliance.
Es ist es nachteilig, wenn ein Benutzer des Gargeräts ohne einen konkreten Hinweis die erforderliche Reinigung so lange hinausschieben könnte, dass sich in einem übermäßig verschmutzten Gargerät von den Verschmutzungen herrührende Rußpartikel auf den zu garenden Lebensmitteln bei einem Garvorgang ablagern. Eine Lichtquelle, die den Garraum ausleuchten soll, kann durch Verschmutzungen abgedunkelt werden, so dass sie den Garraum nicht mehr ausreichend ausleuchtet, um darin das Gargut während eines Garprozesses gut beobachten zu können. Die Bildqualität von Kamerabildern kann sich durch die ausbleibende Reinigung nachhaltig verschlechtern. Das ist besonders misslich, wenn die Kamerabilder auf ein Display des Gargeräts oder eines vom Gargerät unabhängigen Smart Devices übertragen werden und auf den Kamerabildern das Gargut nicht mehr optimal zu sehen ist. Der Garfortschritt wird dadurch schlechter erkannt und möglicherweise fehlerhaft bewertet. Auch der ästhetische Genuss, den Garfortschritt zu sehen, kann beeinträchtigt werden. Bei einer verspäteten Reinigung des Garraums kann ein erhöhter Arbeitsaufwand entstehen, oder es entstehen bei einer pyrolytischen Reinigung unangenehme Gerüche aus dem Abbrand der Verschmutzungen. Die Reaktionsprodukte aus dem Abbrand von Verschmutzungen können zudem für die Raumluft zulässige Grenzwerte überschreiten, ohne dass der Benutzer das bemerkt.It is disadvantageous if a user of the cooking appliance could postpone the required cleaning for so long without specific information that soot particles originating from the dirt are deposited on the food to be cooked during a cooking process in an excessively dirty cooking appliance. A light source that is intended to illuminate the cooking chamber can be darkened by soiling, so that it no longer illuminates the cooking chamber sufficiently to be able to observe the food well during a cooking process. The image quality of camera images can deteriorate over the long term if they are not cleaned. This is particularly unfortunate when the camera images are projected onto a display of the cooking appliance or a smart device that is independent of the cooking appliance and the food to be cooked can no longer be seen optimally on the camera images. As a result, the cooking progress is recognized more poorly and may be incorrectly evaluated. The aesthetic pleasure of seeing the cooking progress can also be affected. Delayed cleaning of the cooking chamber can result in an increased workload, or pyrolytic cleaning can result in unpleasant odors as the dirt burns off. The reaction products from the combustion of pollution can also exceed permissible limit values for the room air without the user noticing.
Demgemäß ist es die Aufgabe der vorliegenden Erfindung, ein Verfahren zu schaffen, das eine verbesserte Genauigkeit bei der Bestimmung des richtigen Zeitpunkts für die Reinigung des Garraums eines Gargeräts ermöglicht.Accordingly, it is the object of the present invention to create a method that enables improved accuracy when determining the right point in time for cleaning the cooking chamber of a cooking appliance.
Die Aufgabe wird für ein gattungsgemäßes Verfahren gelöst, indem aus mehreren Kamerabildern die Helligkeitswerte mehrerer oder aller Pixel der Kamerabilder über eine Mittelwertbildung mittels einer Metrik und anschließender Grenzwertbildung oder über eine Grenzwertbildung und anschließender Mittelwertbildung mittels einer Metrik entschieden wird, ob eine Reinigung erforderlich ist.The object is achieved for a generic method in that, from several camera images, the brightness values of several or all pixels of the camera images are decided whether cleaning is required by averaging using a metric and subsequent forming a limit value or using a limiting value and subsequent averaging using a metric.
Zu unterscheiden, ob ein dunkler Fleck durch eine Verschmutzung oder aber durch das Gargut hervorgerufen wird, ist im Allgemeinen schwierig. Flecken sind auch schwerer zu identifizieren, wenn der Hintergrund, beispielsweise ein Backblech, sehr dunkel ist. Über mehrere Garvorgänge hinweg ändert sich jedoch das Gargut. Die Verschmutzungen ändern jedoch ihre Position nicht, es kommen allenfalls weitere Flecken hinzu. Um festzustellen, ob ein Pixel eine verschmutzte Stelle zeigt, kann z.B. überprüft werden, ob der Pixel einen bestimmten Helligkeitswert unterschreitet. Durch die Auswertung mehrerer Bilder oder eines aus mehreren Bildern kombinierten Bildes kann die Erkennung deutlich verbessert werden. Erfahrungen haben gezeigt, dass verschmutzte Regionen tendenziell immer dunkler und über mehrere Garvorgänge hinweg weniger variabel sind als unverschmutzte Regionen. Bei einem einzelnen Bild ist nicht bekannt, ob eine dunkle Stelle durch Verschmutzung oder durch eine lokale Eigenschaft der Szene hervorgerufen wird. Bei Betrachtung von Bildern aus mehreren Vorgängen sind die Verschmutzungen jedoch immer an der gleichen Stelle, wohingegen die Szene sich ändert. Die verschmutzten Bildteile ändern sich in einer Abfolge von mehreren Kamerabildern weniger als die unmittelbare Umgebung. Die Verwendung mehrerer Bilder erlaubt die Schmutzerkennung, ohne dass eine gezielte Handlung des Anwenders erforderlich wäre.It is generally difficult to distinguish whether a dark spot is caused by soiling or by the food being cooked. Stains are also harder to identify when the background, such as a baking sheet, is very dark. However, the food changes over several cooking processes. However, the soiling does not change its position, at most further stains appear. In order to determine whether a pixel shows a dirty spot, it can be checked, for example, whether the pixel falls below a certain brightness value. Recognition can be significantly improved by evaluating multiple images or an image combined from multiple images. Experience has shown that soiled regions tend to be darker and less variable over multiple cooking cycles than unpolluted regions. For a single image, it is not known whether a dark spot is caused by pollution or by a local feature of the scene. However, when viewing images from multiple events, the dirt is always in the same place while the scene changes. The dirty parts of the image change less than the immediate surroundings in a sequence of several camera images. The use of multiple images allows dirt to be detected without the user having to take any specific action.
Das gilt selbst dann, wenn für die Mittelwert- und Grenzwertbildung Kamerabilder verwendet werden, auf denen kein in den Garraum eingestelltes Gargut erkennbar ist. Durch unterschiedliche Beleuchtungsverhältnisse in den einzelnen Kamerabildern, die von Lichtquellen stammen, die sich innerhalb und außerhalb des Garraums befinden können, unterschiedliche Einschubstellungen von Backblechen und Rosten und anderen in den Garraum eingestellten Gegenständen wie beispielsweise Backformen kann sich bereits eine für Auswertungszwecke ausreichende Varianz zwischen den Kamerabildern ergeben. Gelegentliche Bilder eines leeren Garraums sind besonders interessant, da sie gänzlich andere Helligkeitswerte und Strukturen zeigen als Kamerabilder mit Gargütern im Garraum. Bezüglich der Bildwerte der einzelnen Pixel solcher Kamerabilder können sich hier besondere Unterschiede ergeben.This applies even if camera images are used for averaging and limit value formation, on which no food placed in the cooking chamber can be seen. Different lighting conditions in the individual camera images, which originate from light sources that can be located inside and outside the cooking chamber, different insertion positions of baking trays and racks and other objects placed in the cooking chamber, such as baking tins, can already result in a sufficient variance between the camera images for evaluation purposes result. Occasional images of an empty cooking chamber are particularly interesting because they show completely different brightness values and structures than camera images with food to be cooked in the cooking chamber. Particular differences can arise here with regard to the image values of the individual pixels of such camera images.
Die Verwendung eines, mehrerer oder ausschließlich Gargut zeigender Kamerabilder für die Mittelwert- und Grenzwertbildung kann gleichwohl technisch sinnvoll sein, weil das bei einem jeweiligen Garvorgang im Garraum befindliche Gargut statistisch nicht die exakt gleiche Textur und Farbe wie bei einem anderen Garvorgang besitzt. Insbesondere lokale Grauwert- oder Farbschwankungen, wie sie durch einen in den Garraum eingelegten hellen Teig, rote Tomatensauce und Salami auf einer Pizza, braunes Gebäck, Kuchen und Braten, gelben Käse und grünes Gemüse und Kräutern in Aufläufen und dergleichen bei den jeweiligen Backvorgängen auftreten, gleichen sich über die Mittelung aus und nehmen einen aus den einzelnen Kamerabildern gemittelten Grau- oder Farbwert an. Jedes bei einem Garvorgang gefertigte Kamerabild des Garraums, gleichgültig, ob es sich dabei um ein Farb- oder Schwarz-Weiß-Bild handelt, unterscheidet sich somit deutlicher von anderen Kamerabildern des Garraums. Das gilt selbst dann, wenn ein Benutzer beispielsweise immer nur Pizza im Gargerät gart, weil sich selbst dann der Belag und die Position der Pizza im Garraum von vorhergehenden Garvorgängen unterscheiden. Aus den auf Kamerabildern gezeigten Gargütern ergibt sich eine größere Varianz in den Bildwerten der einzelnen Pixel oder Pixelfelder, aus denen die Kamerabilder als digitale Daten zusammengesetzt sind.The use of one, several or only camera images showing the food to be cooked for the averaging and limit value formation can nevertheless be technically sensible because the food to be cooked in the cooking chamber during a particular cooking process statistically does not have exactly the same texture and color as in another cooking process. In particular, local gray value or color fluctuations, such as those caused by light dough placed in the cooking compartment, red tomato sauce and salami on a pizza, brown pastries, cakes and roasts, yellow cheese and green vegetables and herbs in casseroles and the like during the respective baking processes. balance each other out by averaging and adopt a gray or color value averaged from the individual camera images. Each camera image of the cooking space produced during a cooking process, regardless of whether it is a color or black-and-white image, thus differs more clearly from other camera images of the cooking space. This applies even if a user only ever cooks pizza in the cooking device, for example, because even then the topping and the position of the pizza in the cooking chamber differ from previous cooking processes. The items to be cooked shown on camera images result in a greater variance in the image values of the individual pixels or pixel fields from which the camera images are composed as digital data.
Eine Varianz in den Bildwerten kann sich insbesondere ergeben, indem das Gargut im Garraum bewegt wird. Es können auch Kamerabilder verwendet werden, die von verschiedenen aufeinanderfolgenden Garvorgängen mit unterschiedlichem Gargut gemacht wurden. Schließlich können sich unterschiedliche Helligkeitswerte der einzelnen Pixel auch schon aus einem Vergleich von Kamerabildern von einem einzigen Garvorgang ergeben, wenn sich das Gargut beim Garprozess ausreichend verändert, zum Beispiel aufgeht und/oder bräunt.A variance in the image values can arise in particular if the food to be cooked is moved in the cooking chamber. Camera images can also be used that were taken from various successive cooking processes with different items to be cooked. Finally, different Hel Values of the individual pixels can also be obtained from a comparison of camera images from a single cooking process if the food to be cooked changes sufficiently during the cooking process, for example rises and/or browns.
Je mehr Kamerabilder mit unterschiedlichen Garraum- und/oder Gargutdarstellungen gemittelt werden, umso besser wird in der Tendenz das Bewertungsergebnis. Es können aber auch schon weniger Kamerabilder für eine Bewertung ausreichen, wenn diese eine für Bewertungszwecke ausreichende Varianz in den Helligkeitswerten der einzelnen Pixel bieten. Um eine qualitativ ausreichend sichere Bewertung zu bekommen, muss das Gargerät gebraucht worden sein, wofür eine gewisse Zeit erforderlich ist. Es kommen bei einer Betrachtung des Garraums über einen längeren Gebrauchszeitraum hinweg allenfalls weitere Schmutzstellen hinzu, die sich dann ebenfalls ortsmäßig nicht und hinsichtlich ihrer Form und Farm kaum mehr verändern, bis die nächste Reinigung ausgeführt wird.The more camera images with different representations of the cooking chamber and/or the food being cooked are averaged, the better the evaluation result tends to be. However, even fewer camera images can suffice for an assessment if they offer sufficient variance in the brightness values of the individual pixels for assessment purposes. In order to get a qualitatively sufficiently reliable assessment, the cooking appliance must have been used, which requires a certain amount of time. When looking at the cooking chamber over a longer period of use, further dirt spots may appear, which then also do not change in terms of location and hardly change in terms of their shape and structure until the next cleaning is carried out.
In jedem Fall verändern sich die Helligkeitswerte von Pixeln bei der Mittelung zu einem Durchschnittsbild, unabhängig von dem Umstand, ob die für die Mittelung verwendeten Kamerabilder Gargut zeigen oder nicht, während Schmutzstellen an derselben Stelle und hinsichtlich ihrer Form und Helligkeit auch bei weiteren Garvorgängen zumindest annähernd gleich bleiben. Das ist auch unabhängig von der Verwendung von einer Farb- oder einer monochromatischen Kamera.In any case, the brightness values of pixels change when averaging to form an average image, regardless of whether the camera images used for the averaging show the food to be cooked or not, while dirt spots are at the same place and, with regard to their shape and brightness, are at least approximately the same during further cooking processes stay the same. This is also independent of the use of a color or a monochromatic camera.
Unter der Mittelwertbildung zur Erzeugung eines Durchschnittsbildes mittels einer Metrik ist ein mathematisches Verfahren zu verstehen, unter dessen Anwendung Bildwerte von Pixeln miteinander verrechnet werden, um Informationen über Regionen zu erhalten, die sich nicht beziehungsweise nicht mehr verändern und die deshalb als verschmutzte Regionen betrachtet werden können. Aus den mehreren Kamerabildern kann ein Durchschnittsbild gebildet werden, indem aus den Grau- oder Farbwerten für einen in den Kamerabildern sich entsprechenden Pixelpunkt oder ein Pixelfeld beispielsweise ein arithmetischer Mittelwert oder ein Medianwert als Metrik berechnet wird. Der Vorteil eines Medianwertes ist darin zu sehen, dass einzelne Ausreißer-Werte einen geringeren Einfluss auf den gemittelten Wert haben. Wenn sich beispielsweise Fettablagerungen auf Wandungsflächen im Garraum befinden, sind diese auf dem Durchschnittsbild deutlich als dunkle Flecken zu erkennen, die in ihrer Fläche und an den Rändern zu den Helligkeits- oder Farbwerten der umgebenden Bildbestandteile des Durchschnittsbildes kontrastieren.Averaging to generate an average image by means of a metric is a mathematical process used to calculate image values of pixels with one another in order to obtain information about regions that do not change or no longer change and which can therefore be regarded as dirty regions . An average image can be formed from the multiple camera images by calculating, for example, an arithmetic mean value or a median value as a metric from the gray or color values for a pixel point or a pixel field that corresponds to one another in the camera images. The advantage of a median value can be seen in the fact that individual outlier values have less of an impact on the mean value. For example, if there are fat deposits on wall surfaces in the cooking chamber, these can be clearly seen on the average image as dark spots that contrast in their area and at the edges with the brightness or color values of the surrounding image components of the average image.
Wenn in dieser Beschreibung vom „Durchschnittsbild“ die Rede ist, auf dessen Basis Auswertungen vorgenommen werden, so ist damit nicht immer nur genau das Durchschnittsbild im engen Sinne gemeint, das sich aus der Mittelung der Grau- oder Farbwerte der einzelnen Pixel aus den Kamerabildern ergibt, sondern in einem weiteren Sinne auch diejenigen Bilder und die darin enthaltenen Grau- oder Farbwerte und anderen Informationen, die sich aus einer weiteren Verarbeitung des Durchschnittsbildes im engeren Sinne ergeben, wie beispielsweise ein binarisiertes Bild, in dem die Pixel nur noch digital als „verschmutzt“ oder „nicht verschmutzt“ dargestellt sind. Wenn auch aus dem Durchschnittsbild gebildete Ableitungen gemeint sind, ist das jeweils angegeben.When this description refers to the "average image" on the basis of which evaluations are made, this does not always mean the exact average image in the narrow sense that results from the averaging of the gray or color values of the individual pixels from the camera images , but in a broader sense also those images and the gray or color values contained therein and other information that result from further processing of the average image in the narrower sense, such as a binarized image in which the pixels are only digitally labeled as "dirty ' or 'not soiled' are shown. If derivations formed from the average image are also meant, this is indicated in each case.
Für die Bildung eines Mittelwertes können aber auch andere Metriken verwendet werden. Beispielsweise sind die verschmutzten Pixel im Allgemeinen nicht nur dunkler als nichtverschmutzte Pixel, sondern besitzen auch eine geringere Standardabweichung beziehungsweise eine geringere Varianz. Daher kann statt des arithmetischen Mittelwerts auch die Standardabweichung oder die geringere Varianz ermittelt werden. Als Metrik zur Bildung eines Mittelwerts zur Zusammenfassung mehrerer Bilder können auch andere Verfahren verwendet werden, wie beispielsweise die Bildung eines geometrischen oder harmonischen Mittels, die Bildung von Mittelwerten in unterschiedliche Farbräumen, die Ermittlung von gewichteten Mittelwerten, die Bestimmung von räumlichen oder zeitlichen Gradienten von Helligkeit und/oder Farbe, die Anwendung von Hochpass-, Tiefpass- oder sonstigen Filtern, ohne dass diese beispielhafte Aufzählung auf die genannten Verfahren beschränkt wäre.However, other metrics can also be used to form an average value. For example, the dirty pixels are not only generally darker than non-dirty pixels, but also have a lower standard deviation or variance. Therefore, instead of the arithmetic mean, the standard deviation or the lower variance can also be determined. Other methods can also be used as a metric for forming an average for combining multiple images, such as forming a geometric or harmonic mean, forming averages in different color spaces, determining weighted averages, determining spatial or temporal gradients of brightness and/or color, the use of high-pass, low-pass or other filters, without this list of examples being limited to the methods mentioned.
Je nachdem, wie hoch die Auflösung des Durchschnittsbildes ist, kann die Auswerteelektronik Bildwerte für jeden einzelnen Pixel oder auch für Pixelfelder berechnen, in denen die Bildwerte von mehreren Pixeln gemeinsam betrachtet werden. Durch eine Betrachtung von Pixelfeldern kann die Komplexität der Berechnungen verringert werden, ohne dass dabei zwangsläufig ein Qualitätsverlust in der Bewertung des Verschmutzungsgrades eintreten muss.Depending on how high the resolution of the average image is, the evaluation electronics can calculate image values for each individual pixel or also for pixel fields in which the image values of several pixels are viewed together. By considering pixel fields, the complexity of the calculations can be reduced without a loss of quality in the assessment of the degree of soiling necessarily having to occur.
Aus dem Durchschnittsbild oder einer daraus gebildeten Ableitung werden Informationen über den Verschmutzungsgrad extrahiert, indem das Durchschnittsbild einer softwaregestützten Bildauswertung unterzogen wird. Die Bildauswertung kann über die bekannten statistischen Verfahren und/oder geeignete Filtertechniken unter Anwendung geeigneter Filter zu einzelnen Bildwerten wie beispielsweise den Helligkeits- oder Farbwerten einzelner Pixel und Pixelfelder, Flächenverteilungen bestimmter Helligkeits- oder Farbwerte, und dergleichen erfolgen. Die Bildauswertung ist dabei nicht mehr auf Informationen angewiesen, die außerhalb der Kamerabilder oder des Durchschnittsbildes oder einer daraus gebildeten Ableitung liegen, wie beispielsweise Referenzbilder oder sonstige Referenzwerte.Information about the degree of soiling is extracted from the average image or a derivation formed from it by subjecting the average image to a software-supported image evaluation. The image evaluation can use the known statistical methods and/or suitable filters techniques using suitable filters for individual image values such as the brightness or color values of individual pixels and pixel fields, area distributions of certain brightness or color values, and the like. The image evaluation is no longer dependent on information that is outside the camera images or the average image or a derivation formed therefrom, such as reference images or other reference values.
In Versuchen hat sich herausgestellt, dass es möglich ist, den Verschmutzungsgrad eines Garraums unabhängig davon zu erkennen, ob zuerst eine Mittelwertbildung mittels einer Metrik ausgeführt wird und erst daran anschließend die Grenzwertbildung erfolgt, oder ob die beiden Schritte in einer umgekehrten Abfolge ausgeführt werden. In beiden Fällen unterscheiden sich die Ergebnisse zwar graduell, in beiden Fällen wird der Verschmutzungsgrad des Garraums aber gut erkannt. Es ist auch möglich, den Verschmutzungsgrad zu bestimmen, indem beide Berechnungsweisen ausgeführt und die Ergebnisse beider Berechnungsweisen anschließend zu einer Bewertung des Verschmutzungsgrades zusammengeführt werden.Experiments have shown that it is possible to detect the degree of soiling of a cooking chamber regardless of whether an averaging is carried out first using a metric and only then is the limit value determined, or whether the two steps are carried out in reverse order. In both cases, the results differ gradually, but in both cases the degree of soiling of the cooking chamber is clearly identified. It is also possible to determine the degree of contamination by performing both calculation methods and then combining the results of both calculation methods to form an assessment of the degree of contamination.
Wenn der Verschmutzungsgrad des Garraums anhand der aus dem Durchschnittsbild oder einer daraus gebildeten Ableitung extrahierten Informationen einmal bestimmt ist, kann die Auswerteelektronik mühelos einen verschmutzungsgradadäquaten Zeitpunkt für die Reinigung des Garraums bestimmen. Die Auswerteelektronik kann insbesondere ein Signal ausgeben, dass ein Reinigungsvorgang empfohlen ist, wenn der anhand des Durchschnittsbildes oder einer daraus gebildeten Ableitung festgestellte Verschmutzungsgrad einen Schwellwert für eine nicht mehr akzeptable Verschmutzung erreicht hat. Der Schwellwert kann beispielsweise über einen prozentualen Flächenanteil der als verschmutzt erkannten Flächen an der Gesamtfläche des Durchschnittsbildes oder einer daraus gebildeten Ableitung und/oder dem Flächenanteil zumindest einer einzigen zusammenhängenden als verschmutzt erkannten Fläche an der Gesamtfläche des Durchschnittsbildes oder einer daraus gebildeten Ableitung definiert sein. Größere als verschmutzt erkannten Pixelfelder können zudem mit einer überproportionalen Gewichtung in der Bewertung berücksichtigt werden, weil großflächigere Verschmutzungen eher eine Reinigung des Garraums empfehlenswert erscheinen lassen.Once the degree of contamination of the cooking chamber has been determined using the information extracted from the average image or a derivation formed therefrom, the evaluation electronics can easily determine a point in time for cleaning the cooking chamber that is appropriate for the degree of contamination. In particular, the evaluation electronics can output a signal that a cleaning process is recommended when the degree of soiling determined using the average image or a derivation formed therefrom has reached a threshold value for soiling that is no longer acceptable. The threshold value can be defined, for example, via a percentage of the area of the areas identified as dirty in the total area of the average image or a derivation formed therefrom and/or the area percentage of at least one single coherent area identified as dirty in the total area of the average image or a derivation formed therefrom. Larger pixel fields recognized as dirty can also be taken into account with a disproportionate weighting in the evaluation, because larger areas of dirt make cleaning the cooking chamber seem advisable.
Zur Entscheidung, ob eine Reinigung erforderlich ist, ist festzustellen, dass es im Regelfall darum geht, dem Benutzer eine Meldung zu geben, dass eine Reinigung sofort durchgeführt werden sollte, wenn der Schwellwert für die Durchführung einer Reinigung erreicht worden ist. Natürlich ist es aber auch möglich, dem Benutzer einen Prognosewert zu melden, dass auf Basis der festgestellten Verschmutzung eine Reinigung spätestens nach beispielsweise zehn zusätzlichen Garzyklen durchgeführt werden sollte, oder dass eine Reinigung innerhalb der nächsten beispielsweisen fünf Garzyklen vorgenommen werden sollte. Bei Prognosen ergibt sich die Schwierigkeit, dass diese nicht ausreichend genau ausfallen können, weil nicht bekannt ist, wie stark der Garraum durch die noch anstehenden Garzyklen verschmutzt werden könnte. Beim Aufbacken von Brötchen ist die Verschmutzungsgefahr wesentlich geringer als beim Braten einer Ente. Deshalb ist es sinnvoll, bei Feststellung eines Verschmutzungsgrades, der einen Reinigungszyklus erforderlich macht, die Reinigung zeitnah zu verlangen, beispielsweise durch die Ausgabe einer Meldung „Reinigung notwendig“.In order to decide whether cleaning is necessary, it should be noted that it is usually a matter of giving the user a message that cleaning should be carried out immediately when the threshold value for carrying out cleaning has been reached. However, it is of course also possible to report to the user a prognosis value that, based on the soiling determined, cleaning should be carried out at the latest after ten additional cooking cycles, for example, or that cleaning should be carried out within the next five cooking cycles, for example. The problem with forecasts is that they cannot be sufficiently accurate because it is not known to what extent the cooking chamber could become soiled as a result of the cooking cycles that are still to come. When baking rolls, the risk of contamination is much lower than when roasting a duck. It therefore makes sense to promptly request cleaning when a degree of soiling is detected that makes a cleaning cycle necessary, for example by issuing a message "Cleaning necessary".
Die Auswerteelektronik kann die Bewertung des Reinigungsbedarfs nach jedem Garvorgang vornehmen, es ist aber auch eine Taktung möglich, wie beispielsweise nach jedem dritten oder fünften Garvorgang, oder die Bewertung wird anhand von Betriebsparametern wie beispielweise der vorgewählten Temperatur, einem eingeschalteten Grill, der Dauer eines Garvorgangs oder einer Kombination dieser Möglichkeiten durchgeführt.The evaluation electronics can evaluate the need for cleaning after each cooking process, but timing is also possible, for example after every third or fifth cooking process, or the evaluation is based on operating parameters such as the preselected temperature, a grill that is switched on, the duration of a cooking process or a combination of these options.
Über die softwaregestützte Bildverarbeitung können Pixel und/oder Pixelfelder aus den Kamerabildern oder dem Durchschnittsbild oder einer daraus gebildeten Ableitung als verdreckt oder nicht verdreckt klassifiziert werden und die Auswerteelektronik bestimmt aus den Anteilen der als verdreckt und als nicht verdreckt klassifizierten Pixel und/oder Pixelfelder den Verschmutzungsgrad des Garraums. So kann der Garraum von der Auswerteelektronik beispielsweise als reinigungsbedürftig bewertet werden, wenn der Anteil der als verdreckt klassifizierten Pixel und Pixelfelder an der Gesamtfläche des Durchschnittsbildes oder einer daraus gebildeten Ableitung einen Anteil von 5 % erreicht oder überschreitet. Der Anteil kann natürlich auch je nach Programmierung der Auswerteelektronik höher oder niedriger sein. Die Bildauswertung der Kamerabilder oder des Durchschnittsbildes oder einer daraus gebildeten Ableitung kann unabhängig davon erfolgen, wie Benutzer des Gargeräts den Garraum individuell bestücken, beispielsweise mit Rosten, Backblechen, Backpapieren oder sonstigen Gefäßen. Die Bildauswertung des Durchschnittsbildes oder einer daraus gebildeten Ableitung ist dadurch viel genauer in der Erkennung der Verschmutzungen, und der Zeitpunkt, zu dem ein Reinigungsvorgang durchgeführt werden soll, kann viel genauer bestimmt werden. Das Gargerät kann den Benutzer auch zu einem Zeitpunkt an eine fällig werdende Reinigung des Garraums erinnern, bevor sich die Verschmutzung nachteilig auf die zu garenden Speisen auswirkt, das Kamerabild vom Garraum die garenden Speisen nicht mehr in einer zufriedenstellenden Qualität zeigt oder bei einer pyrolytischen Reinigung unangenehme Gerüche entstehen, die vom Benutzer nicht mehr als tolerabel eingestuft werden oder wegen der Raumluftbelastung nicht mehr tolerabel sind.The software-supported image processing can be used to classify pixels and/or pixel fields from the camera images or the average image or a derivation formed therefrom as dirty or not dirty, and the evaluation electronics determine the degree of soiling from the proportions of the pixels and/or pixel fields classified as dirty and not dirty of the cooking chamber. For example, the evaluation electronics can assess the cooking chamber as in need of cleaning if the proportion of pixels and pixel fields classified as dirty in the total area of the average image or a derivation formed therefrom reaches or exceeds 5%. Of course, the proportion can also be higher or lower depending on the programming of the evaluation electronics. The image evaluation of the camera images or the average image or a derivation formed therefrom can take place independently of how users of the cooking appliance individually equip the cooking chamber, for example with grates, baking trays, baking paper or other vessels. The image evaluation of the average image or a derivation formed therefrom is therefore much more accurate in detecting the soiling, and the point in time at which a cleaning process is to be carried out can be determined much more precisely. That The cooking appliance can also remind the user that the cooking chamber needs to be cleaned at a point in time before the contamination has a negative effect on the food to be cooked, the camera image of the cooking chamber no longer shows the cooking food in a satisfactory quality, or unpleasant odors in the case of pyrolytic cleaning occur that are no longer classified as tolerable by the user or are no longer tolerable due to the pollution in the room air.
Die Reinigung kann dann je nach technischer Ausstattung des Gargeräts manuell durch den Benutzer oder thermisch über ein Pyrolyseprogramm erfolgen.Depending on the technical equipment of the cooking appliance, cleaning can then be carried out manually by the user or thermally using a pyrolysis program.
Die Erfindung ist in Gargeräten leicht und kostengünstig umsetzbar, da in einigen Gargeräten von professionellen Anwendern, aber auch solchen im Consumer-Bereich, schon heute eine geeignete Kamera serienmäßig verbaut wird. Die Herstellungskosten, die bei der Realisierung der Erfindung in einem Gargerät anfallen, sind dann sehr gering. Bei den Kameras handelt es sich oft um Kamerasysteme, die über eine softwaregestützte Bildauswertung verfügen. Über die Bildauswertung ist es möglich, zu erkennen, ob ein Gargut in den Garraum eingestellt worden ist. Es können dann Kamerabilder gefertigt werden, die den Garraum mit oder ohne einem darin eingestellten Gargut zeigen. Möglich sind aber auch andere Sensortechniken, wie beispielsweise Ultraschall, Geruchssensoren oder andere Techniken, oder Kombinationen solcher Techniken, über die festgestellt werden kann, ob mit der Kamera Kamerabilder gemacht werden, die ein Gargut zeigen. Das von der vorhandenen Garguterkennungssensorik ausgegebene Sensorsignal muss dann nur durch eine geeignete Software, die einen Bestandteil einer Auswerteelektronik bildet, ausgewertet werden. Dafür entsteht nur ein geringer Programmieraufwand. Eine physische Rechenkapazität, auf der die Software laufen kann, ist in der in einem Gargerät vorhandenen Bedienelektronik ebenfalls häufig bereits vorgehalten, so dass auch bezüglich der Rechenkapazität zur Realisierung der Erfindung auf vorhandene Gerätetechnik zurückgegriffen werden kann und auch hier keine zusätzlichen Kosten entstehen. Die Auswerteelektronik kann dann allein aus einem Softwarepaket bestehen, das auf die Bedienelektronik des Gargeräts aufgespielt wird.The invention can be implemented easily and inexpensively in cooking appliances, since a suitable camera is already installed as standard in some cooking appliances by professional users, but also in those in the consumer sector. The manufacturing costs incurred when implementing the invention in a cooking appliance are then very low. The cameras are often camera systems that have software-supported image analysis. The image evaluation makes it possible to see whether food has been placed in the cooking compartment. Camera images can then be produced which show the cooking chamber with or without the food to be cooked placed in it. However, other sensor technologies are also possible, such as ultrasound, odor sensors or other technologies, or combinations of such technologies, which can be used to determine whether camera images showing an item to be cooked are being taken with the camera. The sensor signal output by the existing cooking product detection sensor system then only has to be evaluated by suitable software, which forms part of an evaluation electronics system. This requires little programming effort. A physical computing capacity on which the software can run is also often already provided in the operating electronics in a cooking appliance, so that existing equipment technology can also be used with regard to the computing capacity to implement the invention and no additional costs are incurred here either. The evaluation electronics can then consist solely of a software package that is loaded onto the control electronics of the cooking appliance.
In Gargeräten, in denen keine Kamera vorhanden ist, kann diese natürlich auch nur für den erfinderischen Anwendungszweck in das Gargerät eingebaut werden. Es ist sowohl bei schon vorhandenen Garguterkennungssensoren wie auch bei gesondert in ein Gargerät einzubauenden Vorrichtungen möglich, die Auswerteelektronik als separaten Rechenchip mit einer darauf einprogrammierten Software auszugestalten, der zur Realisierung der Erfindung in eine Bedienelektronik eines Gargeräts eingesetzt wird. Bei einer Bedienelektronik, die Fernsteuerungsfunktionen aufweist, kann das Softwarepaket natürlich auch in die Fernbedienungsfunktion eingebunden sein, wie beispielsweise eine App auf einem Smartphone oder einem Tablet-Computer.In cooking appliances in which there is no camera, this can of course also be built into the cooking appliance only for the inventive application. It is possible both with already existing cooking product detection sensors and with devices to be installed separately in a cooking appliance, to design the evaluation electronics as a separate computing chip with software programmed on it, which is used to implement the invention in the operating electronics of a cooking appliance. In the case of operating electronics that have remote control functions, the software package can of course also be integrated into the remote control function, such as an app on a smartphone or a tablet computer.
Nach einer Ausgestaltung der Erfindung wird bei der Mittelwertbildung mittels einer Metrik und anschließenden Grenzwertbildung zunächst ein Durchschnittsbild errechnet, dann wird für eine Mehrzahl oder alle Pixel des Durchschnittsbilds ein durchschnittlicher Helligkeitswert berechnet, dann werden die durchschnittlichen Helligkeitswerte der Pixel mit einem Grenzwert verglichen, der eine binarisierende Bewertungsschwelle für die Unterscheidung der durchschnittlichen Helligkeitswerte zwischen einem als verschmutzt oder nicht verschmutzt bewerteten Pixel darstellt, und danach wird anhand der Anzahl der nach dem Grenzwertvergleich als verschmutzt bewerteten Pixel entschieden, ob eine Reinigung erforderlich ist.According to one embodiment of the invention, an average image is first calculated during averaging using a metric and subsequent limit value formation, then an average brightness value is calculated for a majority or all pixels of the average image, then the average brightness values of the pixels are compared with a limit value that contains a binarizing evaluation threshold for the differentiation of the average brightness values between a pixel rated as dirty or not dirty, and then based on the number of pixels rated as dirty after the limit value comparison, a decision is made as to whether cleaning is required.
Bei dieser Berechnungsweise ergibt sich erst ein Durchschnittsbild, in dem in den jeweiligen Kamerabildern variabel helle Pixel durch die Mittelwertbildung in ihrem Grautonwert abgeschwächt dargestellt sind, während die Pixel, in denen in allen Kamerabildern dunklere Grautonwerte ohne eine größere Varianz vorgegeben sind, die Grautonwerte für diese Pixel im dunklen Bereich bleiben. Bei einer Grenzwertbetrachtung kann das Durchschnittsbild einfach binarisiert werden, indem in einer Ableitung des Durchschnittsbildes beispielsweise alle Pixel mit einem Grautonwert < 20 als verschmutzt und alle Pixel ≥ 20 als nicht verschmutzt dargestellt sind. Die binarisierte Ableitung kann nun ausgewertet werden, indem ermittelt wird, wie viele Pixel als verschmutzt gelten und ob mit dieser Zahl ein Schwellwert überschritten wird, ab dem eine Reinigung als erforderlich angesehen wird.This method of calculation results in an average image in which variably bright pixels in the respective camera images are shown weakened in their gray tone value by averaging, while the pixels in which darker gray tone values are specified without a greater variance in all camera images contain the gray tone values for these Pixels remain in the dark area. When considering limit values, the average image can be simply binarized by showing, for example, all pixels with a gray tone value <20 as dirty and all pixels ≥20 as not dirty in a derivation of the average image. The binarized derivation can now be evaluated by determining how many pixels are considered dirty and whether this number exceeds a threshold value above which cleaning is considered necessary.
Wenn hier von einem Grautonwert die Rede ist, so bezieht sich diese Angabe zunächst auf Grautonbilder, die von einer monochromatischen Kamera aufgenommen worden sind. Bei einem Grautonbild wird jedem Pixel eines Bildes ein Wert, der seine Helligkeit beziehungsweise Lichtintensität auf einer Skala von z.B. 0 bis 255 repräsentiert, zugewiesen. Dabei steht 0 für ein schwarzes, 255 für ein weißes Pixel. Wird eine Farbkamera verwendet, so kann aus dem Farbbild zunächst ein Grautonbild erzeugt werden. Handelsübliche Farbkameras erzeugen Farbinformationen, indem sich vor dem Sensorchip ein wellenlängenselektiv lichtdurchlässiges Gitter, ein sogenannter Bayer-Filter, befindet, das je nach Position im Gitter rotes, grünes oder blaues Licht durchlässt. Aus den roten, grünen und blauen Farbanteilen lässt sich dann ein sogenanntes RGB-Bild rekonstruieren. Dabei besitzt jedes Pixel drei Werte, diese repräsentieren die Lichtintensität im roten, grünen bzw. blauen Bereich des optischen Spektrums. Aus dem RGB-Bild lässt sich nun ein Graubild erzeugen, indem die Farbinformation auf eine reine Helligkeitsinformation reduziert wird. Im einfachsten Fall wird für jeden Pixel dazu der Grauwert als Mittelwert von Rot-, Grün-und Blauwert bestimmt. Somit ist es möglich, auch bei der Verwendung von Farbkameras Grautonwerte zu bilden. Entscheidend für das weitere Vorgehen ist, dass ein Bild vorliegt, bei dem die Lichtintensität und damit die Helligkeit durch die Werte der einzelnen Pixel repräsentiert werden.If a gray tone value is mentioned here, this information initially refers to gray tone images that have been recorded by a monochromatic camera. In the case of a gray tone image, each pixel of an image is assigned a value that represents its brightness or light intensity on a scale from 0 to 255, for example. 0 stands for a black pixel and 255 for a white pixel. If a color camera is used, a gray tone image can first be generated from the color image. Commercially available color cameras generate color information by placing a wavelength-selective sensor in front of the sensor chip translucent lattice, a so-called Bayer filter, which, depending on its position in the lattice, allows red, green or blue light to pass through. A so-called RGB image can then be reconstructed from the red, green and blue color components. Each pixel has three values, these represent the light intensity in the red, green and blue areas of the optical spectrum. A gray image can now be generated from the RGB image by reducing the color information to pure brightness information. In the simplest case, the gray value is determined for each pixel as the average of the red, green and blue values. It is thus possible to form gray tone values even when using color cameras. It is crucial for the further procedure that an image is available in which the light intensity and thus the brightness are represented by the values of the individual pixels.
Nach einer Ausgestaltung der Erfindung wird bei der Grenzwertbildung und anschließenden Mittelwertbildung mittels einer Metrik zunächst für eine Mehrzahl oder alle Pixel jedes Kamerabilds ein individueller Helligkeitswert berechnet, dann werden die individuellen Helligkeitswerte der Pixel mit einem Grenzwert verglichen, der eine binarisierende Bewertungsschwelle für die Unterscheidung der individuellen Helligkeitswerte zwischen einem als verschmutzt oder nicht verschmutzt bewerteten Pixel des Kamerabildes darstellt, aus den als verschmutzt oder nicht verschmutzt bewerteten Pixeln wird ein binäres Verschmutzungsbild zu jedem Kamerabild erstellt, und danach wird aus einer Mehrzahl oder allen Pixeln der binären Verschmutzungsbilder ein Durchschnittsbild errechnet, bei dem der Graulevelwert jedes Pixels einer Verschmutzungswahrscheinlichkeit entspricht, und die Graulevelwerte der Pixel werden zu einem durchschnittlichen Verschmutzungswahrscheinlichkeitswert des Durchschnittsbildes verrechnet, der mit einem Grenzwert verglichen wird und bei einer Überschreitung des Grenzwerts wird die Reinigung als erforderlich bewertet.According to one embodiment of the invention, during the limit value formation and subsequent averaging, an individual brightness value is first calculated using a metric for a majority or all of the pixels of each camera image, then the individual brightness values of the pixels are compared with a limit value, which is a binarizing evaluation threshold for distinguishing between the individual brightness values between a pixel of the camera image assessed as dirty or not dirty, a binary contamination image is created for each camera picture from the pixels assessed as dirty or not dirty, and then an average image is calculated from a majority or all pixels of the binary dirt images, in which the gray level value of each pixel corresponds to a contamination probability, and the gray level values of the pixels are calculated to form an average contamination probability value of the average image et, which is compared to a limit value and if the limit value is exceeded, cleaning is assessed as necessary.
Bei der vorangestellten Erstellung von binären Verschmutzungsbildern und der nachfolgenden Bildung eines Durchschnittsbildes ergibt sich kein binäres Verschmutzungsbild, sondern ein kontrastierendes Bild, in dem Verschmutzungswahrscheinlichkeiten über Graustufenwerte der jeweiligen Pixel dargestellt sind. Je nach Einsatzbedingungen können sich hieraus bessere Beurteilungsergebnisse ergeben als bei der Anwendung einer getauschten Abfolge der Mittelwert- und Grenzwertbildung.When binary contamination images are created beforehand and an average image is subsequently formed, there is no binary contamination image, but rather a contrasting image in which contamination probabilities are represented via gray scale values of the respective pixels. Depending on the conditions of use, this can result in better assessment results than when using an exchanged sequence of averaging and limit value formation.
Nach einer Ausgestaltung der Erfindung sind einige oder alle der mehreren Kamerabilder farbige Bilder, bei denen die Farbkanäle der einzelnen Pixel unterschiedlich ausgewertet oder ohne die Farbwerte weiter verrechnet werden.According to one embodiment of the invention, some or all of the several camera images are colored images in which the color channels of the individual pixels are evaluated differently or further calculated without the color values.
Nach einer Ausgestaltung der Erfindung werden die Kamerabilder von der Kamera durch eine transparente Schicht hindurch gefertigt, die die Kamera vom Garraum trennt, wobei die transparente Schicht einen Teil der Innenwandung des Garraums bildet. Die transparente Schicht kann beispielsweise aus einer Glasscheibe bestehen. Verschmutzungen wie beispielsweise Fettspritzer, die im Garraum beim Garprozess entstehen, lagern sich auf den Innenraumflächen des Garraums und damit auch auf der transparenten Schicht ab. Die Verschmutzung der transparenten Schicht ähnelt damit der Verschmutzung der Innenoberflächen im übrigen Garraum und ist damit für den Verschmutzungsgrad des Garraums insgesamt repräsentativ. Da sich die transparente Schicht zwischen dem Garraum und der Kamera befindet, verdecken die sich auf der transparenten Schicht ansammelnden Verschmutzungen den Blick der Kamera auf das sich aus Sicht der Kamera hinter den Verschmutzungen im Garraum befindliche Gargut. Das bedeutet, dass sich die Bildwerte für auf der transparenten Schicht befindliche Verschmutzungen im Bereich der betreffenden Pixel oder Pixelfelder auch bei einem Durchschnittsbild oder einer daraus gebildeten Ableitung nicht oder zumindest kaum mehr verändern, weil sich dort in den Kamerabildern eben nicht mehr unterschiedliches Gargut findet, dessen Bildwerte gemittelt werden könnten, sondern nur noch die Ansicht der Verschmutzung. Die Bildwerte der sich auf der transparenten Schicht befindlichen Verschmutzungen kontrastieren im Durchschnittsbild oder einer daraus gebildeten Ableitung gut zu den die Verschmutzungen umgebenden Bildbereichen, die durch das bei verschiedenen Garprozessen aufgenommene Gargut aus voneinander abweichenden Bildwerten der einzelnen Gargut-Abbildungen gemittelte Bildwerte zeigen.According to one embodiment of the invention, the camera images are produced by the camera through a transparent layer that separates the camera from the cooking chamber, with the transparent layer forming part of the inner wall of the cooking chamber. The transparent layer can consist of a pane of glass, for example. Soiling such as fat splashes that occur in the cooking chamber during the cooking process are deposited on the interior surfaces of the cooking chamber and thus also on the transparent layer. The soiling of the transparent layer is thus similar to the soiling of the inner surfaces in the rest of the cooking space and is therefore representative of the degree of soiling of the cooking space overall. Since the transparent layer is located between the cooking chamber and the camera, the dirt that collects on the transparent layer covers the camera's view of the food to be cooked that is behind the dirt in the cooking chamber from the camera's point of view. This means that the image values for soiling on the transparent layer in the area of the relevant pixels or pixel fields do not change or at least hardly change, even in an average image or a derivation formed from it, because the camera images no longer contain different types of food, whose image values could be averaged, but only the view of the pollution. The image values of the contamination on the transparent layer contrast well in the average image or a derivation formed therefrom with the image areas surrounding the contamination, which show averaged image values from the image values of the individual images of the item to be cooked, which differ from one another, through the items to be cooked recorded during different cooking processes.
Nach einer Ausgestaltung der Erfindung zeigen die mehreren Kamerabilder mehrere verschiedene Garvorgänge und/oder Beladungssituationen. Um auf einem Durchschnittsbild oder einer daraus gebildeten Ableitung mit der erforderlichen Genauigkeit Verschmutzungen erkennen zu können, ist eine gewisse Anzahl von Kamerabildern erforderlich, über die sich eine statistische Glättung der Farbwerte mit charakteristisch verteilten Bildwerten für einzelne Pixel oder Pixelfelder einstellt. Bei der Mittelung von mehreren Kamerabildern werden Helligkeits- und/oder Farbwerte für die einzelnen Pixel oder Pixelfelder erreicht, aus denen verschmutzte Flächen erkennbar sind. Je mehr Kamerabilder von verschiedenen Garvorgängen in die Mittelung einfließen, umso besser wird die Erkennung. Die Veränderungen, die sich zwischen verschiedenen Kamerabildern eines einzelnen Garvorgangs feststellen lassen, sind häufig zu geringfügig, um daraus verlässliche Rückschlüsse auf den Verschmutzungsgrad des Garraums abzuleiten. Auch bei der Berücksichtigung von weniger als fünf Kamerabildern sind die Mittelungseffekte häufig noch zu unscharf. Etwas anderes gilt nur dann, wenn sich das Gargut im Garraum während des Garprozesses ausreichend verändert, wie beispielsweise durch Aufgehen oder Bräunen, oder beispielsweise auf einem Drehteller in einer Mikrowelle bewegt wird. In solchen Fällen können schon wenige Kamerabilder, gegebenenfalls auch schon von nur einem Garvorgang, ausreichen, um festzustellen, ob eine Reinigung des Garraums erforderlich ist.According to one embodiment of the invention, the multiple camera images show multiple different cooking processes and/or loading situations. In order to be able to detect contamination on an average image or a derivation formed therefrom with the necessary accuracy, a certain number of camera images is required, via which a statistical smoothing of the color values with characteristically distributed image values for individual pixels or pixel fields is established. When several camera images are averaged, brightness and/or color values are obtained for the individual pixels or pixel fields from which soiled areas can be identified. The more camera images from different cooking processes are included in the averaging, the better the recognition. The changes that can be detected between different camera images of a single cooking process are often too small to be reliable draw conclusions about the degree of contamination of the cooking chamber. Even when considering fewer than five camera images, the averaging effects are often still too blurred. This only applies if the food in the cooking chamber changes sufficiently during the cooking process, for example by rising or browning, or is moved on a turntable in a microwave, for example. In such cases, just a few camera images, possibly even from just one cooking process, can be sufficient to determine whether the cooking chamber needs to be cleaned.
Nach einer Ausgestaltung der Erfindung bewertet die Auswerteelektronik die Qualität des Durchschnittsbildes oder einer daraus gebildeten Ableitung mit einem Bewertungsalgorithmus und ein Zeitpunkt für die Reinigung des Garraums wird nur dann bestimmt, wenn die Qualität des Durchschnittsbildes oder einer daraus gebildeten Ableitung als ausreichend bewertet worden ist. Wird das gemittelte Bild aus Kamerabildern gemittelt, die hinsichtlich der Bildwerte für die einzelnen Pixel oder Pixelfelder eine zu geringe Varianz aufweisen, sind Verschmutzungen im Garraum nicht ausreichend sicher und deutlich erkennbar. Eine geringe Varianz kann von einem Bewertungsalgorithmus leicht durch einen Vergleich einzelner Pixelwerte aus unterschiedlichen Bildern erkannt werden. Dafür gibt es verschiedene stochastische Methoden. Die Kamerabilder können beispielsweise eine geringe Varianz aufweisen, wenn immer dasselbe homogen aussehende Gargut und/oder immer nur ein einziges kleines Gargut an derselben Stelle im Garraum gegart, das Gargut im Garraum nicht bewegt wird oder die Kamerabilder alle denselben leeren Garraum zeigen. In einem solchen Fall sind weitere Kamerabilder des Garraums erforderlich, um eine für die Erkennung von Verschmutzungen erforderliche Varianz der Bildwerte für einzelne Pixel oder Pixelfelder zu erhalten. In einem solchen Fall sollte die Auswerteelektronik keine Empfehlung für den Zeitpunkt einer erforderlichen Reinigung geben. Die Auswerteelektronik gibt eine Empfehlung für den Zeitpunkt der Reinigung erst dann ab, wenn der Bewertungsalgorithmus die Qualität des Durchschnittsbildes oder einer daraus gebildeten Ableitung als ausreichend erachtet, um als Basis für eine Empfehlung zu dienen.According to one embodiment of the invention, the evaluation electronics evaluate the quality of the average image or a derivation formed from it using an evaluation algorithm, and a point in time for cleaning the cooking chamber is only determined if the quality of the average image or a derivation formed therefrom has been assessed as sufficient. If the averaged image is averaged from camera images that have too little variance with regard to the image values for the individual pixels or pixel fields, soiling in the cooking chamber cannot be identified with sufficient certainty and clearly. A small variance can easily be detected by an evaluation algorithm by comparing individual pixel values from different images. There are various stochastic methods for this. The camera images can, for example, vary slightly if the same homogeneous-looking food is always being cooked and/or only a single small food is being cooked in the same place in the cooking chamber, the food is not being moved in the cooking chamber, or the camera images all show the same empty cooking chamber. In such a case, further camera images of the cooking chamber are required in order to obtain a variance in the image values for individual pixels or pixel fields that is necessary for detecting soiling. In such a case, the evaluation electronics should not give any recommendation as to when cleaning is required. The electronic evaluation system only makes a recommendation for the time of cleaning when the evaluation algorithm considers the quality of the average image or a derivation formed from it to be sufficient to serve as the basis for a recommendation.
Nach einer Ausgestaltung der Erfindung wird der Verschmutzungsgrad von Pixeln oder Pixelfeldern des Durchschnittsbildes oder einer daraus gebildeten Ableitung in verschiedenen Sektoren des Durchschnittsbildes oder einer daraus gebildeten Ableitung unterschiedlich gewichtet. Diese Maßnahme ist vorteilhaft, um Ungleichgewichte in der Bewertung des Verschmutzungsgrades des Garraums auszugleichen, die sich beispielsweise aus einer Fokussierung des Kamerabildes und/oder der Perspektive ergeben, mit der die Kamera in den Garraum gerichtet ist. Ist die Kamera beispielsweise von schräg oben in den Garraum gerichtet, würden ohne eine Korrektur Verschmutzungen, die im Durchschnittsbild oder einer daraus gebildeten Ableitung im aus der Kamerasicht vorderen Bereich festgestellt werden, wegen der perspektivischen Verzerrung stärker gewichtet als Verschmutzungen, die sich im von der Kamera weiter entfernten Bereich befinden. Dieser perspektivische Effekt kann durch eine sektorenabhängig unterschiedliche Gewichtung der festgestellten Verschmutzungen bei der Bestimmung des Verschmutzungsgrades korrigiert werden. Bei der Aufnahme und Mittelung von Kamerabildern durch eine transparente Schicht hindurch würden solche perspektivischen Verzerrungen allerdings keine Rolle spielen, wenn die transparente Schicht plan vor der Kameralinse angeordnet ist. Hier können sich aber unterschiedliche Gewichtungen von als verschmutzt erkannten Pixeln und Pixelfeldern durch optische Verzerrungen im Durchschnittsbild oder einer daraus gebildeten Ableitung aus der Linsenoptik ergeben, die verschiedene Sektoren des Kamerabildes unterschiedlich groß darstellt. Auch hier ist eine sektorenabhängige Korrektur der Gewichtung der festgestellten Verschmutzungen möglich.According to one embodiment of the invention, the degree of contamination of pixels or pixel fields of the average image or a derivation formed therefrom is weighted differently in different sectors of the average image or a derivation formed therefrom. This measure is advantageous for compensating for imbalances in the assessment of the degree of soiling of the cooking chamber, which result, for example, from a focusing of the camera image and/or the perspective with which the camera is directed into the cooking chamber. For example, if the camera is aimed at an angle from above into the cooking chamber, without a correction, soiling that is found in the average image or a derivation formed from it in the front area from the camera view would be weighted more heavily than soiling that is in the front of the camera due to the perspective distortion located in a more distant area. This perspective effect can be corrected by weighting the detected contamination differently, depending on the sector, when determining the degree of contamination. When recording and averaging camera images through a transparent layer, however, such perspective distortions would not play a role if the transparent layer is arranged flat in front of the camera lens. Here, however, different weightings of pixels and pixel fields recognized as dirty can result due to optical distortions in the average image or a derivation from the lens optics formed therefrom, which represents different sectors of the camera image in different sizes. A sector-dependent correction of the weighting of the detected contamination is also possible here.
Eine weitere Möglichkeit ist es, die Außenbereiche eines Kamerabildes, in denen zum Beispiel Seitenwände zu sehen sind, weniger stark zu gewichten, als die Garraummitte, wo sich in der Regel das Gargut befindet. Diese Maßnahme kann die Mittelung der Kamerabilder verbessern. Wenn Kamerabilder übertragen und zur Anzeige gebracht werden, oder wenn zusätzliche Auswertefunktionen anhand von Kamerabildern ausgeführt werden, sind diese deutlich weniger stark durch Verschmutzungen in den Außenbereichen gestört als durch Verschmutzungen in der Bildmitte. In solchen Fällen kann die optische Bewertung des Verschmutzungsgrades durch einen Benutzer, der von außen in den Garraum hineinschaut, von der Bewertung des Verschmutzungsgrades durch das erfindungsgemäße Verfahren abweichen. Für die Anzeige des Kamerabildes oder die zusätzlichen Auswertefunktionen ist dann aber die Bewertung anhand des erfindungsgemäßen Verfahrens vorteilhaft, weil sich die Bewertung des Verschmutzungsgrades auf die Kamerabilder stützt, die zur Anzeige gebracht und/oder zusätzlich ausgewertet werden.Another option is to weight the outer areas of a camera image, in which the side walls can be seen, for example, less heavily than the center of the cooking space, where the food is usually located. This measure can improve the averaging of the camera images. If camera images are transmitted and displayed, or if additional evaluation functions are carried out based on camera images, these are significantly less disturbed by dirt in the outer areas than by dirt in the center of the picture. In such cases, the visual assessment of the degree of soiling by a user looking into the cooking chamber from the outside can deviate from the assessment of the degree of soiling by the method according to the invention. For the display of the camera image or the additional evaluation functions, however, the evaluation using the method according to the invention is advantageous because the evaluation of the degree of soiling is based on the camera images that are displayed and/or additionally evaluated.
Nach einer Ausgestaltung der Erfindung erfolgt die Klassifizierung der Pixel und/oder Pixelfelder des Durchschnittsbildes oder einer daraus gebildeten Ableitung unter der Berücksichtigung von Wahrscheinlichkeiten der jeweiligen Klassifizierung. So kann ein erstes Pixel oder eine erste Pixelfläche beispielsweise als „sehr wahrscheinlich“, „wahrscheinlich“ oder „unwahrscheinlich“ verdreckt und/oder ein zweites Pixel oder eine zweite Pixelfläche als „sehr wahrscheinlich“, „wahrscheinlich“ oder „unwahrscheinlich“ nicht verdreckt bewertet werden. Mehr oder weniger Abstufungen in der Klassifizierung der Wahrscheinlichkeit sind möglich. Aus der differenzierteren Klassifizierung der einzelnen Pixel oder Pixelflächen ergibt sich ein genaueres Lagebild über den Verschmutzungsgrad des Garraums im Gargerät. Eine solche weiche Klassifikation mit beispielsweise insgesamt sechs unterschiedlichen Klassifikationsstufen könnte einer digitalen Ja-/Nein-Klassifizierung überlegen sein, weil die Sicherheit, mit der ein Pixel oder ein Pixelfeld einer Klassifikation zugeordnet wurde, in die Beurteilung des Verschmutzungsgrades mit einfließt.According to one embodiment of the invention, the classification of the pixels and/or pixel fields of the average image or a derivation formed therefrom takes place taking into account the probabilities of the respective classification. For example, a first pixel or a first pixel area can be dirty as "very likely", "probable" or "unlikely" and/or a second pixel or a second pixel area can not be dirty as "very likely", "likely" or "unlikely". be rated. More or fewer gradations in the classification of probability are possible. The differentiated classification of the individual pixels or pixel areas results in a more precise situational image of the degree of soiling of the cooking space in the cooking appliance. Such a soft classification with, for example, a total of six different classification levels could be superior to a digital yes/no classification because the certainty with which a pixel or a pixel field was assigned a classification is included in the assessment of the degree of contamination.
Nach einer Ausgestaltung der Erfindung wird das Durchschnittsbild in ein Graubild verrechnet. Ein Durchschnittsbild kann Farbschwankungen aufweisen, die nicht auf das fotografierte Gargut oder Verschmutzungen zurückzuführen sind, sondern auf andere Effekte, wie beispielsweise eine ungleichmäßige Beleuchtung des Garraums. Die Farbschwankungen können aus dem Durchschnittsbild entfernt werden, indem die Bildwerte der Pixel oder Pixelfelder in ein Graubild verrechnet werden.According to one embodiment of the invention, the average image is converted into a gray image. An average image can show color fluctuations that are not due to the photographed food or soiling, but to other effects, such as uneven lighting of the cooking chamber. The color fluctuations can be removed from the average image by converting the image values of the pixels or pixel fields into a gray image.
Nach einer Ausgestaltung der Erfindung wird das Graubild oder das Durchschnittsbild durch eine Filterung in ein Differenzbild verrechnet. In dem Graubild oder dem Durchschnittsbild können verschmutzte Stellen in den Bildwerten der Pixel und Pixelfelder einen höheren Grauwert aufweisen als andere Stellen auf dem Durchschnittsbild, oder die verschmutzten Stellen weisen einen bestimmten Farbwert auf, den andere Stellen des Durchschnittsbildes nicht aufweisen. Durch die Anwendung von Filtern können die Stellen auf dem Graubild oder dem Durchschnittsbild in einem Differenzbild besonders erkennbar gemacht werden, beispielsweise, indem über ein Thresholding andere Bildwerte ausgeblendet werden.According to one embodiment of the invention, the gray image or the average image is converted into a differential image by filtering. In the gray image or averaged image, dirty spots in the image values of the pixels and pixel arrays may have a higher gray value than other spots on the averaged image, or the dirty spots may have a particular color value that other spots in the averaged image do not have. By using filters, the points on the gray image or the average image in a difference image can be made particularly recognizable, for example by using thresholding to hide other image values.
Nach einer Ausgestaltung der Erfindung werden aus dem Durchschnittsbild, dem Graubild und/oder dem Differenzbild in einem Korrekturlauf Strukturen mit einer geringen Größe entfernt. Aufgrund der zufälligen Natur der Original-Kamerabilder lassen sich kleine lokale Abweichungen, die keine Verschmutzung darstellen, nicht vermeiden. Strukturen mit einer geringen Größe können jedoch ignoriert oder über morphologische Operationen entfernt werden. Dies erfolgt in einem Korrekturlauf, dem das Durchschnittsbild, das Graubild und/oder das Differenzbild unterzogen werden. Im Korrekturlauf erfolgt also eine flächige Glättung der von der Bildverarbeitungssoftware erkannten Strukturen, insbesondere im Bereich möglicher Verschmutzungen. Das nach dem Korrekturlauf verbleibende Bild zeigt mit einer hohen Treffergenauigkeit die Stellen, an denen sich im Durchschnittsbild Verschmutzungen befinden.According to one embodiment of the invention, structures with a small size are removed from the average image, the gray image and/or the difference image in a correction run. Due to the random nature of the original camera images, small local variations that do not represent contamination cannot be avoided. However, structures with a small size can be ignored or removed via morphological operations. This takes place in a correction run to which the average image, the gray image and/or the difference image are subjected. In the correction run, the structures recognized by the image processing software are smoothed over a large area, particularly in the area of possible contamination. The image remaining after the correction run shows the spots where dirt is located in the average image with a high level of hit accuracy.
Nach einer Ausgestaltung der Erfindung werden bestimmte Bereiche des Durchschnittsbildes, des Graubildes oder des Differenzbildes von der Auswerteelektronik ignoriert. Bei den Bereichen solcher false positives kann es sich um Bildbereiche handeln, in denen eine Verschmutzung indiziert wird, obwohl dort tatsächlich keine Verschmutzung vorliegt. In solchen Bereichen können sich beispielsweise Schattenwürfe der Beleuchtung befinden, oder die Bereiche sind durch Bauteile des Gargeräts verdeckt. Wenn solche Bildbereiche in die Bewertung des Verschmutzungsgrades einfließen würden, wäre das Ergebnis dadurch verfälscht. Das wird vermieden, indem diese Bereiche ignoriert werden. Diese Bereiche können gerätespezifisch an unterschiedlichen Stellen der Bilder liegen. Die Bereiche der false positives können demgemäß gerätespezifisch in der Betriebssoftware einprogrammiert sein, oder die Betriebssoftware verfügt über ein Selbstlernprogramm, mit dem Bereiche der false positives selbstlernend erkannt und von der Auswertung ausgeschlossen werden.According to one embodiment of the invention, specific areas of the average image, the gray image or the differential image are ignored by the evaluation electronics. The areas of such false positives can be image areas in which contamination is indicated although there is actually no contamination there. Shadows from the lighting can be found in such areas, for example, or the areas are covered by components of the cooking appliance. If such image areas were included in the assessment of the degree of soiling, the result would be falsified. This is avoided by ignoring these areas. Depending on the device, these areas can be located at different points in the images. Accordingly, the areas of the false positives can be programmed device-specifically into the operating software, or the operating software has a self-learning program with which areas of the false positives are recognized in a self-learning manner and excluded from the evaluation.
Nach einer Ausgestaltung der Erfindung löscht die Auswerteelektronik nach einer durchgeführten Reinigung des Garraums vorher aufgenommene Kamerabilder. Nach Durchführen der Reinigung dürfen natürlich Bilder, die vor der Reinigung aufgenommen wurden, nicht mehr verwendet werden, da sie Verschmutzungen zeigen, die nicht mehr vorhanden sind. Deshalb muss der Speicher zurückgesetzt werden, sobald eine Reinigung durchgeführt wurde. Vor einer neuen Bewertung müssen auch ausreichend viele Kamerabilder erstellt werden, um eine neue Bewertung vornehmen zu können. Wird eine Pyrolyse durchgeführt, weiß das die Auswerteelektronik und kann ihren Speicher automatisch leeren. Reinigt der Kunde manuell, kann für diesen Fall ein Speicher des aktuellen Verschmutzungsgrades vorgesehen sein, in dem der letzte bewertete Verschmutzungsgrad festgelegt worden ist. Der Status des Speichers kann bei jeder neuen Bewertung abgefragt werden. Sollte sich dieser in Richtung sauber ändern, müssen vorher aufgenommene Kamerabilder ebenfalls gelöscht werden, weil der aktuelle Status offenbar nicht mehr dem vorherigen festgestellten Verschmutzungsgrad entspricht.According to one embodiment of the invention, after the cooking chamber has been cleaned, the evaluation electronics delete previously recorded camera images. Of course, after the cleaning has been carried out, pictures taken before the cleaning may no longer be used, since they show dirt that is no longer present. Therefore, the memory must be reset as soon as a cleaning has been performed. Before a new assessment can be made, a sufficient number of camera images must also be created in order to be able to carry out a new assessment. If a pyrolysis is carried out, the evaluation electronics know this and can automatically empty its memory. If the customer cleans manually, a memory for the current degree of soiling can be provided for this case, in which the last evaluated degree of soiling has been established. The status of the memory can be queried with each new evaluation. If this changes towards clean, previously recorded camera images must also be deleted because the current status apparently no longer corresponds to the previously determined degree of soiling.
Die Erfindung soll nachfolgend anhand von Ausführungsbeispielen näher erläutert werden. Es zeigen:
-
1 : Gargerät mit einer Kamera, -
2 : Verfahrensablauf mit Mittelwertbildung und anschließender Grenzwertbildung, und -
3 :Verfahrensablauf aus 2 mit getauschter Abfolge.
-
1 : Cooking device with a camera, -
2 : procedure with averaging and subsequent limit value calculation, and -
3 : Procedure off2 with reversed sequence.
Ein Ausführungsbeispiel der Erfindung ist in
In der
In dem Garraum 6 ist eine als Backmuffelleuchte ausgebildete Garraumbeleuchtung 11 an einer Garraumdecke 4.2 des Gehäuses 4 angebaut. Die Backmuffelleuchte 11 ist hier gleichzeitig als Kamerabeleuchtung 11 ausgebildet. Entsprechend kann die Fixfokuskamera 8 in dem vorliegenden Ausführungsbeispiel einfacher aufgebaut sein. Alternativ kann die Garraumbeleuchtung 11 auch an einer Seitenwand angeordnet sein oder aus einer Kombination aus Decken- und Seitenbeleuchtung bestehen.In the
Die Kamera 8 ist zur Erstellung von Innenaufnahmen des Garraums 6 ausgebildet und entsprechend an dem Gehäuse 2 angeordnet. Da der Garraum 6 relativ breit und flach ausgebildet ist, weist ein Objektiv 8.1 der Kamera 8 einen entsprechend großen objektseitigen Öffnungswinkel auf. Die Kamera kann auch als plenoptische Kamera, TOF-Kamera oder Stereokamera, also in 3D-Technik, ausgebildet sein. Auch sind als Wärmebildkameras ausgebildete Kameras denkbar. Neben Einzelbildern ist auch die Aufnahme von Bilderfolgen und bewegten Bildern möglich.The
Die Öffnung 4.1 ist durch die Sammellinse 10 und eine zwischen der Sammellinse 10 und der Garraumdecke 4.2 der Gehäusewand 4 angeordneten und als Glasseidendichtung ausgebildeten Dichtung 12 im Wesentlichen gasdicht verschlossen. Alternativ kann eine Metalldichtung mit oder ohne Grafitummantelung verwendet werden. Entsprechend kann der bei einem in dem Garraum 6 ablaufenden Garprozess eines auf einem Gargutträger 14 aufgelegten Garguts 16 entstehende Wrasen nicht in ungewünschter Weise durch die Öffnung 4.1 entweichen. Die Kamera 8 kann auch in einer seitlichen Position oder in einer beliebigen anderen Position zum Garraum 6 angeordnet werden, so dass sie auch aus diesen Positionen für Auswertungszwecke brauchbare Fotos vom Garraum 6 und den darin vorhandenen Verschmutzungen machen kann.The opening 4.1 is closed essentially gas-tight by the converging
Darüber hinaus schützen die Sammellinse 10 aus Borosilikatglas und die Glasseidendichtung 12 die Kamera 8 vor in dem Wrasen enthaltenen Stoffen und vor den bei dem Garprozess entstehenden hohen Temperaturen. Dies ist besonders wichtig, da das Gargerät 30 als selbstreinigendes Gargerät 30, also mit Pyrolysefunktion, ausgestattet ist. Im Pyrolysebetrieb ergeben sich noch weit höhere Temperaturen.In addition, the converging
Der Garraum 6 ist auf dem Fachmann bekannte Weise durch eine im Wesentlichen umlaufende Isolationsschicht 18 von der Umgebung wärmeisoliert. Die Isolationsschicht 18 ist in der Fig. nur teilweise dargestellt.The
Die Öffnung 4.1 in der Garraumwand 4 ist hier in dem Zentrum der Garraumdecke 4.2 der Gehäusewand 4 angeordnet. Die Öffnung 4.1 ist möglichst klein gehalten, um die Isolationsschicht 18 an dieser Stelle möglichst wenig durchbrechen zu müssen. Die Öffnung 4.1 ist in der Fig. der Übersichtlichkeit wegen deutlich vergrößert dargestellt.The opening 4.1 in the cooking chamber wall 4 is arranged here in the center of the cooking chamber ceiling 4.2 of the housing wall 4. The opening 4.1 is kept as small as possible in order to have to break through the
Durch die Isolationsschicht 18 bedingt, aber auch zwecks einer geringeren Temperaturbelastung der Kamera 8 durch die Temperaturstrahlung, ist die Kamera 8 weiter weg von der Garraumdecke 4.2 und damit von dem Garraum 6 in einen kühleren Bereich des Gehäuses 2 angeordnet.The
Die Öffnung 4.1 kann deshalb so klein ausgeführt werden, da hier eine Sammellinse 10 eingesetzt ist. Die Sammellinse 10 weitet den Strahlengang des Lichtes, in der Fig. durch gestrichelte Linien 19 symbolisiert, durch die Öffnung 4.1 auf. Dies ermöglicht, trotz kleiner Öffnung 4.1, den Garraum 6 in den wesentlichen Bereichen auf den mit der Kamera 8 aufgenommenen Bildern vollständig abzubilden, trotz eines verringerten objektseitigen Öffnungswinkels des Objektivs 8.1 der Kamera 8 . So kann der Bildwinkel in der in der Fig. dargestellten Blattebene von etwa 50° auf etwa 110° vergrößert werden. Die vorgenannten Winkelangaben sind der schematischen Darstellung nicht zu entnehmen. Auf Kamerabildern 32, die mit der im oder benachbart zum Garraum 6 angeordneten Kamera 8 gemacht wurden, lassen sich selbst noch kleinere Verschmutzungen an den Seitenwänden des Garraums gut erkennen.The opening 4.1 can be made so small because a converging
Da die Öffnung 4.1 relativ klein ausgebildet ist, kann die Öffnung 4.1 im Bereich eines Oberhitze-Heizkörpers 20 in der Garraumdecke 4.2 angeordnet sein, ohne dass sich die Öffnung 4.1 und der Oberhitze-Heizkörper 20 gegenseitig negativ beeinflussen. Beispielsweise erscheint der Oberhitze-Heizkörper 20 nicht auf den mit der Kamera 8 aufgenommenen Bildern. Gleiches gilt für die Garraumbeleuchtung 11; auch die Garraumbeleuchtung 11 ist derart an der Garraumdecke 4.2 der Garraumwand 4 angeordnet, dass es zu keiner ungewünschten Wechselwirkung zwischen der Garraumbeleuchtung 11 und dem Oberhitze-Heizkörper 20 kommt.Since the opening 4.1 is relatively small, the opening 4.1 can be arranged in the region of a top-
Da es sich bei dem Gargerät 30 um ein Gargerät 30 mit Pyrolysefunktion handelt, ist die Kamera 8 und die Sammellinse 10 zusätzlich in einem Kühlkanal 2.1 des Gehäuses 2 angeordnet. Die Kamera 8 und die Sammellinse 10 stehen dabei in Wärmeübertragungsverbindung mit der in dem Kühlkanal 2.1 geführten Kühlluft. Der Kühlkanal 2.1 ist hier als eine Luftführung 2.1 des Gargeräts ausgebildet.Since the
Die Luftführung 2.1 ist mittels eines ebenfalls chemikalien- und temperaturbeständigen Flansches 22 mit der Gehäusewand 4 strömungsleitend und die Luftführung 2.1 gegen die Umgebung im Wesentlichen gasdicht abdichtend verbunden.The air duct 2.1 is connected to the housing wall 4 in a flow-conducting manner by means of a
Die Luftführung 2.1 des Gargeräts 30 dient dazu, den bei Garprozessen in dem Garraum 6 entstehenden Wrasen aus dem Garraum 6 abzusaugen und in die freie Umgebung abzuführen. Dabei wird das Wrasen-Luft-Gemisch in der in dem Gehäuse 2 ausgebildeten Luftführung 2.1 geführt. Auf diese Weise wird auch das Gargerät gekühlt.The air duct 2.1 of the
Durch die Anordnung der Kamera 8 und der Sammellinse 10 in der Luftführung 2.1 kann hier auf eine zusätzliche aktive Kühlvorrichtung verzichtet werden. Entsprechend lässt sich das erfindungsgemäße Gargerät 30 gemäß dem vorliegenden Ausführungsbeispiel mit weniger Bauteilen und damit kostengünstiger realisieren.Due to the arrangement of the
Die einzelnen Bauteile des erfindungsgemäßen Gargeräts 30 sind teilweise mit Abstand zueinander in der Fig. dargestellt; siehe beispielsweise den Abstand zwischen der Isolationsschicht 18 und der Garraumdecke 4.2 der Gehäusewand 4. Dies dient lediglich der besseren Übersicht. Die Bauteile des erfindungsgemäßen Gargeräts 30 sind, wenn nicht anhand des Ausführungsbeispiels explizit anders ausgeführt, auf dem Fachmann bekannte Weise miteinander verbunden. Die Kamera 8 kann auch als plenoptische Kamera, TOF-Kamera oder Stereokamera, also in 3D-Technik, ausgebildet sein. Auch sind als Wärmebildkameras ausgebildete Kameras denkbar. Neben Einzelbildern ist auch die Aufnahme von Bilderfolgen und bewegten Bildern möglich.The individual components of the
Ein von der Kamera 8 aufgenommenes Kamerabild 32 wird jeweils an die Auswerteelektronik 40 übermittelt. Das Gargerät 30 ist dazu mit der Auswerteelektronik 40 verbunden, an die die von der Kamera 8 gemachten Kamerabilder 32 übermittelt werden. Die Auswerteelektronik 40 verfügt über eine Bildverarbeitungssoftware 46, mit der die softwaregestützte Bildverarbeitung ausgeführt wird. Die einzelnen von der Kamera 8 gefertigten Kamerabilder 32, die für die Bildauswertung herangezogen werden, können in der Auswerteelektronik 40 gespeichert werden, es ist aber auch möglich, diese in der Bedienelektronik 34 des Gargeräts 30 oder bei einem Internetanschluss und einer entsprechenden Ausstattung des Gargeräts 30 in der Cloud zu speichern. Die Bildverarbeitungssoftware 46 ist so programmiert, dass sie als Bildauswertung aus mehreren verfügbaren Kamerabildern 32 ein Durchschnittsbild 42 errechnet.A
Die Auswerteelektronik 40 extrahiert aus dem Durchschnittsbild 42 Informationen über den Verschmutzungsgrad des Garraums 6. Auf deren Basis bestimmt die Auswerteelektronik 40 einen Zeitpunkt 44 für die Reinigung des Garraums 6, der der Bedienelektronik 34 übermittelt wird. Die Bedienelektronik 34 kann diesen Zeitpunkt dann einer Bedienperson über die verfügbaren Anzeigen mitteilen, sei es eine Kontrollleuchte am Gargerät 30, eine Anzeige auf einem Display am Gargerät 30 oder einem Display eines Smart Device, das über WLAN oder Internet mit dem Gargerät 30 kommuniziert.The evaluation electronics 40 extracts information about the degree of soiling of the
Im Ausführungsbeispiel stellt die Linse 10 eine transparente Schicht dar, durch die hindurch die Kamera 8 Kamerabilder 32 vom Garraum 6 fertigt. Fettspritzer, die während eines Garvorgangs vom Gargut 16 aufspritzen, haften auch an der Linse 10 an, die die dem Garraum 6 zugewandte Seite der Linse 10 einen Teil der Innenwandung des Garraums 6 bildet. Diese der Linse 10 anhaftenden Verschmutzungen verdecken aus der Sicht der Kamera an den Stellen, an denen sie sich auf der Linse befinden, die Sicht von der Kamera auf das Gargut 16. Bei nachfolgend gefertigten Kamerabildern 32 weisen diese Stellen der Kamerabilder 32 auch bei wechselndem Gargut 16 im Garraum 6 keine oder allenfalls nur geringfügige Veränderungen in den Bildwerten der betreffenden Pixel oder Pixelfelder mehr auf. An den Stellen der Linse 10, an denen sich keine Verschmutzungen befinden, ist das bei dem jeweiligen Garvorgang im Garraum 6 liegende Gargut 16 im Kamerabild 32 allerdings gut erkennbar, und durch die unterschiedlichen Texturen und Farben des jeweils im Garraum 6 befindlichen Garguts 16 ergeben sich bei den Bildwerten für die betreffenden Pixel oder Pixelfelder in den Kamerabildern 32 jeweils unterschiedliche Werte, die durch die Mittelung im Durchschnittsbild 42 dann zu einem gemittelten Wert verrechnet sind.In the exemplary embodiment, the
Über den Doppelpfeil 48 ist angedeutet, dass die Auswertelektronik 40 und die Bedienelektronik 34 über die Bereitstellung der Information über den Zeitpunkt 44 hinaus miteinander kommunizieren können. Die Kommunikation kann insbesondere eine Garguterkennung betreffen, die ein Bestandteil der Bedienelektronik 34 oder auch der Kamera 8 sein kann. Über die Garguterkennung kann für die Auswerteelektronik 40 verifiziert werden, dass die verfügbaren Kamerabilder 32 den Garraum 6 mit darin eingelegtem Gargut 16 zeigen und dass die Kamerabilder 32 anlässlich verschiedener Garvorgänge gefertigt wurden.The
Die Auswerteelektronik 40 kann das errechnete Durchschnittsbild 42 zu einem Graubild 50 weiterverarbeiten, das bessere Auswertungsmöglichkeiten bieten kann. Das Graubild 50 allein oder in Kombination mit dem Durchschnittsbild 42 kann zu einem Differenzbild 52 weiterverrechnet werden, bei dem aus den Bildwerten zu einzelnen Pixeln oder Pixelfeldern bestimmte Werte herausgefiltert worden sein können, um ein nochmals besser auswertbares Bild zu erhalten. Das Durchschnittsbild 42, das Graubild 50 und/oder das Differenzbild 52 können von der Auswerteelektronik 40 dazu benutzt werden, um den Verschmutzungsgrad des Garraums 6 zu bestimmen.The evaluation electronics 40 can further process the calculated
In
In
Konkreter erfolgt das Verfahren wie nachfolgend beschrieben:
- Vor Beginn der erfindungsgemäßen Verschmutzungserkennung müssen von der
Kamera 8Kamerabilder 32 des Inneren des Garraums 6 aufgenommen werden. Dafür kann dieKamera 8 in einer Ausführungsform eine monochromatische Kamera 8 sein, die ein Grautonbild aufnimmt. Bei einem Grautonbild wird jedem Pixel eines Bildes ein Wert, der seine Helligkeit/Lichtintensität auf einer Skala von z.B. 0 bis 255 repräsentiert, zugewiesen. Dabei steht 0 für ein schwarzes, 255 für ein weißes Pixel.Wird eine Farbkamera 8 verwendet, so kann aus dem Farbbild zunächst ein Grautonbild erzeugt werden.Handelsübliche Farbkameras 8 erzeugen Farbinformationen, indem sich vor dem Sensorchip ein wellenlängenselektiv lichtdurchlässiges Gitter, ein sogenannter Bayer-Filter, befindet, das je nach Position im Gitter rotes, grünes oder blaues Licht durchlässt. Aus den roten, grünen und blauen Farbanteilen lässt sich dann ein sogenanntes RGB-Bild rekonstruieren. Dabei besitzt jedes Pixel drei Werte, diese repräsentieren die Lichtintensität im roten, grünen bzw. blauen Bereich des optischen Spektrums. Aus dem RGB-Bild lässt sich nun ein Graubild erzeugen, indem die Farbinformation auf eine reine Helligkeitsinformation reduziert wird. Im einfachsten Fall wird für jeden Pixel dazu der Grauwert als Mittelwert von Rot-, Grün-und Blauwert bestimmt.
- Before the contamination detection according to the invention begins,
camera images 32 of the interior of thecooking chamber 6 must be recorded by thecamera 8 . For this, in one embodiment, thecamera 8 can be amonochromatic camera 8 that records a gray tone image. In a grayscale image, each pixel of an image is assigned a value that represents its brightness/light intensity on a scale from 0 to 255, for example. 0 stands for a black pixel and 255 for a white pixel. If acolor camera 8 is used, a gray tone image can first be generated from the color image. Commerciallyavailable color cameras 8 generate color information by having a wavelength-selectively transparent grating in front of the sensor chip, a so-called Bayer filter, which allows red, green or blue light to pass through, depending on its position in the grating. A so-called RGB image can then be reconstructed from the red, green and blue color components. Each pixel has three values, these represent the light intensity in the red, green and blue areas of the optical spectrum. A gray image can now be generated from the RGB image by reducing the color information to pure brightness information. In the simplest case, the gray value is determined for each pixel as the average of the red, green and blue values.
In der Praxis ist es üblich den Grünwert stärker und den Blauwert geringer zu gewichten, sodass die Formel z.B. so aussehen kann.
Entscheidend für das weitere Vorgehen ist das ein Kamerabild 32 vorliegt, bei dem die Lichtintensität durch die Werte der einzelnen Pixel repräsentiert wird.What is decisive for the further procedure is that there is a
In einem Kamerabild 32 aus einem Garraum auf ein Backblech mit Pommes Frites wurden zur Auswertung alle Pixel mit Werten < 20 (auf einer Lichtintensitätsskala von 0 (schwarz) bis 255 (weiß)) als „verschmutzt“ markiert, alle anderen Pixel wurden als „nicht-verschmutzt“ markiert, sodass aus dem Kamerabild 32 das nachfolgend eingeblendete Binärbild entsteht:In a
siehe Figur 4see figure 4
Der Wert 20 entspricht auf der verwendeten Skala einem sehr dunklen Grau. Ist ein Pixel noch dunkler, so ist die Lichtintensität hier extrem gering, was darauf hinweisen kann, dass der Lichteinfall durch eine Verschmutzung an dieser Stelle gestört wird. Die verschmutzten Pixel sind in der vorstehenden Abbildung weiß markiert, die nicht-verschmutzten sind schwarz. Es ist deutlich sichtbar, dass die Erkennung aus einem einzigen Kamerabild häufig nicht funktioniert und das Gargut einen großen Einfluss auf die Erkennung hat. So werden z.B. die Stellen zwischen den Pommes Frites fehlerhaft als Verschmutzungen identifiziert.The
Die Verwendung mehrerer Kamerabilder erlaubt eine Schmutzerkennung, ohne dass eine gezielte Handlung des Anwenders erforderlich wäre. Anstelle eines einzelnen Kamerabildes werden mehrere Kamerabilder aus aufeinanderfolgenden Garvorgängen verwendet. Aus den mehreren Kamerabildern wird ein Durchschnittsbild 42 errechnet, in dem für jedes Pixel die durchschnittliche Helligkeit mittels einer Metrik berechnet wird. Die untenstehende Gleichung zeigt dies für 3 Beispielbilder mit jeweils 2 x 2 Pixeln. Um das Durchschnittsbild 42 = D zu berechnen, wird für jedes Pixel in diesem Ausführungsbeispiel der arithmetische Mittelwert der korrespondierenden Pixel aus allen drei Bildern A, B und C berechnet.
So kann beispielsweise aus mehreren Kamerabildern das nachfolgend eingeblendete Durchschnittsbild berechnet werden. Dieses Durchschnittsbild wurde aus nur sechs Kamerabildern ermittelt, sodass die unterschiedlichen Beladungen im Garraum 6 weiterhin gut erkennbar sind. Die Beladungen des Garraums 6 werden durch die Mittelwertbildung jedoch bereits abgeschwächt. Im Gegensatz dazu sind die Verschmutzungen jedoch immer gleich und werden durch Mittelwertbildung nicht abgeschwächt.For example, the average image displayed below can be calculated from several camera images. This average image was determined from only six camera images, so that the different loads in the
siehe Figur 5see figure 5
Auch in diesem Bild können nun zur Binarisierung alle Pixel mit Werten < 20 als verschmutzt markiert werden. Die nachfolgend eingeblendete Abbildung zeigt die aus der vorstehenden Abbildung ermittelte Verschmutzung.In this image too, all pixels with values < 20 can now be marked as dirty for binarization. The figure shown below shows the contamination determined from the figure above.
siehe Figur 6see figure 6
Diese Abbildung zeigt bereits eine deutlich bessere Übereinstimmung mit der tatsächlichen Verschmutzung als das vorstehend eingeblendete einzelne Kamerabild. Die Verschmutzungen sind nach der Binarisierung hell dargestellt. Anhand der Anzahl verschmutzter Pixel kann nun eine Entscheidung über Reinigungsnotwendigkeit getroffen werden. Zum Beispiel kann bei mehr als 10% verschmutzter Pixel der Kunde darauf hingewiesen werden, dass der Garraum 6 verschmutzt ist.This figure already shows a much better match with the actual contamination than the individual camera image shown above. The contamination is shown light after binarization. Based on the number of dirty pixels, a decision can now be made about the need for cleaning. For example, if the pixels are more than 10% dirty, the customer can be informed that the
Werden mehr Bilder zur Ermittlung des Durchschnittsbildes verwendet, kann die Verschmutzungserkennung verbessert werden. Im Allgemeinen gilt: je mehr Bilder verwendet werden, desto besser funktioniert die Erkennung. Die nachfolgend eingeblendete Abbildung zeigt ein aus etwa 100 Bildern aus dem gleichen Garraum 6 ermitteltes Durchschnittsbild 42.If more images are used to determine the average image, contamination detection can be improved. In general, the more images that are used, the better the recognition works. The image displayed below shows an
siehe Figur 7see figure 7
Die nachfolgend eingeblendete Abbildung zeigt die anhand der vorstehenden Abbildung ermittelte Verschmutzung in einem binarisierten Bild.The image displayed below shows the contamination determined using the above image in a binarized image.
siehe Figur 8see figure 8
Mit Ausnahme der Regionen in den oberen Ecken, die sehr dunkel sind und daher fehlerhaft markiert werden, entspricht die Erkennung in sehr guter Näherung der tatsächlich vorhandenen Verschmutzung.With the exception of the regions in the upper corners, which are very dark and are therefore incorrectly marked, the detection corresponds to a very good approximation of the dirt that is actually present.
Bei der Mittelwert-und Grenzwertbildung gibt es zwei mögliche Reihenfolgen. Vorstehend beschrieben wurde der Weg, bei dem erst ein Mittelwert und dann ein Grenzwert gebildet werden. Anstatt zunächst ein Durchschnittsbild 42 zu berechnen und dann aus diesem Bild die Verschmutzung anhand eines binarisierten Bildes zu erkennen, kann aber auch zunächst für jedes einzelne Kamerabild die Verschmutzungserkennung mittels einer Binarisierung durchgeführt werden und anschließend können die binären Verschmutzungsbilder mittels einer Metrik gemittelt werden. Dies kann zu einem unterschiedlichen Ergebnis führen. Wird erst für jedes Kamerabild einzeln eine Binarisierung durchgeführt und danach der Mittelwert gebildet, erhält man bei den gleichen Ausgangs-Kamerabildern das nachfolgend eingeblendete Ergebnis:There are two possible sequences when calculating the mean value and limit value. The way in which first a mean value and then a limit value are formed was described above. Instead of first calculating an
siehe Figur 9see figure 9
Hier ist erkennbar, dass das Ergebnis in diesem Fall nicht mehr ein binäres Bild ist, in dem zwischen zwei Kategorien „verschmutzt, nicht-verschmutzt“ unterschieden wird. Stattdessen erhält jeder Pixel eine Verschmutzungswahrscheinlichkeit, die durch das Graulevel des Pixels im Ergebnisbild dargestellt wird. Je nach Anwendungsfall kann diese Vorgehensweise bessere Ergebnisse liefern.Here it can be seen that the result in this case is no longer a binary image in which a distinction is made between two categories "dirty, not dirty". Instead, each pixel is given a contamination probability, which is represented by the pixel's gray level in the resulting image. Depending on the application, this approach can deliver better results.
In den vorstehend gezeigten Ergebnisbildern ist erkennbar, dass die oberen Ecken des Bildes wie Verschmutzungen hervorgehoben werden, da sie im gegebenen Garraum 6 nur schlecht beleuchtet werden und daher wie Verschmutzungen konstant dunkel wirken. Um dies zu verhindern, können diese Regionen bei der Auswertung ignoriert werden. Alternativ können diese Ungleichheiten vor der Auswertung korrigiert werden. Dafür kann beispielsweise ein Medianfilter, bei dem jeder Pixelwert durch den Median der umliegenden Pixelwerte ersetzt wird, verwendet werden. Wird ein Medianfilter mit Größe 201x201 px auf das vorstehend gezeigte aus 100 Kamerabildern erstellte Durchschnittsbild angewendet, erhält man das nachfolgend eingeblendete Bild:In the result images shown above it can be seen that the upper corners of the image are emphasized like dirt, since they are only poorly illuminated in the given
siehe Figur 10see figure 10
Werden das vorstehend gezeigte aus 100 Kamerabildern erstellte Durchschnittsbild und das mit dem Medianfilter korrigierte Bild voneinander subtrahiert, erhält man das nachfolgend eingeblendete Differenzbild:If the average image shown above, created from 100 camera images, and the image corrected with the median filter are subtracted from one another, the difference image shown below is obtained:
siehe Figur 11see figure 11
Auf dem vorstehend eingeblendeten Differenzbild sind verschmutzte Stellen wiederum hervorgehoben, es ist erkennbar, dass die dunklen oberen Ecken nicht fehlerhaft als verschmutzt erkannt werden. Beim Differenzbild kann wieder eine Binarisierung erfolgen, um verschmutzte von nicht-verschmutzten Pixeln zu trennen. Das Ergebnis davon ist in der nachfolgend eingeblendeten Abbildung gezeigt:Dirty areas are again highlighted on the difference image displayed above, it can be seen that the dark upper corners are not incorrectly recognized as dirty. Binarization can be performed again for the difference image in order to separate dirty from non-dirty pixels. The result of this is shown in the image shown below:
siehe Figur 12see figure 12
Hier ist erkennbar, dass die große untere Verschmutzung nicht vollständig erkannt wird. Je nach Anwendungsfall kann die Helligkeitskorrektur sinnvoll sein.Here it can be seen that the large lower soiling is not fully recognized. Depending on the application, the brightness correction can be useful.
Die Erfindung ist nicht auf das vorliegende Ausführungsbeispiel begrenzt. Beispielsweise ist die erfindungsgemäße Lehre auch bei anderen Gargeräten als Backöfen vorteilhaft einsetzbar. Die Kameras oder anderen optischen Sensoren können auch an anderer Stelle als in der vorstehenden gegenständlichen Beschreibung vorgeschlagen positioniert werden, und zwar innerhalb oder außerhalb des Garraums, wie beispielsweise auch in der Zugangstür zum Garraum oder vor der Zugangstür zum Garraum, wie beispielsweise auf der dem Garraum zugewandten Seite eines Griffes, und es können mehrere Kameras und/oder optische Sensoren verwendet sein.The invention is not limited to the present embodiment. For example, the teaching according to the invention can also be advantageously used in cooking appliances other than ovens. The cameras or other optical sensors may also be positioned elsewhere than suggested in the foregoing physical description, inside or outside the cooking cavity, such as in the cooking cavity access door or in front of the cooking cavity access door, such as on the cooking cavity facing side of a handle, and multiple cameras and/or optical sensors may be used.
BezugszeichenlisteReference List
- 22
- GehäuseHousing
- 2.12.1
-
Kühlkanal des Gehäuses 2, als Luftführung ausgebildetCooling channel of the
housing 2, designed as an air duct - 44
- Gehäusewand, als Backmuffelwand ausgebildetHousing wall designed as baking muffle wall
- 4.14.1
-
Öffnung in der Gehäusewand 4, für die Kamera 8Opening in the housing wall 4, for the
camera 8 - 4.24.2
- Garraumdecke der Gehäusewand 4Cooking chamber ceiling of the housing wall 4
- 66
- Garraum, als Backmuffel ausgebildetCooking space designed as a baking muffle
- 88th
- Kamera, als Fixfokuskamera ausgebildetCamera designed as a fixed focus camera
- 8.18.1
-
Objektiv der Kamera 8
Camera lens 8 - 1010
- Linse, als Sammellinse ausgebildetLens designed as a converging lens
- 1111
- Garraumbeleuchtung, als Kamerabeleuchtung ausgebildetCooking chamber lighting designed as camera lighting
- 1212
- Dichtungpoetry
- 1414
- Gargutträgerfood carrier
- 1616
- Gargutfood
- 1818
- Isolationsschichtinsulation layer
- 1919
- Strahlengang des LichtsBeam path of the light
- 2020
- Oberhitze-HeizkörperTop heat radiator
- 2222
- Flanschflange
- 3030
- Gargerätcooking appliance
- 3232
- Kamerabildcamera image
- 3434
- Bedienelektronikcontrol electronics
- 4040
- Auswerteelektronikevaluation electronics
- 4242
- Durchschnittsbildaverage picture
- 4444
- Zeitpunkttime
- 4646
- Bildverarbeitungssoftwareimage processing software
- 4848
- Datenkommunikationdata communication
- 5050
- Graubildgray image
- 5252
- Differenzbilddifference image
- 6060
- Helligkeitswertbrightness value
- 7070
- MittelwertbildungAveraging calculation
- 8080
- Grenzwertbildunglimit formation
- 9090
- Feststellung ReinigungserfordernisDetermination of cleaning requirement
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent Literature Cited
- DE 10128024 A1 [0002]DE 10128024 A1 [0002]
- DE 102016206483 A1 [0003]DE 102016206483 A1 [0003]
- DE 102014116709 A1 [0004]DE 102014116709 A1 [0004]
- KR 20160069344 A [0005]KR 20160069344 A [0005]
Claims (17)
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020126930.7A DE102020126930A1 (en) | 2020-10-14 | 2020-10-14 | Method for determining the point in time for cleaning a cooking chamber of a cooking appliance |
PCT/EP2021/077565 WO2022078839A1 (en) | 2020-10-14 | 2021-10-06 | Method for determining the time for cleaning a cooking chamber of a cooking appliance |
EP21790808.6A EP4229336A1 (en) | 2020-10-14 | 2021-10-06 | Method for determining the time for cleaning a cooking chamber of a cooking appliance |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020126930.7A DE102020126930A1 (en) | 2020-10-14 | 2020-10-14 | Method for determining the point in time for cleaning a cooking chamber of a cooking appliance |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102020126930A1 true DE102020126930A1 (en) | 2022-04-14 |
Family
ID=78134930
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102020126930.7A Granted DE102020126930A1 (en) | 2020-10-14 | 2020-10-14 | Method for determining the point in time for cleaning a cooking chamber of a cooking appliance |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP4229336A1 (en) |
DE (1) | DE102020126930A1 (en) |
WO (1) | WO2022078839A1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230199287A1 (en) * | 2021-12-22 | 2023-06-22 | Whirlpool Corporation | Camera view port dedicated self cleaning cycles |
DE102022204280A1 (en) | 2022-05-02 | 2023-11-02 | BSH Hausgeräte GmbH | Operating a cooking appliance with at least one cooking chamber camera |
WO2024053908A1 (en) * | 2022-09-07 | 2024-03-14 | 삼성전자주식회사 | Cooking apparatus and control method therefor |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023211959A1 (en) * | 2022-04-25 | 2023-11-02 | John Bean Technologies Corporation | System and method for optimizing a cleaning session of a food processing system |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10128024A1 (en) | 2001-06-08 | 2003-01-02 | Bsh Bosch Siemens Hausgeraete | Controlling self-cleaning of cooker involves Controlling start and/or duration of cleaning process depending on optical radiation from light source detected by sensor in oven housing |
WO2014102074A1 (en) | 2012-12-26 | 2014-07-03 | Arcelik Anonim Sirketi | Pyrolytic oven |
DE102014116709A1 (en) | 2014-11-14 | 2016-05-19 | Rational Aktiengesellschaft | Cooking appliance and method for determining the degree of contamination of a cooking appliance |
KR20160069344A (en) | 2014-12-08 | 2016-06-16 | 엘지전자 주식회사 | Microwave oven and method for controlling the same |
DE102016206483A1 (en) | 2016-04-18 | 2017-10-19 | Convotherm Elektrogeräte GmbH | A method of determining a cleaning need and quality management monitoring system of a commercial cooking appliance, and a commercial cooking appliance |
DE102017206056A1 (en) | 2017-04-10 | 2018-10-11 | BSH Hausgeräte GmbH | Operating a cooking appliance |
DE102017206058A1 (en) | 2017-04-10 | 2018-10-11 | BSH Hausgeräte GmbH | Determining a degree of contamination in a cooking chamber |
EP3767183A1 (en) | 2019-07-16 | 2021-01-20 | Electrolux Appliances Aktiebolag | Method for recognising pollution of a domestic appliance and pol-lution recognition system for a domestic appliance |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6842955B2 (en) * | 2017-03-13 | 2021-03-17 | 三菱電機株式会社 | Cooker |
CN110730887B (en) * | 2017-06-07 | 2021-08-10 | 松下知识产权经营株式会社 | Heating cooker and method for controlling heating cooker |
EP3477205B1 (en) * | 2017-10-25 | 2020-04-22 | Diehl AKO Stiftung & Co. KG | Electric household device |
WO2019208342A1 (en) * | 2018-04-27 | 2019-10-31 | パナソニックIpマネジメント株式会社 | Heating cooking device |
JP7141328B2 (en) * | 2018-12-25 | 2022-09-22 | 東京瓦斯株式会社 | Cleaning system, cooking machine, its program and cleaning method |
-
2020
- 2020-10-14 DE DE102020126930.7A patent/DE102020126930A1/en active Granted
-
2021
- 2021-10-06 WO PCT/EP2021/077565 patent/WO2022078839A1/en unknown
- 2021-10-06 EP EP21790808.6A patent/EP4229336A1/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10128024A1 (en) | 2001-06-08 | 2003-01-02 | Bsh Bosch Siemens Hausgeraete | Controlling self-cleaning of cooker involves Controlling start and/or duration of cleaning process depending on optical radiation from light source detected by sensor in oven housing |
WO2014102074A1 (en) | 2012-12-26 | 2014-07-03 | Arcelik Anonim Sirketi | Pyrolytic oven |
DE102014116709A1 (en) | 2014-11-14 | 2016-05-19 | Rational Aktiengesellschaft | Cooking appliance and method for determining the degree of contamination of a cooking appliance |
KR20160069344A (en) | 2014-12-08 | 2016-06-16 | 엘지전자 주식회사 | Microwave oven and method for controlling the same |
DE102016206483A1 (en) | 2016-04-18 | 2017-10-19 | Convotherm Elektrogeräte GmbH | A method of determining a cleaning need and quality management monitoring system of a commercial cooking appliance, and a commercial cooking appliance |
DE102017206056A1 (en) | 2017-04-10 | 2018-10-11 | BSH Hausgeräte GmbH | Operating a cooking appliance |
DE102017206058A1 (en) | 2017-04-10 | 2018-10-11 | BSH Hausgeräte GmbH | Determining a degree of contamination in a cooking chamber |
EP3767183A1 (en) | 2019-07-16 | 2021-01-20 | Electrolux Appliances Aktiebolag | Method for recognising pollution of a domestic appliance and pol-lution recognition system for a domestic appliance |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230199287A1 (en) * | 2021-12-22 | 2023-06-22 | Whirlpool Corporation | Camera view port dedicated self cleaning cycles |
US12010409B2 (en) * | 2021-12-22 | 2024-06-11 | Whirlpool Corporation | Camera view port dedicated self cleaning cycles |
DE102022204280A1 (en) | 2022-05-02 | 2023-11-02 | BSH Hausgeräte GmbH | Operating a cooking appliance with at least one cooking chamber camera |
WO2023213514A1 (en) * | 2022-05-02 | 2023-11-09 | BSH Hausgeräte GmbH | Operating a cooking appliance with at least one cooking chamber camera |
WO2024053908A1 (en) * | 2022-09-07 | 2024-03-14 | 삼성전자주식회사 | Cooking apparatus and control method therefor |
Also Published As
Publication number | Publication date |
---|---|
EP4229336A1 (en) | 2023-08-23 |
WO2022078839A1 (en) | 2022-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102020126930A1 (en) | Method for determining the point in time for cleaning a cooking chamber of a cooking appliance | |
EP3500798B1 (en) | Establishing a degree of browning of food to be cooked | |
EP3446040B1 (en) | Method for determining a needed cleaning of a commercial cooking device and commercial cooking device | |
EP3152498B1 (en) | Cooking device with light pattern projector and camera | |
EP3872403B1 (en) | Method for the determination of a cleaning cycle duration | |
DE102016107617A1 (en) | Method for operating a cooking appliance and cooking appliance | |
DE102019107819A1 (en) | Method for operating a cooking appliance and cooking appliance | |
DE102014210673A1 (en) | Determining a shelf level of a food support | |
EP3904769A1 (en) | Cooking device with electronic operator error detection | |
EP3742051B1 (en) | Lighting control of food products | |
DE102019107828B4 (en) | Method for operating a cooking appliance and cooking appliance | |
DE102019212364A1 (en) | Operating a household cooking appliance with at least one camera | |
DE10015760C2 (en) | Process for operating a cooking oven and cooking oven | |
EP4274997A1 (en) | Method for determining the cooking end time of food, and household cooking appliance | |
DE102023209367A1 (en) | Operating a cooking appliance with a digital cooking chamber color camera | |
EP3767580A1 (en) | Control unit and method for evaluating image data in a domestic appliance | |
BE1030431B1 (en) | Method for cooking a food item in a cooking appliance with a camera device | |
BE1030426B1 (en) | Method for cooking a food item in a cooking appliance with a camera device | |
BE1030917B1 (en) | Cooking appliance and method for operating a cooking appliance | |
DE102022204280A1 (en) | Operating a cooking appliance with at least one cooking chamber camera | |
BE1030428B1 (en) | Method for cooking a food item in a cooking appliance with a camera device | |
DE102023106671A1 (en) | Method for cooking a food item in a cooking appliance with a camera device | |
BE1030929B1 (en) | Method for calibrating a dirty infrared sensor, method for measuring a temperature with a dirty infrared sensor and kitchen appliance | |
DE102023106641A1 (en) | Method for cooking a food item in a cooking appliance with a camera device | |
WO2022089977A1 (en) | Method for operating a cooking appliance, and cooking appliance |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R084 | Declaration of willingness to licence | ||
R018 | Grant decision by examination section/examining division |