WO2021180477A1 - Einstellen eines ziel-bräunungsgrads an einem haushalts-gargerät - Google Patents

Einstellen eines ziel-bräunungsgrads an einem haushalts-gargerät Download PDF

Info

Publication number
WO2021180477A1
WO2021180477A1 PCT/EP2021/054664 EP2021054664W WO2021180477A1 WO 2021180477 A1 WO2021180477 A1 WO 2021180477A1 EP 2021054664 W EP2021054664 W EP 2021054664W WO 2021180477 A1 WO2021180477 A1 WO 2021180477A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
user
measurement area
image measurement
cur
Prior art date
Application number
PCT/EP2021/054664
Other languages
English (en)
French (fr)
Inventor
Julien Adam
Kadir NIGAR
Original Assignee
BSH Hausgeräte GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BSH Hausgeräte GmbH filed Critical BSH Hausgeräte GmbH
Priority to CN202180020109.XA priority Critical patent/CN115190956A/zh
Priority to EP21706632.3A priority patent/EP4118382A1/de
Priority to US17/800,906 priority patent/US20230075347A1/en
Publication of WO2021180477A1 publication Critical patent/WO2021180477A1/de

Links

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47JKITCHEN EQUIPMENT; COFFEE MILLS; SPICE MILLS; APPARATUS FOR MAKING BEVERAGES
    • A47J36/00Parts, details or accessories of cooking-vessels
    • A47J36/32Time-controlled igniting mechanisms or alarm devices
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24CDOMESTIC STOVES OR RANGES ; DETAILS OF DOMESTIC STOVES OR RANGES, OF GENERAL APPLICATION
    • F24C7/00Stoves or ranges heated by electric energy
    • F24C7/08Arrangement or mounting of control or safety devices
    • F24C7/082Arrangement or mounting of control or safety devices on ranges, e.g. control panels, illumination
    • F24C7/085Arrangement or mounting of control or safety devices on ranges, e.g. control panels, illumination on baking ovens
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24CDOMESTIC STOVES OR RANGES ; DETAILS OF DOMESTIC STOVES OR RANGES, OF GENERAL APPLICATION
    • F24C7/00Stoves or ranges heated by electric energy
    • F24C7/08Arrangement or mounting of control or safety devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/68Food, e.g. fruit or vegetables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Definitions

  • the invention relates to a method for setting a target degree of browning, aufwei send the following steps: taking a picture of a cooking space of a domestic cooking appliance; Defining an image measurement area in the displayed image; and setting a target degree of browning for the selected image measurement area.
  • the invention also relates to a device for performing the method, comprising a household cooking appliance with a cooking chamber, at least one camera directed into the cooking chamber, at least one screen on which recordings recorded by the at least one camera can be displayed, at least one operator interface and a data processing device for carrying out the cooking process taking into account the target degree of browning.
  • the invention is particularly advantageously applicable to baking ovens.
  • EP 3477206 A1 discloses a cooking appliance comprising: a cooking space, an image generating device for capturing an image of a food item within the cooking space; a data processing device in communication with the imaging device and comprising a software module configured to receive the captured image from the imaging device and calculate a tan level, and an operator interface configured to display a visual scale that indicates the degree of browning.
  • the cooking appliance comprises a selection device which is configured to enable a user to set a target browning level for the food.
  • US 20130092145 A1 discloses an oven comprising a cooking chamber configured to receive a food product, an operator interface configured to display information in connection with processes used for cooking, a first and a second energy source and a cooking controller.
  • the first energy source provides primary heat and the second energy source provides secondary heat for the food product.
  • a cooking controller can be operatively coupled to the first and second energy sources.
  • the cooking control may include processing circuitry configured to enable an operator to make a browning control selection via the operator interface by making a selection.
  • selected control panel which is presented on the operator interface, provides operator instructions.
  • the selected control panel can be selected based on a cooking mode of the oven.
  • the selection of the browning control can provide control parameters in order to apply the heat directly to the food product via the second energy source.
  • the cooking mode is a mode from a first mode in which the operator can select several of the control parameters including air temperature, air speed and time, and a second mode in which the operator can select a degree of browning, the control parameters then automatically determined based on the selected degree of browning.
  • WO 2009/026895 A2 discloses a method for setting a work program to be run in an interior of a cooking appliance, comprising at least one cooking program and / or at least one cleaning program in which at least one of a plurality of parameters or at least one display and operating device is set can, wherein the parameter, the adjustable values of the parameter and the set value are displayed at least temporarily on the display and operating device in a visualized manner.
  • the visualization of a large number of outer cooking degrees for setting the other first cooking product parameter or the display of a large number of browning setting areas of a browning scale can take place, with the number and / or colors of the browning setting areas depending on the selected type of food, the selected batch , the installation site of the cooking device and / or the operating language of the cooking device is or are determined.
  • DE 102016215550 A1 discloses a method for determining the degree of browning of food in a cooking space of a domestic gas appliance, which household cooking device has a camera directed into the cooking space and a light source for illuminating the cooking space, and wherein a reference image is recorded by means of the camera, a first measurement image is recorded at a first brightness of the light source, a second measurement image is recorded at a second brightness of the light source, a difference image is generated from the first measurement image and the second measurement image, and the difference image is compared with the reference image.
  • it is automatically determined which area of the excluded image is to serve as the image measurement area or "reference area" in order to determine the degree of tanning.
  • the object is achieved by a method for setting a target degree of browning of food to be cooked, comprising the following steps:
  • the image measurement area that is used to determine an actual degree of browning can be selected or determined by a user, the advantage is achieved that the degree of browning is determined in a targeted manner on the basis of the item to be cooked and / or on the basis of that area which is decisive or is most important for the user in order to achieve a desired cooking result.
  • a specific item to be cooked or a certain range of items to be cooked can be reliably selected in a targeted manner by the user even when
  • the food to be cooked has an inhomogeneous color distribution and / or shows a locally noticeably different browning curve, e.g. marble cake, pizza with several layers, pan-fried vegetables, etc .;
  • the food to be cooked has different foods or food components, e.g. chicken with french fries;
  • the food to be cooked has a complex shape so that it is illuminated very differently, e.g. bread;
  • a food underlay is visible that is browned during a cooking process, e.g. baking paper and / or
  • a colored (especially brown to black) food container such as a baking pan etc.
  • the user can determine whether a cooking process should be controlled based on the degree of browning of the chicken or the french fries, and the user can place the image measurement area precisely on the chicken or the french fries.
  • the method is based on the idea of letting the user decide where in the recorded image the degree of browning is to be determined.
  • the image can be recorded using a camera, possibly using a camera from a group of several available cameras that record the food, e.g. from different angles.
  • the definition of the user-selectable image measurement area in the displayed image thus includes the possibility that a user can determine the image measurement area that is used to determine the degree of tanning himself.
  • the target degree of browning for the selected image measurement area can be determined by the user and / or automatically, for example based on target degrees of browning stored in a database or calculated target degrees of browning.
  • the user can set the target degree of browning using a percentage scale or a color scale, for example by means of a so-called slider.
  • the automatic definition can take place, for example, on the basis of cooking programs or on the basis of values previously stored by the user. In general, known methods can be used to determine the degree of target browning.
  • the method can then also be viewed as a method for operating a domestic cooking appliance or as a method for carrying out a cooking process or a cooking sequence.
  • the cooking process taking into account the target degree of browning, can be carried out according to any known and suitable method and uses the user-selected image measurement area as a reference area. In particular, to determine how the degree of browning is determined in the image measurement area, when the actual degree of browning has reached the target degree of browning and which action is then triggered (e.g. the cooking process is stopped, the cooking space is cooled down, a message is issued to the user, etc. .), known methods can then be used.
  • the step of defining the image measurement area comprises a user-guided positioning of the image measurement area via the screen.
  • the image measurement area can be determined or defined in a particularly simple manner.
  • the user can at least move the image measurement area on the screen (in the x and y directions).
  • the image measurement area can be predefined, for example, as a cursor or cursor window / cursor area that can be moved across the screen.
  • the user-guided definition of the image measurement area is a touch-guided and / or control panel-guided positioning of the image via the screen. measuring range includes. This makes it much easier to position the image measurement area.
  • touch-guided positioning the image measurement area is positioned by touching a touch-sensitive screen, e.g. by tapping the screen with a finger of the user on the point where the image measurement area is to be positioned, by dragging the cursor / cursor area to the desired position, etc.
  • the cursor / cursor area can be adopted as the image measurement area automatically or only after user confirmation.
  • the control panel-guided positioning the cursor can be moved on the screen by means of a control panel (for example by moving a joystick, actuating cursor keys, etc.).
  • the screen does not need to be a touch-sensitive screen.
  • the image measurement area can be varied by the user, e.g. with regard to its shape and / or size.
  • the image measurement area can be adapted even more precisely to a user requirement.
  • a square or round image measurement area can be reduced or enlarged by a user, e.g. by means of a two-finger gesture ("pinching").
  • the shape of the image measurement area can also be changed, e.g. an edge ratio of a rectangle, a shape from oval to circular, etc.
  • a pattern area comprehensive this image area is automatically determined for an image area selected by the user and
  • the pattern area is adopted as the image measurement area.
  • image measurement areas with complex shapes or contours can also be easily defined or fixed by a user.
  • the sample area can be adopted as the image measurement area automatically or only after user confirmation.
  • This refinement manages without complex A1 algorithms, but can use methods for pattern recognition known, for example, from the field of image processing, which are comparatively easy to implement. For example, a user can select an object (eg a chicken) recognizable to him in the recorded image by tapping the associated touch-sensitive screen, whereupon the contour of the chicken in the image is determined by means of the pattern recognition. The user can then confirm or reject this contour. With confirmation, the pattern area defined by the contour is adopted as the image measurement area.
  • An image area selected by the user can be an image position of an image point, which is calculated, for example, from a touch area of a finger, or it can be an area comprising several image points.
  • a pattern recognition can be carried out automatically on the basis of the image, which can result in one or more pattern areas displayed in the image.
  • the user can now select the desired pattern area by tapping or determining in another way, which can then be adopted as the image measurement area.
  • the user can select the type of definition of the image measurement area, i.e. can switch, for example, between a definition based on a cursor / cursor area and image pattern recognition. If, for example, the user is dissatisfied with the result of the image pattern recognition, he can switch to a definition based on a cursor / cursor area, or vice versa.
  • the automatic pattern recognition comprises a pattern comparison with a pattern database in which image patterns belonging to the specified food to be cooked are stored. This further facilitates an automatic determination of a meaningful pattern area which corresponds to a specific item to be cooked. For example, several reference patterns belonging to a chicken can be stored in the pattern database and the pattern area can be defined in the currently recorded image on the basis of or with the aid of these reference patterns.
  • a user-selectable image measurement area is initially selected automatically and after a user confirmation or a lack of user confirmation is accepted within a specified image duration (which is also interpreted as user confirmation). This can increase user-friendliness. If a user recognizes that the automatically selected image measurement area is suitable, the user can simply confirm this, do not perform any action at all for a specified period of time or simply move on to the next action step (e.g. entering a degree of browning).
  • the automatic selection of the image measurement area can dispense with the use of complex Al algorithms and For example, display the center of the image or an area surrounding the center of the image. If the user does not like the automatic selection, he can change the image measurement area as described above, for example with regard to its position, shape and / or size.
  • the image measurement area is automatically tracked during the cooking process. In this way, the advantage is achieved that, even if a position of the item to be cooked and / or its shape changes, the image measurement area at least largely corresponds to the user-selected image measurement area.
  • Changing the position of the food can be caused, for example, by the user stirring or turning the food.
  • the change in shape can include, for example, leavening of the dough.
  • a user loads the cooking space, e.g. of an oven, with food;
  • the oven sends the image to a preferably touch-sensitive oven screen and / or to a preferably touch-sensitive screen of a user terminal;
  • the user defines the image measurement area by tapping or similar on an image area; whereupon a predetermined (e.g. square or circular) image measurement area is superimposed on the image from the position of the finger.
  • the image measurement area can, for example, be centered around a pixel position defined when tapping or similar.
  • an image pattern area can automatically be generated by tapping, which includes the position of the finger on the image.
  • an automatically generated image measurement area can be offered to a user, e.g. a square or circular image measurement area, e.g. in the middle of the image, which only needs to be confirmed by the user;
  • a tan scale can be calculated and displayed automatically in a basically known manner based on the content of the image measurement area, and the user can set the desired degree of tan using the tan scale;
  • the cooking process is then carried out until the desired degree of browning is achieved, which can be done in a basically known manner. If the user moves the food during the cooking process or the food itself moves (eg dough rises), in a further development the movement can be followed by means of an algorithm and the image measurement area can be tracked accordingly. As a result, the user does not need to choose a new image measurement area.
  • the object is also achieved by a device which is set up to carry out the method as described above, having:
  • At least one operator interface which is set up to define the user-selectable image measurement area in the displayed image and to define the target degree of browning
  • a data processing device which is set up to carry out the cooking process taking into account the target degree of browning.
  • the device can be designed analogously to the method and has the same advantages.
  • the domestic cooking appliance can, for example, be an oven, in particular an oven, microwave oven, steam treatment device or any combination thereof, e.g. an oven with a microwave and / or steam treatment functionality.
  • the camera can be integrated into the domestic cooking appliance, in particular directed into the cooking chamber through a cooking chamber wall.
  • the camera can be arranged outside the cooking space, e.g. directed into the cooking space from the outside through a viewing window of a door that closes the cooking space.
  • the camera can be a detachable camera especially in this case.
  • the screen can be a touch-sensitive screen, which enables particularly simple operation.
  • the operator interface is then in particular integrated into the screen or the screen also serves as the operator interface. ok
  • the screen can also be a non-touch-sensitive screen, the image measurement area of which can be set via a separate operator interface.
  • the operator interface can, for example, have control panels (e.g. sensor keys), e.g. a cursor key cross, a joystick, etc.
  • control panels e.g. sensor keys
  • the non-touch-sensitive screen and the operator interface can occupy different areas on a control panel of the household appliance.
  • the operator interface and the screen can also be referred to together as a user interface.
  • the image can be displayed on one screen or on multiple screens at the same time.
  • the camera and the screen are color-assisted, i.e. a color camera and a color screen, which makes it particularly easy to determine the image measurement area and to determine the degree of browning.
  • the device is the domestic cooking appliance.
  • the household cooking appliance can carry out the method autonomously and, for example, does not need a connection to a network, but can have one.
  • the household cooking appliance has a screen and a user interface (possibly integrated in a touch-sensitive screen) for carrying out the method, which can represent parts of an operating panel.
  • the data processing device can correspond to a control device of the cooking device or a central control device of the cooking device can also be set up to carry out the method.
  • the device is a system which comprises the domestic cooking appliance as a system component.
  • the screen and the operator interface are components of a user terminal (e.g. a smartphone, tablet PC, desktop PC, notebook, etc.) and the household cooking device has a communication interface for transmitting the data relating to the method the user terminal.
  • a user terminal e.g. a smartphone, tablet PC, desktop PC, notebook, etc.
  • the household cooking device has a communication interface for transmitting the data relating to the method the user terminal.
  • a corresponding application program (“app") can be installed on the user terminal to carry out the method.
  • the household cooking appliance can also have a screen and the operator interface or can dispense with them.
  • sample database is stored in a network-supported data memory, e.g. in the so-called “cloud”. This saves storage space in the household cooking appliance.
  • the device comprises a network-supported image processing device at least for defining the user-selectable image measurement area in the displayed image by means of automatic pattern recognition.
  • the automatic pattern recognition can also be carried out by means of the user terminal and / or the household cooking device.
  • the domestic cooking appliance has a communication interface for the transmission of data relating to the method, it is in principle also possible to optionally carry out the method autonomously by the domestic cooking appliance or to carry out at least parts of it on a computer-aided entity. This can depend, for example, on whether a user wants to define the user-selectable image measurement area on a user terminal or not. The case is also included that the definition of the user-selectable image measurement area is carried out using the screen of the household cooking appliance (e.g.
  • a computing power for automatic pattern recognition as such by means of a network-supported image processing device (for example a network server or a cloud computer) is carried out, possibly with the aid of a network-supported sample database.
  • a network-supported image processing device for example a network server or a cloud computer
  • FIG. 1 shows a possible method sequence for operating a household cooking appliance including setting a target degree of browning
  • FIG. 2 shows the food being cooked in a cooking space of the domestic cooking appliance
  • FIG. 3 shows an image of the food to be cooked on a touch-sensitive screen, recorded by means of the domestic cooking appliance
  • FIG. 5 shows a second partial step for the user-side selection of the image measurement area
  • FIG. 6 shows an alternative second partial step for the user-side selection of the image measurement area
  • FIG. 7 shows, as a sectional illustration in side view, a sketch of a device for carrying out the method.
  • FIG. 1 shows a possible method sequence for operating a domestic cooking appliance in the form of, for example, an oven 1 (see FIG. 7) including setting a target degree of browning.
  • a user loads the cooking space 2 of the oven 1 with food G.
  • the food G can, for example, as shown in the sketch in FIG include. Using this to determine an image measurement range suitable for high user satisfaction is only possible in a fully automatic manner with an unreliable effect, and indeed not even if complex A1 algorithms are used.
  • an image P of the cooking space 2 is recorded by means of a camera 5 (see FIG. 7) of the baking oven 1, which here shows the baking sheet B, the food G and their surroundings.
  • a camera 5 see FIG. 7 of the baking oven 1, which here shows the baking sheet B, the food G and their surroundings.
  • Such an image P is shown in sketch form in FIG.
  • the image P is sent in a step S3 to a touch-sensitive screen S, for example a screen 7 of the oven 1 and / or a screen 9 of a user terminal such as a smartphone SP (see FIG. 7), and is displayed there, as in FIG shown as a sketch.
  • a touch-sensitive screen S for example a screen 7 of the oven 1 and / or a screen 9 of a user terminal such as a smartphone SP (see FIG. 7
  • a user N can tap, for example with his finger, a pen, etc., an area of the screen S on which the image P is displayed, here: an image area that is to belongs to the chicken H.
  • an image pattern area is automatically generated for the tapped image area, which is shown in dashed lines as the contour C of the chicken H in FIG.
  • user N can confirm the image sample area as the image measurement area, e.g. by tapping an affirmative checkbox (upper checkbox in FIG. 5), or, if not, discarding it, e.g. by tapping a negative Checkbox (lower checkbox in Fig. 5).
  • the image measurement area then corresponds to the confirmed image sample area C.
  • the user N can place the image measurement area on the potato slices K.
  • the image pattern area C can be calculated from the image information contained in the image P alone.
  • a comparison with image patterns stored in a pattern database DB (see FIG. 7), which are assigned to certain cooking goods G, can also be carried out.
  • the at least one image pattern determined in the image P can be approximated even better to the shape of known items to be cooked.
  • the image samples of chicken H can be stored in the sample database DB, e.g. varies according to perspective, batch (e.g. whole chicken, half chicken, leg, etc.), etc.
  • a tanning scale (not shown) is automatically generated for the selected or defined image measurement area and displayed on the screen S.
  • the user N can enter or select a desired target browning level (here: of the chicken H).
  • the user N can specify the desired degree of browning of the potato slices K.
  • step S7 the control device 6 of the oven 1 carries out a cooking process until the target degree of browning is reached, based on a comparison of a current actual degree of browning calculated using the image measurement area with the target degree of browning.
  • step S5 a predetermined image area
  • the cursor CUR can be moved by the user N, for example by tapping or a drag-n-drop movement using a finger, pen, etc., to a point in the image B at which the user N would like to have the degree of browning evaluated. As shown in FIG.
  • the cursor CUR can reproduce the shape and size of the image measurement area, with the user N then only needing to define the position of the cursor CUR.
  • the image measurement area here corresponds to the image area determined by the cursor CUR.
  • the user N can adapt the size and / or shape of the cursor CUR and thus also the image measurement area.
  • the cursor CUR can be confirmed at its starting position (e.g. the image in the middle) on the image P by a user without the cursor CUR having to be moved.
  • the confirmation can also take place in that the user does not change the image measurement area C, CUR for a predetermined period of time.
  • the movement can be followed by means of an image evaluation algorithm and the image measurement area C, CUR can be tracked accordingly or adapted to the movement.
  • the user N does not need to choose a new image measurement area C, CUR.
  • FIG. 7 shows, as a sectional illustration in side view, a sketch of a device 1, SP, DB for carrying out the method.
  • the device comprises an oven 1, a user terminal in the form of a smartphone SP and optionally a sample database DB.
  • the oven 1 has a cooking chamber 2, the front loading opening 3 of which can be closed by means of a door 4.
  • the cooking space 2 can be loaded with the food G present in the baking tray B through the loading opening 3.
  • a camera 5 which is directed into the cooking space 2 from above or at an angle.
  • the camera 5 can optionally be located elsewhere. Several cameras 5 can also be present.
  • the camera 5 is connected to a touch-sensitive screen 7, possibly via a control device 6. from Images P recorded by the camera 5 can be sent to this screen 7, whereupon the user N can define the image measurement area C, CUR as described above and can also set a target degree of browning.
  • the control device 6 can control a cooking process (eg activate heating elements, not shown), for example until the target degree of browning is reached.
  • a cooking process eg activate heating elements, not shown
  • the method can be carried out autonomously on the baking oven 1.
  • the oven 1 can be wirelessly connected to the smartphone SP via a communication module 8, e.g. a Bluetooth and / or WLAN module.
  • the smartphone also has a touch-sensitive screen 9 via which the above method steps S3 to S6 can run, namely instead of or in addition to the screen 7 of the oven 1.
  • the oven 1 and / or the smartphone 2 can be connected to a sample database DB via a network NW, e.g. the Internet.
  • NW e.g. the Internet
  • two or more image measurement areas can also be defined by a user and the same or different tanning target values can be assigned to these image measurement areas.
  • the following cooking process can then be ended, for example, when the actual degree of browning of one or more of the image measurement areas reaches the corresponding target degree of browning.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Mechanical Engineering (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Food Science & Technology (AREA)
  • Electric Ovens (AREA)

Abstract

Ein Verfahren (S1-S6) dient zum Einstellen eines Ziel-Bräunungsgrads von Gargut (G), und weist die folgenden Schritte auf: Aufnehmen (S2) eines Bilds (P) aus einem mit dem Gargut (G) beschickten Garraum eines Haushalts-Gargeräts (1); Darstellen (S3) des Bilds auf einem Bildschirm (S); Definieren (S4, S5) eines nutzerauswählbaren Bildmessbereichs (C; CUR) in dem dargestellten Bild (P); und Festlegen (S6) eines Ziel- Bräunungsgrads für den ausgewählten Bildmessbereich (C; CUR). Eine Vorrichtung (1, SP, DB) zum Durchführen des Verfahrens weist auf: ein Haushalts-Gargerät (1) mit einem Garraum (2), mindestens eine in den Garraum (2) gerichtete Kamera (5), mindestens einen Bildschirm (S, 7, 9), auf welchem von der mindestens einen Kamera (5) aufgenommene Bilder (P) abbildbar sind, mindestens eine Bedienerschnittstelle (7, 9) zum Definieren des nutzerauswählbaren Bildmessbereichs in dem dargestellten Bild und zum Festlegen des Ziel-Bräunungsgrads und eine Datenverarbeitungseinrichtung (6) zum Durchführen des Garvorgangs unter Berücksichtigung des Ziel-Bräunungsgrads. Die Erfindung ist insbesondere vorteilhaft anwendbar auf Backöfen.

Description

Einstellen eines Ziel-Bräunungsgrads an einem Haushalts-
Gargerät
Die Erfindung betrifft ein Verfahren zum Einstellen eines Ziel-Bräunungsgrads, aufwei send die folgenden Schritte: Aufnehmen eines Bilds aus einem Garraum eines Haushalts- Gargeräts; Definieren eines Bildmessbereichs in dem dargestellten Bild; und Festlegen eines Ziel-Bräunungsgrads für den ausgewählten Bildmessbereich. Die Erfindung betrifft auch eine Vorrichtung zum Durchführen des Verfahrens, aufweisend ein Haushalts- Gargerät mit einem Garraum, mindestens eine in den Garraum gerichtete Kamera, min destens einen Bildschirm, auf welchem von der mindestens einen Kamera aufgenomme ne Aufnahmen abbildbar sind, mindestens eine Bedienerschnittstelle und eine Datenver arbeitungseinrichtung zum Durchführen des Garablaufs unter Berücksichtigung des Ziel- Bräunungsgrads. Die Erfindung ist insbesondere vorteilhaft anwendbar auf Backöfen.
EP 3477206 A1 offenbart ein Gargerät, umfassend: einen Garraum, eine Bilderzeu gungsvorrichtung zum Erfassen eines Bildes eines Nahrungsmittels innerhalb des Gar raums; eine Datenverarbeitungsvorrichtung, die mit der Bilderzeugungsvorrichtung in Kommunikation steht und ein Softwaremodul umfasst, das dazu konfiguriert ist, das er fasste Bild von der Bilderzeugungsvorrichtung zu empfangen und einen Bräunungsgrad zu berechnen, und eine Bedienerschnittstelle, die dazu konfiguriert ist, eine visuelle Skala anzuzeigen, die den Bräunungsgrad anzeigt. In einer Ausführungsform umfasst das Gar gerät eine Auswahleinrichtung, die dazu konfiguriert ist, es einem Benutzer zu ermögli chen, einen Zielbräunungsgrad für das Lebensmittel einzustellen.
US 20130092145 A1 offenbart einen Ofen umfassend einen Garraum, der zum Aufneh men eines Lebensmittelprodukts konfiguriert ist, eine Bedienerschnittstelle, die zum An zeigen von Informationen in Verbindung mit zum Kochen verwendeten Prozessen konfi guriert ist, eine erste und eine zweite Energiequelle sowie eine Kochsteuerung. Die erste Energiequelle liefert Primärwärme und die zweite Energiequelle liefert Sekundärwärme für das Lebensmittelprodukt. Eine Kochsteuerung kann betriebsmäßig mit der ersten und der zweiten Energiequelle gekoppelt sein. Die Kochsteuerung kann eine Verarbeitungsschal tung enthalten, die dazu konfiguriert ist, es einem Bediener zu ermöglichen, eine Bräu nungssteuerungsauswahl über die Bedienerschnittstelle zu treffen, indem er einer ausge- wählten Steuerkonsole, die auf der Bedienerschnittstelle dargestellt wird, Bedieneranwei sungen bereitstellt. Die ausgewählte Steuerkonsole kann basierend auf einem Kochmo dus des Ofens ausgewählt werden. Die Auswahl der Bräunungssteuerung kann Steue rungsparameter bereitstellen, um die Wärme über die zweite Energiequelle direkt auf das Lebensmittelprodukt aufzubringen. In einer Ausführungsform ist der Kochmodus ein Mo dus aus einem ersten Modus, in dem der Bediener mehrere der Steuerparameter ein schließlich Lufttemperatur, Luftgeschwindigkeit und Zeit auswählen kann, und aus einem zweiten Modus, in dem der Bediener einen Bräunungsgrad auswählen kann, wobei die Steuerparameter dann automatisch basierend auf dem ausgewählten Bräunungsgrad bestimmt werden.
WO 2009/026895 A2 offenbart ein Verfahren zur Einstellung eines in einem Innenraum eines Gargeräts abzulaufenden Arbeitsprogramms, umfassend zumindest ein Garpro gramm und/oder zumindest ein Reinigungsprogramm, bei dem zumindest ein Parameter einer Vielzahl von Parametern oder zumindest eine Anzeige- und Bedieneinrichtung ein gestellt werden kann, wobei der Parameter, die einstellbaren Werte des Parameters und der eingestellte Wert zumindest zeitweise auf der Anzeige- und Bedienungseinrichtung visualisiert angezeigt werden. In einer Ausgestaltung kann die Visualisierung einer Viel zahl von äußeren Gargraden zur Einstellung des anderen ersten Gargutparameters oder die Anzeige einer Vielzahl von Bräunungseinstellungsbereichen einer Bräunungsskala stattfinden, wobei vorzugsweise die Anzahl und/oder Farben der Bräunungseinstellungs bereiche in Abhängigkeit von der ausgewählten Gargutart, der ausgewählten Partie, dem Aufstellungsort des Gargeräts und/oder der Bediensprache des Gargeräts bestimmt wird bzw. werden.
DE 102016215550 A1 offenbart ein Verfahren zum Feststellen eines Bräunungsgrads von Gargut in einem Garraum eines Haushalts-Gasgeräts, welches Haushalts-Gargerät eine in den Garraum gerichtete Kamera und eine Lichtquelle zum Beleuchten des Gar raums aufweist, und wobei mittels der Kamera ein Referenzbild aufgenommen wird, ein erstes Messbild bei einer ersten Helligkeit der Lichtquelle aufgenommen wird, ein zweites Messbild bei einer zweiten Helligkeit der Lichtquelle aufgenommen wird, aus dem ersten Messbild und dem zweiten Messbild ein Differenzbild erzeugt wird und das Differenzbild mit dem Referenzbild verglichen wird. Bei den bekannten Bräunungsmessungen wird automatisch bestimmt, welcher Bereich des ausgenommenen Bilds als Bildmessbereich oder "Referenzbereich" dienen soll, um den Bräunungsgrad zu bestimmen. Dies ist als "Klassifikations-" oder "Segmentations-" Problem bekannt und stellt eine der größten Anforderung an eine automatische Bräu nungserkennung dar. Bisher werden dazu zumeist komplexe AI (Künstliche Intelligenz)- Algorithmen verwendet, die auf Maschinenlernen ("Machine Learning") beruhen. Solche Algorithmen sind schwierig zu entwickeln und benötigen eine hohe Rechenleistung. Dies wiederum führt bei Implementierung in dem Haushalts-Gargerät zu hohen Kosten für die zugehörige Datenverarbeitungseinrichtung. Aber selbst mit einem hohen Aufwand zur Durchführung solcher Al-Algorithmen ist die Bestimmung eines geeigneten Bildmessbe reichs häufig unbefriedigend, speziell bei komplexem (speziell inhomogenem) Gargut. Somit sind auch unter Nutzung von Al-Algorithmen zur Bestimmung des Bildmessbe reichs die Garergebnisse häufig nicht zur Zufriedenheit eines Nutzers gebräunt.
Es ist die Aufgabe der vorliegenden Erfindung, die Nachteile des Standes der Technik zumindest teilweise zu überwinden und insbesondere eine verbesserte Möglichkeit zur Erreichung eines gewünschten Bräunungsgrads von Gargut während eines Garvorgangs bereitzustellen.
Diese Aufgabe wird gemäß den Merkmalen der unabhängigen Ansprüche gelöst. Vorteil hafte Ausführungsformen sind Gegenstand der abhängigen Ansprüche, der Beschreibung und der Zeichnungen.
Die Aufgabe wird gelöst durch ein Verfahren zum erfahren zum Einstellen eines Ziel- Bräunungsgrads von zu garendem Gargut, aufweisend die folgenden Schritte:
- Aufnehmen eines Bilds aus einem mit dem Gargut beschickten Garraum eines Haushalts-Gargeräts;
- Darstellen des Bilds auf einem Bildschirm; und
- Definieren eines nutzerauswählbaren Bildmessbereichs in dem dargestellten Bild; und
- Festlegen eines Ziel-Bräunungsgrads für den ausgewählten Bildmessbereichs.
Dadurch, dass der Bildmessbereich, der zur Bestimmung eines Ist-Bräunungsgrads ver wendet wird, durch einen Nutzer auswählbar oder festlegbar ist, wird der Vorteil erreicht, dass der Bräunungsgrad gezielt anhand desjenigen Garguts und/oder anhand desjenigen Bereichs bestimmt wird, welches bzw. welcher für den Nutzer zur Erreichung eines ge wünschten Garergebnisses entscheiden oder am wichtigsten ist. Insbesondere kann so gezielt durch den Nutzer ein bestimmtes Gargut bzw. ein bestimmter Gargutbereich auch dann zuverlässig ausgewählt werden, wenn
- das Gargut eine inhomogene Farbverteilung aufweist und/oder einen lokal merk lich unterschiedlichen Bräunungsverlauf zeigt, z.B. Marmorkuchen, Pizza mit meh reren Auflagen, Gemüsepfannen usw.;
- das Gargut unterschiedliche Lebensmittel oder Lebensmittelkomponenten auf weist, z.B. Hühnchen mit Pommes Frites;
- das Gargut komplex geformt ist, so dass es stark unterschiedlich ausgeleuchtet wird, z.B. Brot;
- eine Gargutunterlage sichtbar ist, die während eines Garvorgangs gebräunt wird, z.B. Backpapier und/oder
- ein farbiger (insbesondere brauner bis schwarzer) Gargutbehälter wie eine Back form usw. verwendet wird
- oder anderes komplexes Gargut vorliegt.
Dadurch wiederum kann auf eine entwicklungstechnisch und rechentechnisch aufwändige und dennoch häufig fehleranfällige automatische Bestimmung des Bildmessbereichs ver zichtet werden. Beispielsweise kann für den Fall eines Hühnchens mit Pommes Frites der Nutzer bestimmen, ob ein Garvorgangs anhand des Bräunungsgrads des Hühnchens oder der Pommes Frites gesteuert werden soll, und der Nutzer kann den Bildmessbereich genau auf das Hühnchen oder die Pommes Frites legen. Dem Verfahren liegt also die Idee zugrunde, den Nutzer entscheiden zu lassen, wo in dem aufgenommenen Bild der Bräunungsgrad bestimmt werden soll.
Das Bild kann anhand einer Kamera aufgenommen werden, ggf. anhand einer Kamera aus einer Gruppe mehrerer zur Verfügung stehender Kameras, die das Gargut z.B. aus verschiedenen Winkeln aufnehmen.
Das Definieren des nutzerauswählbaren Bildmessbereichs in dem dargestellten Bild um fasst also die Möglichkeit, dass ein Nutzer den Bildmessbereich, der zur Bestimmung des Bräunungsgrads verwendet wird, selbst festlegen kann. Der Ziel-Bräunungsgrad für den ausgewählten Bildmessbereich kann durch den Nutzer und/oder automatisch, z.B. beruhend auf in einer Datenbank gespeicherten Ziel- Bräunungsgraden oder berechneten Ziel-Bräunungsgraden, festgelegt werden. Bei spielsweise kann der Nutzer den Zielbräunungsgrad über eine prozentuale Skala oder eine Farbskala einstellen, z.B. mittels eines sog. Sliders. Die automatische Festlegung kann beispielsweise anhand von Garprogrammen oder anhand von zuvor nutzerseitig gespeicherten Werten erfolgen. Allgemein können zur Bestimmung des Zielbräunungs grads dafür bekannte Methoden angewandt werden.
Dem Verfahren kann sich der Schritt
- Durchführen eines Garvorgangs unter Berücksichtigung des Ziel-Bräunungsgrads anschließen. Das Verfahren kann dann auch als ein Verfahren zum Betreiben eines Haushalts-Gargeräts oder als Verfahren zum Durchführen eines Garvorgangs oder Garablaufs angesehen werden. Der Garvorgang unter Berücksichtigung des Ziel- Bräunungsgrads kann gemäß jedem bekannten und geeigneten Verfahren durchgeführt werden und verwendet den nutzerausgewählten Bildmessbereich als Referenzbereich. Insbesondere zur Bestimmung, wie der Bräunungsgrad in dem Bildmessbereich bestimmt wird, wann der Ist-Bräunungsgrad den Ziel-Bräunungsgrad erreicht hat und welche Aktion dann ausgelöst wird (z.B. der Garvorgang gestoppt wird, der Garraum abgekühlt wird, eine Nachricht an den Nutzer ausgegeben wird usw.), kann dann auf bekannte Methoden zurückgegriffen werden.
Es ist eine Ausgestaltung, dass der Schritt des Definierens des Bildmessbereichs ein über den Bildschirm nutzergeführtes Positionieren des Bildmessbereichs umfasst. Dadurch lässt sich der Bildmessbereich besonders einfach festlegen oder definieren. In dieser Ausgestaltung kann der Nutzer den Bildmessbereich auf dem Bildschirm zumindest ver schieben (in x- und y-Richtung). Der Bildmessbereich kann beispielsweise als ein über den Bildschirm verschieblicher Cursor oder Cursorfenster / Cursorbereich vordefiniert sein.
Es ist eine Ausgestaltung, dass das nutzergeführte Definieren des Bildmessbereichs ein über den Bildschirm touchgeführtes und/oder bedienfeldgeführtes Positionieren des Bild- messbereichs umfasst. Dies erleichtert ein Positionieren des Bildmessbereichs ganz er heblich. Bei dem touchgeführten Positionieren wird der Bildmessbereich durch Berühren eines berührungsempfindlichen Bildschirms positioniert, z.B. durch Tippen auf den Bild schirm mit einem Finger des Nutzers auf die Stelle, an der der Bildmessbereich positio niert werden soll, durch Ziehen des Cursors / Cursorbereichs an die gewünschte Position, usw. Der Cursor / Cursorbereich kann als der Bildmessbereich automatisch oder erst nach Nutzerbestätigung übernommen werden. Bei dem bedienfeldgeführten Positionieren kann der Cursor mittels eines Bedienfelds (z.B. durch Bewegen eines Joysticks, Betätigen von Cursortasten usw.) auf dem Bildschirm bewegt werden. Der Bildschirm braucht dabei kein berührungsempfindlicher Bildschirm zu sein.
Es ist eine Ausgestaltung, dass der Bildmessbereich nutzerseitig variierbar ist, z.B. in Be zug auf seine Form und/oder Größe. Dadurch kann der Bildmessbereich noch genauer an einen Nutzerwunsch angepasst werden. Beispielsweise kann ein quadratischer oder run der Bildmessbereich durch einen Nutzer verkleinert oder vergrößert werden, z.B. durch eine Zwei-Finger-Geste ("Pinching"). Auch kann die Form des Bildmessbereich geändert werden, z.B. ein Kantenverhältnis eines Rechtecks, eine Form von oval zu kreisrund, usw.
Es ist eine Ausgestaltung, dass zum Definieren des Bildmessbereichs
- zu einem nutzerseitig ausgewählten Bildbereich automatisch ein diesen Bildbe reich umfassender Musterbereich bestimmt wird und
- der Musterbereich als der Bildmessbereich übernommen wird.
Dadurch wird der Vorteil erreicht, dass auch Bildmessbereiche mit komplizierten Formen oder Konturen einfach durch einen Nutzer definierbar oder festlegbar sind. Der Musterbe reich kann als der Bildmessbereich automatisch oder erst nach Nutzerbestätigung über nommen werden. Diese Ausgestaltung kommt ohne aufwändige Al-Algorithmen aus, son dern kann z.B. aus dem Bereich der Bildverarbeitung bekannte, vergleichsweise einfach umsetzbare Verfahren zur Mustererkennung nutzen. Beispielweise kann ein Nutzer in dem aufgenommenen Bild ein ihm erkennbares Objekt (z.B. ein Hühnchen) durch Antip pen des zugehörigen berührungsempfindlichen Bildschirms auswählen, woraufhin mittels der Mustererkennung die Kontur des Hühnchens in dem Bild bestimmt wird. Der Nutzer kann dann diese Kontur bestätigen oder ablehnen. Mit Bestätigung wird der durch die Kontur definierte Musterbereich als der Bildmessbereich übernommen. Ein nutzerseitig ausgewählter Bildbereich kann eine Bildposition eines Bildpunkts sein, die z.B. aus einem Berührbereich eines Fingers berechnet wird, oder kann ein mehrere Bild punkte umfassender Bereich sein.
Es ist auch möglich, dass anhand des Bild zunächst automatisch eine Mustererkennung durchgeführt wird, die ein oder mehrere in dem Bild angezeigte Musterbereiche ergeben kann. Der Nutzer kann nun durch Antippen oder Bestimmen auf andere Art den ge wünschten Musterbereich auswählen, der dann als der Bildmessbereich übernommen werden kann.
Es ist eine Weiterbildung, dass der Nutzer die Art der Definition des Bildmessbereich auswählen kann, also z.B. zwischen einer Definition anhand eines Cursors / Cursorbe reichs und einer Bildmustererkennung umschalten kann. Ist der Nutzer beispielsweise mit dem Ergebnis der Bildmustererkennung unzufrieden, kann er auf eine Definition anhand eines Cursors / Cursorbereichs umschalten, oder umgekehrt.
Es ist eine Ausgestaltung, dass die automatische Mustererkennung einen Musterabgleich mit einer Musterdatenbank umfasst, in welcher zu vorgegebenem Gargut gehörige Bild muster abgelegt sind. Dies erleichtert eine automatische Bestimmung eines sinnvollen Musterbereichs, der mit einem bestimmten Gargut übereinstimmt, weiter. Beispielsweise können in der Musterdatenbank mehrere zu einem Hühnchen zugehörige Referenzmuster abgespeichert sein und der Musterbereich in dem aktuell aufgenommenen Bild anhand oder mit Hilfe dieser Referenzmuster festgelegt werden.
Es ist eine Ausgestaltung, dass ein nutzerauswählbarer Bildmessbereichs zunächst au tomatisch ausgewählt wird und nach einer Nutzerbestätigung oder einem Fehlen einer Nutzerbestätigung innerhalb einer vorgegebenen Bilddauer (was ebenfalls als Nutzerbe stätigung interpretiert wird) übernommen wird. Dadurch kann eine Nutzerfreundlichkeit gesteigert werden. Erkennt also ein Nutzer, dass der automatisch ausgewählte Bildmess bereich passend ist, kann der Nutzer diesen einfach bestätigen, für eine vorgegebene Zeitdauer gar keine Handlung ausführen oder einfach zum nächsten Handlungsschritt (z.B. einer Eingabe eines Bräunungsgrads) übergehen. Die automatische Auswahl des Bildmessbereichs kann auf die Nutzung von komplexen Al-Algorithmen verzichten und z.B. die Bildmitte oder einen die Bildmitte umgebenden Bereich darstellen. Gefällt dem Nutzer die automatische Auswahl nicht, kann er den Bildmessbereich wie oben beschrie ben ändern, z.B. in Bezug auf dessen Position, Form und/oder Größe.
Es ist eine Ausgestaltung, dass der Bildmessbereich während des Garvorgangs automa tisch nachgeführt wird. So wird der Vorteil erreicht, dass auch bei einer Änderung einer Position des Garguts und/oder dessen Form der Bildmessbereich dem nutzerausgewähl- ten Bildmessbereich zumindest weitgehend entspricht. Das Ändern der Position des Gar guts kann z.B. durch ein Umrühren oder Drehen des Garguts durch den Nutzer verursacht sein. Die Änderung der Form kann beispielsweise ein Aufgehen von Teig umfassen.
Insbesondere kann ein Verfahrensablauf folgendermaßen durchgeführt werden:
- ein Nutzer beschickt den Garraum z.B. eines Ofens mit Gargut;
- mittels des Ofens wird automatisch ein Bild des Garraums aufgenommen, welches das Gargut zeigt;
- Der Ofen sendet das Bild auf einen vorzugsweise berührungsempfindlichen Ofen bildschirm und/oder auf einen vorzugsweise berührungsempfindlichen Bildschirm eines Nutzerendgeräts;
- der Nutzer definiert den Bildmessbereich durch Antippen o.ä. eines Bildbereichs; worauf dann aus der Position des Fingers ein vorgegebener (z.B. quadratischer oder kreisrunder) Bildmessbereich dem Bild überlagert wird. Der Bildmessbereich kann z.B. um eine beim Antippen o.ä. definierte Bildpunktposition zentriert sein. Al ternativ kann durch das Antippen automatisch ein Bildmusterbereich erzeugt wer den, welcher die Position des Fingers auf dem Bild umfasst. Alternativ kann ein automatisch generierter Bildmessbereich einem Nutzer angeboten werden, z.B. ein quadratischer oder kreisrunder Bildmessbereich z.B. in der Mitte des Bilds, der durch den Nutzer lediglich bestätigt zu werden braucht;
- nach Definition oder Festlegung des Bildmessbereichs kann auf grundsätzlich be kannte Weise beruhend auf dem Inhalt des Bildmessbereichs automatisch eine Bräunungsskala berechnet und angezeigt werden, und der Nutzer kann anhand der Bräunungsskala den gewünschten Bräunungsgrad einstellen;
- folgend wird der Garvorgang durchgeführt, bis der gewünschte Bräunungsgrad er reicht ist, was auf grundsätzlich bekannte Weise erfolgen kann. Falls der Nutzer während des Garvorgangs das Gargut bewegt oder sich das Gargut selbst bewegt (z.B. Teig aufgeht), kann in einer Weiterbildung mittels eines Algorithmus der Bewegung gefolgt werden und der Bildmessbereich entsprechend nachgeführt wer den. Der Nutzer braucht dadurch keinen neuen Bildmessbereich auszusuchen.
Die Aufgabe wird auch gelöst durch eine Vorrichtung, die zum Durchführen des Verfah rens wie oben beschrieben eingerichtet ist, aufweisend:
- ein Haushalts-Gargerät mit einem Garraum,
- mindestens eine in den Garraum gerichtete Kamera,
- mindestens einen Bildschirm, auf welchem von der mindestens einen Kamera auf genommene Aufnahmen abbildbar sind,
- mindestens eine Bedienerschnittstelle, die zum Definieren des nutzerauswählba- ren Bildmessbereichs in dem dargestellten Bild und zum Festlegen des Ziel- Bräunungsgrads eingerichtet ist, und
- eine Datenverarbeitungseinrichtung, die zum Durchführen des Garvorgangs unter Berücksichtigung des Ziel-Bräunungsgrads eingerichtet ist.
Die Vorrichtung kann analog zu dem Verfahren ausgebildet werden und weist die gleichen Vorteile auf.
Das Haushalts-Gargerät kann beispielsweise ein Ofen, insbesondere Backofen, Mikrowel lengerät, Dampfbehandlungsgerät oder eine beliebige Kombination davon sein, z.B. ein Ofen mit einer Mikrowellen- und/oder einer Dampfbehandlungsfunktionalität.
Die Kamera kann in das Haushalts-Gargeräts integriert sein, insbesondere durch eine Garraumwandung in den Garraum gerichtet sein. Die Kamera kann alternativ oder zusätz lich außerhalb des Garraums angeordnet sein, z.B. von außen durch ein Sichtfenster ei ner den Garraum verschließenden Tür in den Garraum gerichtet sein. Die Kamera kann speziell in diesem Fall eine abnehmbare Kamera sein.
Der Bildschirm kann ein berührungsempfindlicher Bildschirm sein, was eine besonders einfache Bedienung ermöglicht. Die Bedienerschnittstelle ist dann insbesondere in den Bildschirm integriert bzw. der Bildschirm dient auch als Bedienerschnittstelle. io
Der Bildschirm kann aber auch ein nicht berührungsempfindlicher Bildschirm sein, dessen Bildmessbereich über eine gesonderte Bedienerschnittstelle einstellbar ist. Die Bediener schnittstelle kann dazu beispielsweise Bedienfelder (z.B. Sensortasten) aufweisen, z.B. ein Cursortasten-Kreuz, einen Joystick usw. Beispielsweise kann können der nicht berüh rungsempfindliche Bildschirm und die Bedienerschnittstelle unterschiedliche Bereiche an einer Bedienblende des Haushaltsgeräts einnehmen.
Die Bedienerschnittstelle und der Bildschirm können gemeinsam auch als Nutzerschnitt stelle bezeichnet werden.
Das Bild kann auf einem Bildschirm oder gleichzeitig auf mehreren Bildschirmen ange zeigt werden.
Die Kamera und der Bildschirm sind in einer Weiterbildung farbunterstützt, d.h., eine Farbkamera und ein Farbbildschirm, was eine Bestimmung des Bildmessbereichs und eine Festlegung eines Bräunungsgrads besonders einfach gestaltet.
Es ist eine Ausgestaltung, dass die Vorrichtung das Haushalts-Gargerät ist. Dies ergibt den Vorteil, dass das Haushalts-Gargerät das Verfahren autonom durchführen kann und dazu z.B. keine Anbindung an ein Netzwerk benötigt, sie aber aufweisen kann. In dieser Ausgestaltung weist das Haushalts-Gargerät einen Bildschirm und eine Bedienerschnitt stelle (ggf. integriert in einen berührungsempfindlichen Bildschirm) zur Durchführung des Verfahrens auf, die Teile einer Bedienblende darstellen können. Die Datenverarbeitungs einrichtung kann einer Steuereinrichtung des Gargeräts entsprechen bzw. kann eine zent rale Steuereinrichtung des Gargeräts auch dazu eingerichtet sein, das Verfahren durchzu führen.
Es ist eine Weiterbildung, dass die Vorrichtung ein System ist, welches das Haushalts- Gargerät als eine Systemkomponente umfasst. Es ist eine Ausgestaltung davon, dass der Bildschirm und die Bedienerschnittstelle Komponenten eines Nutzerendgeräts (z.B. eines Smartphones, Tablet-PCs, Desktop-PCs, Notebooks, usw.) sind und das Haushalts- Gargerät eine Kommunikationsschnittstelle zur Übertragung von das Verfahren betreffen den Daten mit dem Nutzerendgerät aufweist. Dies ergibt den Vorteil, dass der Bildmess bereich und der Ziel-Bräunungsgrad besonders nutzfreundlich an einem Nutzerendgerät definierbar bzw. festlegbar sind. Zur Durchführung des Verfahrens kann auf dem Nutzer endgerät ein entsprechendes Anwendungsprogramm ("App") installiert sein. Das Haus- halts-Gargerät kann ebenfalls einen Bildschirm und die Bedienerschnittstelle aufweisen oder darauf verzichten.
Es ist eine Ausgestaltung, dass die Musterdatenbank in einem netzwerkgestützten Daten speicher gespeichert ist, z.B. in der sog. "Cloud". Dadurch lässt sich Speicherplatz in dem Haushalts-Gargerät einsparen.
Es ist eine Ausgestaltung, dass die Vorrichtung eine netzwerkgestützte Bildverarbei tungseinrichtung zumindest zum Definieren des nutzerauswählbaren Bildmessbereichs in dem dargestellten Bild mittels automatischer Mustererkennung umfasst. Jedoch kann die automatische Mustererkennung auch mittels des Nutzerendgeräts und/oder des Haus- halts-Gargeräts durchgeführt werden.
Falls das Haushalts-Gargerät eine Kommunikationsschnittstelle zur Übertragung von das Verfahren betreffenden Daten aufweist, ist es grundsätzlich möglich auch, das Verfahren wahlweise autonom durch das Haushalts-Gargerät durchzuführen oder zumindest Teile davon auf einer rechnergestützten Instanz auszuführen. Dies kann z.B. davon abhängen, ob ein Nutzer die Definition des nutzerauswählbaren Bildmessbereichs an einem Nutzer endgerät ausführen möchte oder nicht. Auch ist der Fall umfasst, dass die Definition des nutzerauswählbaren Bildmessbereichs anhand des Bildschirms des Haushalts-Gargeräts vorgenommen wird (z.B. zum nutzerseitigen Überprüfen, Ändern und/oder Bestätigen eines durch automatische Mustererkennung berechneten Bildmessbereichs), aber eine Rechenleistung zur automatischen Mustererkennung als solcher mittels einer netzwerk gestützten Bildverarbeitungseinrichtung (z.B. einem Netzwerkserver oder einem Cloud- Rechner) durchgeführt wird, ggf. unter Zuhilfenahme einer netzwerkgestützten Musterda tenbank.
Die oben beschriebenen Eigenschaften, Merkmale und Vorteile dieser Erfindung sowie die Art und Weise, wie diese erreicht werden, werden klarer und deutlicher verständlich im Zusammenhang mit der folgenden schematischen Beschreibung eines Ausführungsbei spiels, das im Zusammenhang mit den Zeichnungen näher erläutert wird. Fig.1 zeigt einen möglichen Verfahrensablauf zum Betreiben eines Haushalts- Gargeräts einschließlich eines Einstellens eines Ziel-Bräunungsgrads;
Fig.2 zeigt in einen Garraum des Haushalts-Gargeräts eingebrachtes Gargut;
Fig.3 zeigt ein mittels des Haushalts-Gargeräts aufgenommenes Bild des Garguts auf einem berührungsempfindlichen Bildschirm;
Fig.4 zeigt einen ersten Teilschritt zur nutzerseitigen Auswahl eines Bildmessbe reichs ;
Fig.5 zeigt einen zweiten Teilschritt zur nutzerseitigen Auswahl des Bildmessbe reichs; und
Fig.6 zeigt einen alternativen zweiten Teilschritt zur nutzerseitigen Auswahl des Bildmessbereichs;
Fig.7 zeigt als Schnittdarstellung in Seitenansicht eine Skizze einer Vorrichtung zur Durchführung des Verfahrens.
Fig.1 zeigt einen möglichen Verfahrensablauf zum Betreiben eines Haushalts-Gargeräts in Form beispielsweise eines Backofens 1 (siehe Fig.7) einschließlich eines Einstellens eines Ziel-Bräunungsgrads.
In einem Schritt S1 beschickt ein Nutzer den Garraum 2 des Backofens 1 mit Gargut G. Das Gargut G kann z.B., wie skizzenhaft in Fig.2 dargestellt, ein auf einem farbigen Backblech B aufliegendes Hühnchen H sowie daran herum angeordnete Kartoffelschei ben K oder Pommes Frites umfassen. Hieran einen zur hohen Nutzerzufriedenheit geeig neten Bildmessbereich zu bestimmen, ist vollautomatisch nur unzuverlässig möglich, und zwar selbst dann nicht, wenn komplexe Al-Algorithmen verwendet werden.
In einem Schritt S2 wird mittels einer Kamera 5 (siehe Fig.7) des Backofens 1 ein Bild P des Garraums 2 aufgenommen, welches hier das Backblech B, das Gargut G sowie deren Umgebung zeigt. Ein solches Bild P ist skizzenhaft in Fig.3 gezeigt.
Das Bild P wird in einem Schritt S3 zu einem berührungsempfindlichen Bildschirm S, z.B. einem Bildschirm 7 des Backofens 1 und/oder einem Bildschirm 9 eines Nutzerendgeräts wie eines Smartphones SP (siehe Fig.7), gesandt und dort dargestellt, wie in Fig.4 skiz zenhaft gezeigt. Wie ebenfalls in Fig.4 gezeigt, kann in einem Schritt S4 ein Nutzer N, z.B. mit seinem Fin ger, einem Stift usw. einen Bereich des Bildschirms S, auf dem das Bild P dargestellt wird, antippen, hier: einen Bildbereich, der zu dem Hühnchen H gehört.
Nun wird in einem Schritt S5 zu dem angetippten Bildbereich automatisch ein Bildmuster bereich erzeugt, der in Fig.5 gestrichelt als Kontur C des Hühnchens H dargestellt ist. Entspricht der Bildmusterbereich dem von dem Nutzer N gewünschten Bildmessbereich, kann der Nutzer N den Bildmusterbereich als den Bildmessbereich bestätigen, z.B. durch Antippen einer bejahenden Checkbox (obere Checkbox in Fig.5), oder, falls nicht, verwer fen, z.B. durch Antippen einer verneinenden Checkbox (untere Checkbox in Fig.5). Der Bildmessbereich entspricht dann also dem bestätigten Bildmusterbereich C. Alternativ kann der Nutzer N den Bildmessbereich auf die Kartoffelscheiben K legen.
Der Bildmusterbereich C kann allein aus der in dem Bild P enthaltenen Bildinformation berechnet werden. In einer Variante kann zusätzlich ein Abgleich mit in einer Musterda tenbank DB (siehe Fig.7) gespeicherten Bildmustern vorgenommen werden, die bestimm ten Gargütern G zugeordnet sind. Dadurch kann das in dem Bild P bestimmt mindestens eine Bildmuster noch besser an die Form bekannter Gargüter angenähert werden. So können in der Musterdatenbank DB die Bildmuster von Hühnchen H abgespeichert sein, z.B. variiert nach Blickwinkel, Partie (z.B. ganzes Hühnchen, halbes Hühnchen, Keule usw.) usw.
In einem Schritt S6 wird für den ausgewählten oder definierten Bildmessbereich automa tisch eine Bräunungsskala (o. Abb.) erzeugt und auf dem Bildschirm S angezeigt. Anhand der Bräunungsskala kann der Nutzer N einen gewünschten Ziel-Bräunungsgrad (hier: des Hühnchens H) eingeben oder auswählen. Alternativ kann der Nutzer N den gewünschten Bräunungsgrad der Kartoffelscheiben K festlegen.
In einem folgenden Schritt S7 wird mittels der Steuereinrichtung 6 des Backofens 1 ein Garvorgang durchgeführt, bis der Ziel-Bräunungsgrad erreicht ist, und zwar beruhend auf einem Vergleich eines mittels des Bildmessbereichs berechneten aktuellen Ist- Bräunungsgrads mit dem Ziel-Bräunungsgrad. In einem alternativen Schritt S5, der anstelle des oben beschriebenen Schritts S5 durch führbar ist, wird auf dem Bildschirm S ein vorgegebener Bildbereich ("Cursor" CUR) dem Bild P überlagert. Der Cursor CUR kann von dem Nutzer N z.B. durch Antippen oder eine Drag-n-Drop-Bewegung mittels eines Fingers, Stifts usw. an eine Stelle des Bilds B be wegt, an welcher der Nutzer N den Bräunungsgrad ausgewertet wissen möchte. Der Cur sor CUR kann, wie in Fig.6 gezeigt, die Form und Größe des Bildmessbereichs wiederge ben, wobei durch den Nutzer N dann nur noch die Position des Cursor CUR festlegen zu werden braucht. Der Bildmessbereich entspricht also hier dem durch den Cursor CUR bestimmten Bildbereich. In einer Variante kann der Nutzer N die Größe und/oder Form des Cursors CUR und damit auch des Bildmessbereichs anpassen.
In einerweiteren Variante kann der Cursor CUR an seiner Anfangsposition (z.B. der Bild mitte) auf dem Bild P durch einen Nutzer bestätigt werden, ohne dass der Cursor CUR bewegt zu werden bräuchte.
Die Bestätigung kann auch dadurch erfolgen, dass der Nutzer für einen vorgegebenen Zeitraum den Bildmessbereich C, CUR nicht ändert.
Falls der Nutzer N während des Garvorgangs das Gargut G bewegt, kann mittels eines Bildauswertungsalgorithmus der Bewegung gefolgt werden und der Bildmessbereich C, CUR entsprechend nachgeführt oder an die Bewegung angepasst werden. Der Nutzer N braucht dadurch keinen neuen Bildmessbereich C, CUR auszusuchen.
Fig.7 zeigt als Schnittdarstellung in Seitenansicht eine Skizze einer Vorrichtung 1, SP, DB zur Durchführung des Verfahrens. Die Vorrichtung umfasst einen Backofen 1, ein Nutzer endgerät in Form eines Smartphones SP und optional eine Musterdatenbank DB.
Der Backofen 1 weist einen Garraum 2 auf, dessen frontseitige Beschickungsöffnung 3 mittels einer Tür 4 verschließbar ist. Durch die Beschickungsöffnung 3 kann der Garraum 2 mit dem in dem Backblech B vorhandenen Gargut G beschickt werden. Im Bereich einer Decke des Garraums 2 befindet sich eine Kamera 5, die von oben oder schräg oben in den Garraum 2 gerichtet ist. Optional kann sich die Kamera 5 an anderer Stelle befinden. Es können auch mehrere Kameras 5 vorhanden sein. Die Kamera 5 ist - ggf. über eine Steuereinrichtung 6 - mit einem berührungsempfindlichen Bildschirm 7 verbunden. Von der Kamera 5 aufgenommene Bilder P können zu diesem Bildschirm 7 gesendet werden, woraufhin der Nutzer N wie oben beschrieben den Bildmessbereich C, CUR definieren kann als auch einen Ziel-Bräunungsgrad einstellen kann. Beruhend aus dem ausgewähl ten Bildmessbereich C, CUR und dem Ziel-Bräunungsgrad kann die Steuereinrichtung 6 einen Garvorgang steuern (z.B. nicht gezeigte Heizelemente aktivieren), z.B. bis der Ziel- Bräunungsgrad erreicht ist. In einer Variante kann das Verfahren autonom an dem Back ofen 1 durchgeführt werden.
In einer alternativen oder zusätzlichen zweiten Variante kann der Backofen 1 über ein Kommunikationsmodul 8, z.B. ein Bluetooth- und/oder WLAN-Modul, drahtlos mit dem Smartphone SP verbunden sein. Das Smartphone weist ebenfalls einen berührungsemp findlichen Bildschirm 9 auf, über den die obigen Verfahrensschritte S3 bis S6 ablaufen können, und zwar anstelle oder zusätzlich zu dem Bildschirm 7 des Backofens 1.
Der Backofen 1 und/oder das Smartphone 2 können über ein Netzwerk NW, z.B. das In ternet, mit einer Musterdatenbank DB verbunden sein.
Selbstverständlich ist die vorliegende Erfindung nicht auf das gezeigte Ausführungsbei spiel beschränkt.
So können allgemein auch zwei oder noch mehr Bildmessbereiche durch einen Nutzer definiert werden und diesen Bildmessbereiche der gleiche oder unterschiedliche Bräu nungs-Zielwerte zugeordnet werden. Der folgende Garvorgang kann dann z.B. beendet werden, wenn die Ist-Bräunungsgrade ein oder mehrerer der Bildmessbereiche den zu gehörigen Ziel-Bräunungsgrad erreichen.
Allgemein kann unter "ein", "eine" usw. eine Einzahl oder eine Mehrzahl verstanden wer den, insbesondere im Sinne von "mindestens ein" oder "ein oder mehrere" usw., solange dies nicht explizit ausgeschlossen ist, z.B. durch den Ausdruck "genau ein" usw. Bezugszeichenliste
1 Backofen
2 Garraum
3 Beschickungsöffnung
4 Tür
5 Kamera
6 Steuereinrichtung
7 Berührungsempfindlicher Bildschirm des Backofens
8 Kommunikationsmodul
9 Berührungsempfindlicher Bildschirm des Smartphones
B Backblech
C Kontur
CUR Cursor
DB Musterdatenbank
G Gargut
H Hühnchen
K Kartoffelscheibe
N Nutzer
NW Netzwerk
P Bild des Garraums
S Berührungsempfindlicher Bildschirm
S1-S7 Verfahrensschritte SP Smartphone

Claims

PATENTANSPRÜCHE
1. Verfahren (S1-S6) zum Einstellen eines Ziel-Bräunungsgrads von Gargut (G), aufweisend die folgenden Schritte:
Aufnehmen (S2) eines Bilds (P) aus einem mit dem Gargut (G) beschickten Garraum eines Haushalts-Gargeräts (1);
Darstellen (S3) des Bilds (P) auf einem Bildschirm (S);
Definieren (S4, S5) eines nutzerauswählbaren Bildmessbereichs (C; CUR) in dem dargestellten Bild (P); und
Festlegen (S6) eines Ziel-Bräunungsgrads für den ausgewählten Bildmessbe reich (C; CUR).
2. Verfahren (S1-S6) nach Anspruch 1, bei dem der Schritt des Definierens (S4, S5) des Bildmessbereichs (C; CUR) ein über den Bildschirm (S) nutzergeführtes Posi tionieren des Bildmessbereichs (CUR) umfasst.
3. Verfahren (S1-S6) nach Anspruch 2, bei dem das nutzergeführte Definieren des Bildmessbereichs (C; CUR) ein über den Bildschirm (S) touchgeführtes und/oder bedienfeldgeführtes Positionieren des Bildmessbereichs (CUR) umfasst.
4. Verfahren (S1-S6) nach einem der vorhergehenden Ansprüche, bei dem zum De finieren des Bildmessbereichs (C; CUR) zu einem nutzerseitig ausgewählten Bildbereich automatisch ein diesen Bild bereich umfassender Musterbereich bestimmt wird und der Musterbereich als der Bildmessbereich (C) übernommen wird.
5. Verfahren (S1-S6) nach Anspruch 4, bei dem die automatische Mustererkennung einen Musterabgleich mit einer Musterdatenbank (DB) umfasst, in welcher zu vor gegebenem Gargut (G) gehörige Bildmuster abgelegt sind.
6. Verfahren (S1-S6) nach einem der vorhergehenden Ansprüche, bei dem der Bild messbereich (CUR) nutzerseitig variierbar ist.
7. Verfahren (S1-S6) nach einem der vorhergehenden Ansprüche, bei dem ein nutze- rauswählbarer Bildmessbereich (C; CUR) zunächst automatisch ausgewählt wird und nach einer Nutzerbestätigung oder einem Ausbleiben einer Nutzerbestätigung innerhalb einer vorgegebenen Zeitdauer übernommen wird.
8. Verfahren (S1-S7) nach einem der vorhergehenden Ansprüche, bei dem der Bild messbereich (C; CUR) während eines folgenden Garablaufs (S7) automatisch nachgeführt wird.
9. Verfahren (S1-S6) nach einem der vorhergehenden Ansprüche, bei dem der Ziel- Bräunungsgrad nutzerseitig eingestellt wird (S6).
10. Vorrichtung (1, SP, DB), eingerichtet zum Durchführen des Verfahrens (S1-S7) nach einem der vorhergehenden Ansprüche, aufweisend: ein Haushalts-Gargerät (1) mit einem Garraum (2), mindestens eine in den Garraum (2) gerichtete Kamera (5), mindestens einen Bildschirm (S, 7, 9), auf welchem von der mindestens einen
Kamera (5) aufgenommene Bilder (P) abbildbar sind, mindestens eine Bedienerschnittstelle (7, 9) zum Definieren des nutzeraus- wählbaren Bildmessbereichs (C, CUR) in dem dargestellten Bild (P) und zum
Festlegen des Ziel-Bräunungsgrads, eine Datenverarbeitungseinrichtung (6) zum Durchführen des Garvorgangs unter Berücksichtigung des Ziel-Bräunungsgrads.
11. Vorrichtung (1) nach Anspruch 10, wobei die Vorrichtung (1) das Haushalts- Gargerät ist.
12. Vorrichtung (1, nach einem der Ansprüche 10 bis 11, wobei der Bildschirm (S, 9) und die Bedienerschnittstelle (S, 9) Komponenten eines Nutzerendgeräts (SP) sind und das Haushaltsgerät (1) eine Kommunikationsschnittstelle (8) zur Übertra gung von das Verfahren (S2-S6) betreffenden Daten mit dem Nutzerendgerät (SP) aufweist.
13. Vorrichtung (1, SP, DB) nach einem der Ansprüche 10 bis 12, wobei die Musterda tenbank (DB) in einem netzwerkgestützten Datenspeicher gespeichert ist.
14. Vorrichtung (1, SP, DB) nach einem der Ansprüche 10 bis 13, wobei die Vorrich- tung eine netzwerkgestützte Bildverarbeitungseinrichtung zum Definieren des nut- zerauswählbaren Bildmessbereichs (C, CUR) in dem dargestellten Bild (P) mittels automatischer Mustererkennung umfasst.
PCT/EP2021/054664 2020-03-12 2021-02-25 Einstellen eines ziel-bräunungsgrads an einem haushalts-gargerät WO2021180477A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202180020109.XA CN115190956A (zh) 2020-03-12 2021-02-25 在家用烹饪器具上设定目标褐变程度
EP21706632.3A EP4118382A1 (de) 2020-03-12 2021-02-25 Einstellen eines ziel-bräunungsgrads an einem haushalts-gargerät
US17/800,906 US20230075347A1 (en) 2020-03-12 2021-02-25 Setting desired browning on a domestic cooking appliance

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP20290028.8 2020-03-12
EP20290028 2020-03-12

Publications (1)

Publication Number Publication Date
WO2021180477A1 true WO2021180477A1 (de) 2021-09-16

Family

ID=70482521

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2021/054664 WO2021180477A1 (de) 2020-03-12 2021-02-25 Einstellen eines ziel-bräunungsgrads an einem haushalts-gargerät

Country Status (4)

Country Link
US (1) US20230075347A1 (de)
EP (1) EP4118382A1 (de)
CN (1) CN115190956A (de)
WO (1) WO2021180477A1 (de)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009026895A2 (de) 2007-08-27 2009-03-05 Rational Ag Verfahren zur einstellung eines garprogramms über visualisierte gargutparameter und gargerät hierfür
US20130092145A1 (en) 2011-10-17 2013-04-18 Illinois Tool Works, Inc. Browning control for an oven
DE102016215550A1 (de) 2016-08-18 2018-02-22 BSH Hausgeräte GmbH Feststellen eines Bräunungsgrads von Gargut
DE102017101183A1 (de) * 2017-01-23 2018-07-26 Miele & Cie. Kg Verfahren zum Betreiben eines Gargerätes und Gargerät
US20190110638A1 (en) * 2017-10-16 2019-04-18 Midea Group Co., Ltd Machine learning control of cooking appliances
EP3477206A1 (de) 2017-10-27 2019-05-01 Whirlpool Corporation Kochgerät mit einer benutzerschnittstelle
EP3608593A1 (de) * 2018-08-10 2020-02-12 Electrolux Appliances Aktiebolag Kochsystem

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2880411A1 (fr) * 2005-01-03 2006-07-07 Bernard Loubieres Combine electromenager tv-micro-onde (four)
DE102014110559A1 (de) * 2014-07-25 2016-01-28 Rational Aktiengesellschaft Verfahren zur Steuerung eines Gargeräts

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009026895A2 (de) 2007-08-27 2009-03-05 Rational Ag Verfahren zur einstellung eines garprogramms über visualisierte gargutparameter und gargerät hierfür
US20130092145A1 (en) 2011-10-17 2013-04-18 Illinois Tool Works, Inc. Browning control for an oven
DE102016215550A1 (de) 2016-08-18 2018-02-22 BSH Hausgeräte GmbH Feststellen eines Bräunungsgrads von Gargut
DE102017101183A1 (de) * 2017-01-23 2018-07-26 Miele & Cie. Kg Verfahren zum Betreiben eines Gargerätes und Gargerät
US20190110638A1 (en) * 2017-10-16 2019-04-18 Midea Group Co., Ltd Machine learning control of cooking appliances
EP3477206A1 (de) 2017-10-27 2019-05-01 Whirlpool Corporation Kochgerät mit einer benutzerschnittstelle
EP3608593A1 (de) * 2018-08-10 2020-02-12 Electrolux Appliances Aktiebolag Kochsystem

Also Published As

Publication number Publication date
CN115190956A (zh) 2022-10-14
EP4118382A1 (de) 2023-01-18
US20230075347A1 (en) 2023-03-09

Similar Documents

Publication Publication Date Title
DE102007040651B4 (de) Verfahren zur Einstellung eines Garprogramms über visualisierte Gargutparameter und Gargerät hierfür
EP2391851B1 (de) Verfahren zur auswahl und anordnung von programm-repräsentanten und gargerät hierfür
DE102011102394B4 (de) Vorrichtung und Verfahren zur Bedienung eines Kochfeldes
WO2020120335A1 (de) Verfahren zum betreiben eines haushalts-gargeräts und haushalts-gargerät
EP2910856A1 (de) Verfahren zum Betreiben eines Gargeräts und Gargerät
EP3877703A1 (de) Verfahren zum betreiben eines haushalts-gargeräts und haushalts-gargerät
EP3394515A1 (de) System zur zubereitung von mindestens einem nahrungsmittel sowie verfahren zum betreiben des betreffenden systems
DE102008032451A1 (de) Anzeigeverfahren und Gargerät hierfür
DE102008032449A1 (de) Anzeigeverfahren und Gargerät hierfür
EP4118382A1 (de) Einstellen eines ziel-bräunungsgrads an einem haushalts-gargerät
DE102010016473B4 (de) Verfahren zum Anleiten, Anweisen und/oder Anlernen von Benutzern eines Gargeräts und Gargerät zur Durchführung solch eines Verfahrens
WO2022148593A1 (de) Verfahren zum bestimmen eines garzeiteindes von gargut sowie haushaltsgargerät
EP3864346A1 (de) Verfahren zum zubereiten von gargut, gargerät und gargeräte-system
DE102008032452A1 (de) Anzeigeverfahren und Gargerät hierfür
EP3762654A1 (de) Interaktionsmodul
WO2024068363A1 (de) Bestimmen eines gargrads von gargut
BE1030426B1 (de) Verfahren zum Garen eines Garguts in einem Gargerät mit einer Kameraeinrichtung
DE102008032447B4 (de) Anzeigeverfahren für ein Gargerät
WO2024104809A1 (de) Bestimmen einer vorhersagequalität einer restdauer eines betriebsablaufs
BE1030431B1 (de) Verfahren zum Garen eines Garguts in einem Gargerät mit einer Kameraeinrichtung
WO2021083738A1 (de) Bestimmen eines ziel-verarbeitungszustands eines zu behandelnden garguts
DE102019206239A1 (de) Verfahren zum Betreiben eines Kochfeldes und Kochvorrichtung mit Kochfeld
WO2023187058A1 (de) Garsystem, gargerät und verfahren zum betrieb eines garsystems
WO2022002589A1 (de) Lebensmittelzubereitungsvorrichtung und verfahren zur lebensmittelzubereitung
DE102023106671A1 (de) Verfahren zum Garen eines Garguts in einem Gargerät mit einer Kameraeinrichtung

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21706632

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021706632

Country of ref document: EP

Effective date: 20221012