DE102021203583A1 - Mobiles, selbstfahrendes Gerät - Google Patents

Mobiles, selbstfahrendes Gerät Download PDF

Info

Publication number
DE102021203583A1
DE102021203583A1 DE102021203583.3A DE102021203583A DE102021203583A1 DE 102021203583 A1 DE102021203583 A1 DE 102021203583A1 DE 102021203583 A DE102021203583 A DE 102021203583A DE 102021203583 A1 DE102021203583 A1 DE 102021203583A1
Authority
DE
Germany
Prior art keywords
mobile
self
user
detection device
propelled
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021203583.3A
Other languages
English (en)
Inventor
Markus Moelter
Frank Schnitzer
Kristina Daniel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BSH Hausgeraete GmbH
Original Assignee
BSH Hausgeraete GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BSH Hausgeraete GmbH filed Critical BSH Hausgeraete GmbH
Priority to DE102021203583.3A priority Critical patent/DE102021203583A1/de
Publication of DE102021203583A1 publication Critical patent/DE102021203583A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • A47L11/4002Installations of electric equipment
    • A47L11/4008Arrangements of switches, indicators or the like
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/06Control of the cleaning action for autonomous devices; Automatic detection of the surface condition before, during or after cleaning

Abstract

Es wird ein mobiles, selbstfahrendes Gerät (10), insbesondere Bodenreinigungsgerät zur autonomen Bearbeitung von Bodenflächen wie ein Saug- und/oder Kehr- und/oder Wischroboter, angegeben, das ein Gerätegehäuse (1) und eine Detektionseinrichtung (2), umfasst. Die Detektionseinrichtung (2) ist zumindest teilweise auf dem Gerätegehäuse (1) angeordnet. Die Detektionseinrichtung (2) ist dazu ausgebildet, einen Umgebungsbereich des Geräts zu detektieren, um eine Umgebungskarte der Bodenfläche zu erstellen. Zudem ist die Detektionseinrichtung (2) weiter dazu ausgebildet, Bedienbefehle eines Nutzers auf dem Gerätegehäuse (1) zu detektieren, um eine Bedienung des mobilen, selbstfahrenden Geräts (10) zu veranlassen oder zu beenden. Weiter ist ein Verfahren zur autonomen Bearbeitung von Bodenflächen mit Hilfe eines derartigen mobilen, selbstfahrenden Geräts (10) angegeben.

Description

  • Die Erfindung betrifft ein mobiles, selbstfahrendes Gerät, insbesondere Bodenreinigungsgerät zur autonomen Bearbeitung von Bodenflächen wie einen Saug- und/oder Kehr- und/oder Wischroboter, das ein Gerätegehäuse und eine Detektionseinrichtung umfasst. Zudem betrifft die Erfindung ein Verfahren zur autonomen Bearbeitung von Bodenflächen mit Hilfe eines derartigen mobilen, selbstfahrenden Geräts.
  • Mobile, selbstfahrende Geräte wie beispielsweise Saugroboter haben die Aufgabe, autonom eine Bodenfläche zu reinigen. Häufig besitzen derartige Geräte eine systematische Navigation, womit sich das Gerät in seiner Umgebung lokalisieren und positionieren kann. Dadurch ist dem Gerät bekannt, an welcher Position es sich befindet, welche Bereiche der Umgebung bereits gereinigt und welche noch zu reinigen sind. Hierfür finden Navigationssensoren Verwendung, mithilfe derer die Geräte eine Karte ihrer Umgebung erstellen und so eine autonome und effiziente Reinigung der Bodenfläche ermöglichen. Hierzu verwenden die Geräte Kamerasysteme oder beleuchtungsunabhängige Laser-basierte Sensoren zur Lasernavigation.
  • Eine häufig verwendete Lasernavigation ist die Verwendung eines rotierenden LIDAR-Sensors (light detection and ranging) oder auch Laserturms. Ein großer Vorteil dieses Sensors ist die sich stets drehende Lasereinheit, welche einen 360°-Scan der Umgebung in einer horizontalen Ebene ermöglicht, die knapp über dem Gerät liegt. Dadurch kann das Gerät seine Umgebung scannen und hat stets einen Rundumblick.
  • Insbesondere werden mittels des LIDAR-Sensors Messwerte ermittelt, die für jeden Umgebungswert eine Entfernungsmessung und einen Richtungswinkel beinhalten. Dabei scannen die auf dem Gerät platzierten Sensoren bis zu 360° und nehmen Messwerte der Umgebung bis zu einer Entfernung von mehreren Metern (üblicherweise 5 bis 12 m) auf. Somit decken sie auch den gesamten Bereich der Oberfläche bzw. die Ebene direkt über der gesamten Oberfläche des Geräts ab.
  • Herkömmliche Bodenreinigungsgeräte und somit auch Geräte mit einem LIDAR-Sensor verwenden zudem Bedientasten, um dem Nutzer eine Eingabe von grundlegenden Befehlen an einem User Interface zu ermöglichen. Diese User Interfaces sind für den Nutzer leicht erreichbar am Gerätegehäuse angebracht und liegen meist in einem Bereich, der ebenfalls im Erfassungsbereich des LIDAR-Sensors liegt.
  • Aufgabe vorliegender Erfindung ist es, ein mobiles, selbstfahrendes Gerät bereitzustellen, das eine Detektionseinrichtung umfasst, die weiterhin eine Detektion seiner Umgebung ermöglicht und gleichzeitig Bedienbefehle des Nutzers detektieren kann, also insbesondere eine weitere Funktion, bevorzugt eine Bedienfunktion übernimmt, sodass besonders bevorzugt weitere Bedientasten nicht mehr zwingend notwendig sind.
  • Diese Aufgabe wird durch ein mobiles, selbstfahrendes Gerät mit den Merkmalen des Anspruchs 1 und durch ein Verfahren zum Bearbeiten von Bodenflächen mit den Merkmalen des Anspruchs 8 gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen sind Gegenstand der Unteransprüche.
  • Erfindungsgemäß umfasst ein mobiles, selbstfahrendes Gerät, insbesondere Bodenreinigungsgerät zur autonomen Bearbeitung von Bodenflächen wie ein Saug- und/oder Kehr- und/oder Wischroboter, ein Gerätegehäuse und eine Detektionseinrichtung, wobei die Detektionseinrichtung zumindest teilweise auf dem Gerätegehäuse angeordnet ist. Die Detektionseinrichtung ist dazu ausgebildet, einen Umgebungsbereich des Geräts zu detektiert, um eine Umgebungskarte der Bodenfläche zu erstellen. Weiter ist die Detektionseinrichtung dazu ausgebildet, Bedienbefehle eines Nutzers auf dem Gerätegehäuse zu detektieren, um eine Bedienung des mobilen, selbstfahrenden Geräts zu veranlassen oder zu beenden.
  • Mit Vorteil wird erfindungsgemäß also ein Bedienfinger des Nutzers in den Messungen der vorhandenen Detektionseinrichtung erkannt und als Bedienbefehl interpretiert, womit sich Hardware-Tasten zur Bedienung auf dem Gerät vorteilhafterweise erübrigen. Das Gerät verwendet also seine Detektionseinrichtung für eine Fingererkennung, insbesondere in einem Bereich eines User Interfaces, und somit als Ersatz für Bedientasten am Gerät. Auf diese Weise können Nutzer Daten und Befehle an das Gerät eingeben, ohne dass entsprechende reale Bedientasten vorhanden sein müssen.
  • Sind beispielsweise auf dem Gerätegehäuse Bedienelemente und insbesondere ein User Interface vorgesehen, so werden diese für eine leichte Erreichbarkeit auf einer Oberseite des Gerätegehäuses angeordnet. Damit liegen diese Bedienelemente in einem Bereich, der von der Detektionseinrichtung erfasst werden kann. Bedient ein Nutzer die Bedienelemente des User Interfaces, so durchstoßen dessen Finger Messstrahlen der Detektionseinrichtung und können von dieser erkannt werden. Auf Grundlage dieser Erkenntnis kann durch Druck oder Berührung zu betätigende Bedienelemente als solche verzichtet werden. Erkennt die Detektionseinheit einen Finger im Bereich des vorgegebenen User Interfaces, so kann dies als Intention des Nutzers zur Eingabe eines Befehls interpretiert und die Position des Fingers einem Bedienbefehl zugeordnet werden.
  • Die vorhandene Detektionseinrichtung erfüllt also eine Doppelfunktion, die Umgebungsdetektion und die Bedienbefehle-Detektion beziehungsweise Fingererkennung oder Fingerdetektion. Dadurch sind mit Vorteil keine realen beziehungsweise Hardware-Tasten am User Interface notwendig. Diese eingesparten Tasten reduzieren vorteilhafterweise die Herstellungskosten des mobilen, selbstfahrenden Geräts, die Komplexität des Systems und die Montagezeit. Verschiedene Modelle des mobilen, selbstfahrenden Geräts können dabei mit unterschiedlichen User Interfaces ausgestattet werden, wie beispielsweise verschiedene Anzahl an Bedienbefehlen, verschiedene Bedienbefehl-Funktionen, ohne dabei Änderungen an der Hardware durchführen zu müssen. Zudem können insbesondere während der Entwicklungsphase zusätzliche Funktionen bereitgestellt werden, beispielsweise zusätzliche Bedienbefehle, ohne dass dabei Hardware-seitig etwas zu ändern ist.
  • Unter einem mobilen, selbstfahrenden Gerät ist insbesondere ein Bodenreinigungsgerät, beispielsweise Reinigungs- oder Rasenmähergerät, zu verstehen, welche insbesondere im Haushaltsbereich Bodenflächen oder Rasenflächen autonom bearbeitet. Hierunter zählen unter anderem Saug- und/oder Kehr- und/oder Wischroboter wie beispielsweise Staubsaugerroboter, oder Rasenmäherroboter. Diese Geräte arbeiten im Betrieb (Reinigungsbetrieb oder Rasenmäherbetrieb) bevorzugt ohne oder mit möglichst wenig Benutzereingriff. Beispielsweise verfährt das Gerät selbsttätig in einen vorgegebenen Raum, um entsprechend einer vorgegebenen und einprogrammierten Verfahrensstrategie den Boden ab zu reinigen.
  • Unter einem Gerätegehäuse ist insbesondere das äußere Gehäuse des Geräts zu verstehen, das das Gerät nach außen hin abschließt. Im Inneren des Gerätegehäuses befindet sich also das Innenleben des Geräts. Die Detektionseinrichtung überragt das Gerätegehäuse vorzugsweise in vertikaler beziehungsweise Z-Richtung. Beispielsweise ist die Detektionseinrichtung auf einer Oberseite im hinteren, vorderen oder seitlichen Bereich des Gerätegehäuses angeordnet.
  • Unter einem Bodenbearbeitungsbereich ist jeglicher räumliche Bereich zu verstehen, der zur Bearbeitung, insbesondere Reinigung vorgesehen ist. Das kann beispielsweise ein einzelner (Wohn-)Raum oder eine ganze Wohnung sein. Auch lediglich Bereiche eines (Wohn-) Raums oder einer Wohnung, die zur Reinigung vorgesehen sind, können darunter verstanden werden.
  • Unter einer Detektionseinrichtung ist jegliche Einrichtung zu verstehen, die dazu geeignet ist, Hindernisse bevorzugt zuverlässig zu detektieren. Diese ist vorzugsweise sensorbasiert, laserbasiert und/oder kamerabasiert. Vorzugsweise ist die Detektionseinrichtung ein LIDAR-Sensor und/oder ein Laserturm.
  • Unter Hindernisse sind jegliche Objekte und/oder Gegenstände zu verstehen, die in einem Bodenbearbeitungsbereich angeordnet sind, beispielsweise dort liegen oder stehen, und die Bearbeitung durch das mobile, selbstfahrende Gerät beeinflussen, insbesondere behindern und/oder stören wie beispielsweise Möbel, Wände, Vorhänge, Teppiche und ähnliches.
  • Vorzugsweise findet zur Detektion eine Explorationsfahrt des mobilen, selbstfahrenden Geräts von der zu bearbeitenden Bodenflächen statt. Unter einer Explorationsfahrt ist insbesondere eine Erkundungsfahrt zu verstehen, die dazu geeignet ist, eine zu bearbeitende Bodenfläche nach Hindernissen, Raumaufteilung und ähnliches zu erkunden. Ziel einer Explorationsfahrt ist es insbesondere, Gegebenheiten des zu bearbeitenden Bodenbearbeitungsbereich einschätzen und/oder darstellen zu können.
  • Nach der Explorationsfahrt kennt das mobile, selbstfahrende Gerät seine Umgebung und kann diese in Form einer Umgebungskarte an den Nutzer weitergeben, zum Beispiel in einer App an einem Mobilgerät. Unter einer Umgebungskarte ist insbesondere jegliche Karte zu verstehen, die geeignet ist, die Umgebung des Bodenbearbeitungsbereichs mit all seinen Hindernissen und Gegebenheiten darzustellen. Beispielsweise zeigt die Umgebungskarte den Bodenbearbeitungsbereich mit den darin enthaltenen Hindernissen und Wänden skizzenartig an.
  • Die Umgebungskarte mit den Hindernissen wird vorzugsweise in der App an einem tragbaren Zusatzgerät dargestellt. Dies dient insbesondere der Visualisierung für eine mögliche Interaktion mit dem Nutzer. Unter einem Zusatzgerät ist vorliegend insbesondere jegliches Gerät zu verstehen, das für einen Benutzer tragbar ist, das außerhalb des mobilen, selbstfahrenden Geräts angeordnet, insbesondere differenziert vom mobilen, selbstfahrenden Gerät ist, und zu einer Anzeige, Bereitstellung, Übermittlung und/oder Übertragung von Daten geeignet ist, wie beispielsweise ein Handy, ein Smartphone, ein Tablet und/oder ein Computer beziehungsweise Laptop.
  • Auf dem tragbaren Zusatzgerät ist insbesondere die App, insbesondere eine Reinigungs-App, installiert, die zur Kommunikation des mobilen, selbstfahrenden Geräts mit dem Zusatzgerät dient und insbesondere eine Visualisierung des Bodenbearbeitungsbereichs, also des zu reinigenden Wohnraums oder der zu reinigenden Wohnung beziehungsweise Wohnbereichs, ermöglicht. Die App zeigt dem Nutzer dabei vorzugsweise den zu reinigenden Bereich als Umgebungskarte an.
  • Unter Bedienbefehle sind vorliegend jegliche Befehle des Nutzers zu verstehen, die eine Bedienung des mobilen, selbstfahrenden Geräts veranlassen oder beenden. Hierzu ist gerade nicht das Drücken von Tasten erforderlich. Insbesondere wird der Bedienbefehl von der Detektionseinrichtung detektiert und entsprechend weitergegeben. Beispielsweise können über entsprechende Bedienbefehle grundlegende Befehle wie bestimmte Arbeitsprogramme oder Prozessabläufe des mobilen, selbstfahrenden Geräts angesteuert beziehungsweise beendet werden. Auch ist es möglich, zum Beispiel die Saugleistung über derartige Bedienbefehle zu steuern.
  • Bei einer vorteilhaften Ausführungsform ist durch die Detektionseinheit ein berührungsloses beziehungsweises druckloses, tastenloses Bedienen des mobilen, selbstfahrenden Geräts durch Erfassen der Position eines Fingers des Nutzers im Bereich des User Interfaces gewährleistet. Beispielsweise kann die Detektionseinrichtung in einem Bereich ab etwa 1 cm Entfernung und mit einer Auflösung von 1° Messwerte aufnehmen. Für einen Finger mit einem Durchmesser von etwa 1,5 cm ergeben sich in 5 cm Entfernung bis zu 17 Messstrahlen innerhalb eines Winkelbereiches von 17,06°, die den Finger registrieren. In einer Entfernung von 10 cm ergeben sich dabei beispielsweise 8 Messpunkte innerhalb eines Winkelbereiches von 8,58°. Bei etwa 15 cm Entfernung können noch etwa 5 Messpunkte innerhalb eines Winkelbereiches von 5,72° detektiert werden. Insgesamt sind dabei ausreichend Messwerte vorhanden, um einen Finger mit hoher Sicherheit zu erkennen, Messungenauigkeiten von +/- 1 cm bei weniger als 1 m Entfernung auszugleichen und die Position des Fingers durch Einpassen eines Kreises in die Messwerte vorzunehmen, zum Beispiel per Least-Squares-Fitting, also mittels Methode der kleinsten Abweichungsquadrate, bei dem 3 Messpunkte als Minimum für die Ausführung der Rechnung Voraussetzung sind. Alternativ kann mit wenigen Messwerten die Position des Fingers bestimmt werden, indem die Messpunkte gemittelt werden und die Position des Fingers in Verlängerung des gemittelten Winkels gesetzt wird. Sind nur wenige Messwerte vorhanden, so kann deren Richtigkeit über die Zeit geprüft werden. Nach beispielweise etwa 0,2 Sekunden können weitere Messwerte detektiert werden. Sind diese Messwerte ähnlich zu den vorher ermittelten Daten, kann davon ausgegangen werden, dass es sich tatsächlich um einen Finger und damit um einen gewollten Bedienbefehl handelt.
  • Um eventuell auftretende Ungenauigkeiten bei der Bestimmung der Fingerposition abzufangen, ist es vorteilhaft, die auf dem mobilen, selbstfahrenden Gerät zugeordneten Positionen der vorgesehenen Bedienbefehle am User Interface mit einem vorbestimmten Mindestabstand anzuordnen. Auf diese Weise können Fehlinterpretationen vermieden werden.
  • Bei einer weiteren vorteilhaften Ausführungsform umfasst das mobile, selbstfahrende Gerät auf dem Gerätegehäuse Positionsmarker für die Bedienbefehle des Nutzers. Die Positionsmarker sind auf dem Gerätegehäuse insbesondere drucklose Positionsmarker, die bevorzugt aufgedruckt, geprägt, lackiert und/oder aufgeklebt sind.
  • Als drucklose Positionsmarker sind insbesondere derartige Positionsmarker zu verstehen, die nicht auf Tastendruck beziehungsweise Fingerdruck reagieren, und bei denen insbesondere keine druckauslösenden Aktionen beziehungsweise Prozesse oder Verfahren ausgelöst werden.
  • Auf der Oberseite des Gerätegehäuses sind also Positionsmarker abgebildet, die insbesondere keine Tasten sind und außer der Vorgabe der Position keine weiteren Funktionen erfüllen. Diese Positionsmarker geben also lediglich die Position vor, um dem Nutzer anzuzeigen, wo genau er seinen Finger zum Starten oder Beenden eines gewollten Bedienbefehls positionieren muss. Dies kann durch farbliche Markierungen, Prägungen und/oder Aufkleber realisiert werden. Dabei ergibt sich der Vorteil, dass eine Änderung von Bedienkonzepten wie beispielsweise eine andere Anzahl an virtuellen „Tasten“ und/oder andere Funktionen kaum oder keine Änderungen am mobilen, selbstfahrenden Gerät nach sich ziehen. Beispielsweise werden lediglich neue Aufkleber und eine angepasste Software-Auswertung der Detektionseinrichtung benötigt. Auch können für verschiedene Varianten des mobilen, selbstfahrenden Geräts problemlos verschiedene User Interfaces bereitgestellt werden, zum Beispiel eine Version des Geräts ohne App-Steuerung und damit mit einer größeren Anzahl an virtuellen „Tasten“ oder eine Version des Geräts mit minimalistischem User Interface mit möglichst wenigen virtuellen „Tasten“ bei möglichst vollständiger Steuerung über die App. Zudem können mit Vorteil während der Entwicklung des mobilen, selbstfahrenden Geräts zusätzliche virtuelle „Tasten“ für die Entwickler bereitgestellt werden, die spezielle Testprozeduren starten.
  • Bei einer weiteren vorteilhaften Ausführungsform umfasst das Gerät weiter eine Auswerteinheit, die dazu eingerichtet ist, die Bedienbefehle des Nutzers auf Basis von Winkel und Entfernung von Messstrahlen der Detektionseinheit auszuwerten. Die Detektionseinrichtung gibt also die ermittelten Messwerte an die Auswerteinheit weiter, die diese dann verarbeitet beziehungsweise auswertet. Beispielsweise teilt die Auswerteinheit die erfassten Messwerte ein in Messwerte des Umgebungsbereichs und in Messwerte für einen Bedienbefehl.
  • Weiter ist es mit der Finger-Erkennung durch die Detektionseinrichtung möglich, nicht nur einfache virtuelle „Tasten“ zu bedienen, die immer an der gleichen Position sind. Auch Schieber oder drehbare Einstellräder können auf diese Weise bedient werden, insbesondere durch eine Auswertung über die Zeit und durch ein Tracking des Fingers, also die Verfolgung der Position des Fingers und die damit einhergehende Auswertung der Bewegung des Fingers an den jeweiligen Positionsmarkern.
  • Bei einer weiteren vorteilhaften Ausführungsform ist die Detektionseinheit ein Sensor, insbesondere LIDAR-Sensor, wobei der Umgebungsbereich insbesondere in einer horizontalen Ebene mehr als 300°, insbesondere 360° abdeckt. Insbesondere detektiert die Detektionseinrichtung den Umgebungsbereich in einer Ebene und insbesondere das Gerätegehäuse zumindest in einem für die Bedienbefehle vorgesehenen Bereich überstreichend. Die insbesondere horizontale Ebene liegt vorzugsweise knapp, bevorzugt zwischen 5 mm und 15 mm, über dem Gerätegehäuse. Der LIDAR-Sensor wird also derart auf dem Gerätegehäuse angeordnet, dass der LIDAR-Sensor die horizontale Ebene, also die X-Y-Ebene, knapp über dem Gerätegehäuse abscannt. Positionsmarker, die auf dem Gerätegehäuse positioniert und Bedienbefehlen zugeordnet sind, liegen dabei mit Vorteil in jenem Bereich, der vom LIDAR-Sensor erfasst werden kann und gleichzeitig für den Nutzer eine leichte Erreichbarkeit aufweist.
  • Weiter betrifft die Erfindung ein Verfahren zur autonomen Bearbeitung von Bodenflächen mit Hilfe des mobilen, selbstfahrenden Geräts, wobei die Detektionseinrichtung einen Umgebungsbereich des Geräts detektiert, um eine Umgebungskarte der Bodenfläche zu erstellen, und die Detektionseinrichtung weiter Bedienbefehle eines Nutzers auf dem Gerätegehäuse detektiert, um eine Bedienung des mobilen, selbstfahrenden Geräts zu veranlassen oder zu beenden. Bevorzugt ordnet die Detektionseinrichtung detektierte Messwerte insbesondere automatisch ein in Messwerte für die Umgebungskarte oder Messwerte als Bedienbefehl. Eine manuelle Eingabe des Nutzers ist dabei mit Vorteil nicht notwendig.
  • Bei einer vorteilhaften Ausführungsform des Verfahrens lernt das mobile, selbstfahrende Gerät individuell auf den Nutzer zugeschnittene oder von dem Nutzer vorgegebene Bedienbefehle. Es wird also eine Art Konfigurationsroutine für den Nutzer realisiert, bei welcher der Nutzer die Belegung der virtuellen „Tasten“ am Gerät sowie deren Funktion beispielsweise mit Hilfe einer App ein- beziehungsweise umstellen kann. Dabei wird beispielsweise innerhalb der App eine durch das Gerät auszuführende Aktion ausgewählt, zum Beispiel Raumreinigung für den Raum Küche. Anschließend wird eine Kalibrierroutine eingeleitet, bei der der Nutzer seinen Finger an der gewünschten Position innerhalb des User Interfaces an der Gerätegehäuse-Oberseite positioniert. Die Position des Fingers wird nun mit der Detektionseinrichtung und der Auswerteinheit ermittelt. Es wird eine virtuelle „Taste“ mit der zuvor ausgewählten Aktion an der festgesetzten Position erstellt. Um die Position der so erstellten virtuellen „Taste“ für den Nutzer sichtbar zu machen, können beispielsweise Aufkleber genutzt werden, die durch den Nutzer an der entsprechenden Position angebracht werden. Alternativ ist es möglich, dass der Nutzer bereits vormarkierte Positionen an der Oberseite neu belegt. Mit diesem Verfahren ist es jedem Nutzer möglich, nach eigenem Belieben virtuelle „Tasten“ auf seinem Gerät vorzusehen und das Gerät auf diese Weise individuell anzupassen. Dadurch wird dem Nutzer eine individuelle Mitgestaltung angeboten, die an seine eigene Gerätenutzung angepasst ist. Eine Änderung des Designs des User Interfaces hinsichtlich der Tastenpositionen ist vorteilhafterweise ohne Werkzeugänderungen und insbesondere jederzeit möglich.
  • Jegliche Merkmale, Ausgestaltungen, Ausführungsformen und Vorteile das Verfahren betreffend finden auch in Zusammenhang mit dem erfindungsgemäßen mobilen, selbstfahrenden Gerät Anwendung, und umgekehrt.
  • Die Erfindung wird anhand der nachfolgenden, lediglich Beispiele darstellenden Ausführungen der Erfindung näher erläutert. Es zeigen:
    • 1A, 2A: jeweils eine schematische Ansicht eines Ausführungsbeispiels eines erfindungsgemäßen mobilen, selbstfahrenden Geräts im Querschnitt,
    • 1B, 2B: jeweils eine schematische Ansicht eines Ausführungsbeispiels eines erfindungsgemäßen mobilen, selbstfahrenden Geräts in Aufsicht,
    • 3A, 3B, 3C: jeweils eine schematische Ansicht eines Ausführungsbeispiels eines Verfahrensschritts eines erfindungsgemäßen Verfahrens, und
    • 4A, 4B: jeweils einen schematischen Verfahrensablauf eines erfindungsgemäßen Verfahrens.
  • In 1A ist ein mobiles, selbstfahrendes Gerät 10 in einem Querschnitt gezeigt, das ein Gerätegehäuse 1 und eine auf dem Gerätegehäuse 1 angeordnete Detektionseinrichtung 2 aufweist. Die Detektionseinrichtung 2 ist ein LIDAR-Sensor, der insbesondere so auf dem Gerät 10 platziert ist, dass er eine horizontale Ebene 4 knapp über dem Gerätegehäuse 2 abscannen kann. Insbesondere kann die horizontale Ebene 4 etwa 10 mm über der Oberseite des Gerätegehäuses mit dem LIDAR-Sensor abgescannt werden. Dabei kann mit Vorteil eine gesamte Umgebung des LIDAR-Sensors, also eine 360°-Umgebung, in der horizontalen Ebene 4 erfasst werden. Die Detektionseinrichtung 2 dient zur Kartierung der Umgebung des Geräts 10 und ist insbesondere rotierend ausgestattet. Die Detektionseinrichtung 2 detektiert die Umgebung des Geräts 10 bis in mehrere Meter Entfernung und liefert für jeden Messwert eine Entfernungsmessung sowie einen Richtungswinkel.
  • Auf dem Gerätegehäuse 1 ist zudem ein User Interface 3 angeordnet, das für eine leichte Erreichbarkeit ebenfalls auf der Oberseite des Gerätegehäuses 1 angeordnet ist. Das User Interface 3 umfasst beispielsweise Bedienelemente, insbesondere Positionsmarker zum Ausführen und/oder Beenden bestimmter Aktionen und/oder Vorgänge des Geräts 10. Dabei liegt das User Interface 3 in dem Bereich, der vom LIDAR-Sensor erfasst werden kann.
  • Die Positionsmarker sind dabei keine realen Tasten, sondern zeigen lediglich die Positionen an, die jeweils einem vorbestimmten, zugehörigen Bedienbefehl zugeordnet sind. Aufgrund der Anordnung des User Interfaces 3 im Erfassungsbereich des LIDAR-Sensors ist es möglich, mittels des LIDAR-Sensors die Position eines Fingers eines Nutzers zu erkennen und somit Eingaben des Nutzers auf dem User Interface 3 zu ermöglichen, ohne dafür reale Tasten am Gerätegehäuse vorzusehen. Die Positionsmarker können also als virtuelle Tasten gesehen werden, die jedoch keine Funktionen realer Tasten insbesondere Drucktasten etc. erfüllen. Der Finger beziehungsweise dessen Position des Nutzers wird in den Messungen der Detektionseinrichtung 2 erkannt und als Tastendruck auf dem User Interface 3 interpretiert, womit Hardware-Tasten auf dem Gerät 10 überflüssig sind.
  • Die Detektionseinrichtung 2 dient also neben einer Umgebungsdetektion zusätzlich als Fingerdetektion im Bereich des User Interfaces 3. Die Detektionseinrichtung 2 findet somit als Ersatz für Tasten am Gerätegehäuse 1 Verwendung. Über das User Interface 3 sind dem Nutzer Eingaben von grundlegenden Befehlen und Arbeitsprogrammen am Gerät 10 möglich. Bedient der Nutzer die Positionsmarker des User Interfaces 3 auf dem Gerätegehäuse 1, so durchstoßen seine Finger die horizontale Ebene der Detektionseinrichtung 2, womit die Position des Fingers von dieser detektiert werden kann.
  • 1B zeigt das mobile, selbstfahrende Gerät 10 des Ausführungsbeispiels der 1A in Aufsicht. Die Detektionseinrichtung 2 ist auf dem Gerätegehäuse 1 angeordnet, sodass diese beim Rotieren einen gesamten Umgebungsrundumblick beziehungsweise ein Sichtfeld von 360° erfassen kann. Das User Interface 3 mit Positionsmarkern für den Nutzer ist auf der Oberseite des Gerätegehäuses 1 vor der Detektionseinrichtung 2 angeordnet, sodass beim Bedienen des User Interfaces 3 die Finger des Nutzers Messstrahlen der Detektionseinrichtung 2 durchstoßen und so von dieser erkannt und detektiert werden können.
  • Die Positionsmarker sind beispielsweise eine Lackierung, Prägung und/oder Aufkleber, die dem vorbestimmten Bedienbefehl zugeordnet sind. Dabei sind die Positionsmarker lediglich oberflächig auf der Oberseite des Gerätegehäuses 1 aufgebracht und weisen keine funktionellen Merkmale auf. Insbesondere erstrecken sich die Positionsmarker und/oder Teile davon nicht in das Innere des Geräts 10 beziehungsweise durchbrechen das Gerätegehäuse 1 nicht. Um eventuell auftretende Ungenauigkeiten bei der Bestimmung der Fingerposition mittels der Detektionseinrichtung 2 abzufangen, können die Positionsmarker einen gewissen Mindestabstand zueinander aufweisen, womit Fehlinterpretationen vermieden beziehungsweise verhindert werden können.
  • Die Nutzung des virtuellen User Interfaces 3 mittels der Detektionseinrichtung 2 über eine Fingererkennung ist in den 2A und 2B gezeigt. Auf der Oberseite des Gerätegehäuses 1 im Bereich des User Interfaces 3 sind Positionsmarker abgebildet, die der Nutzer mit seinem Finger 5 berühren kann, ohne sie tatsächlich zu bedienen. Die Positionsmarker sind also keine tatsächlichen Tasten, die bei Druck oder Berührung beispielsweise einen Arbeitsprozess auslösen, sondern lediglich Markierungen, um die vorbestimmte Position auf dem User Interface 3 festzulegen. Zum Beispiel sind im Bereich des User Interfaces 3 farbliche Markierungen, Prägungen oder Aufkleber vorgesehen. Dabei ergibt sich der Vorteil, dass eine Änderung von Bedienkonzepten des Geräts 10, wie beispielsweise eine andere Anzahl an Positionsmarker und/oder andere Funktionen mit nur minimalen Änderungen realisiert werden können. Zum Beispiel müssen lediglich neue Aufkleber angebracht und eine angepasste Software-Auswertung der Detektionseinrichtung 2 übernommen werden. Für verschiedene Varianten des Geräts 10 können so problemlos verschiedene User Interfaces 3 angeboten werden. Auch können während der Entwicklung des Geräts 10 zusätzliche virtuelle Positionsmarker für die Entwickler bereitgestellt werden, die spezielle Testprozeduren auslösen.
  • Die 3A bis 3C zeigen den Verfahrensschritt der Fingerdetektion mit der Detektionseinrichtung 2. Insbesondere kann die Detektionseinrichtung 2 in einem Bereich ab 1 cm Entfernung und mit einer Auflösung von 1° Messwerte aufnehmen. Für einen Finger 5 mit einem Durchmesser von etwa 1,5 cm ergeben sich in 5 cm Entfernung bis zu 17 Messstrahlen 6 innerhalb eines Winkelbereiches von etwa 17°, die den Finger registrieren. In einer Entfernung von 10 cm sind es etwa 8 Messpunkte innerhalb eines Winkelbereiches von etwa 9°, wie es beispielsweise in 3A dargestellt ist. Bei 15 cm Entfernung sind noch etwa 5 Messpunkte innerhalb eines Winkelbereiches von etwa 6° detektierbar.
  • Damit sind ausreichend Messwerte vorhanden, um einen Finger mit hoher Sicherheit zu erkennen, Messungenauigkeiten von beispielsweise +/- 1 cm auszugleichen und die Position des Fingers durch Einpassen eines Kreises in die Messwerte vorzunehmen, wie es beispielsweise in 3B gezeigt ist. Dies erfolgt zum Beispiel mittels Least-Squares-Fitting, also mittels Methode der kleinsten Abweichungsquadrate. Hierzu sind drei Messpunkte das Minimum für die Ausführung der Rechnung.
  • Liegen nur wenige Messwerte vor, wie es in 3C dargestellt ist, so kann aus dem gemittelten Entfernungswert sowie dem gemittelten Richtungswert und dem definierten Fingerdurchmesser eine Fingerposition bestimmt werden. Im Grenzfall wird also auch ohne Least-Square-Fitting mit nur wenigen Messwerten die Position des Fingers bestimmt, indem die Messpunkte gemittelt werden und die Position des Fingers in Verlängerung des gemittelten Winkels gesetzt wird. Sind nur sehr wenige Messwerte vorhanden, so kann deren Richtigkeit über die Zeit geprüft werden. Nach beispielsweise 0,2 Sekunden liegen weitere Messwerte vor. Sind diese ähnlich zu den vorher ermittelten Messwerten, kann davon ausgegangen werden, dass es sich dabei um einen Finger eines Nutzers handelt.
  • Ein Ablauf zur Auswertung der Umgebungsmessungen und der Fingermessungen mit der Detektionseinrichtung, der Berechnung der Fingerposition und der Interpretation der Positionsmarker als Tastendruck ist in 4A schematisch dargestellt.
  • Im Verfahrensschritt 11 werden einzelne Messwerte mit der Detektionseinrichtung erfasst. Im zweiten Verfahrensschritt 12 wird von dem mobilen, selbstfahrenden Gerät, insbesondere von der Auswerteinheit, geprüft, ob die im Schritt 11 erfassten Messwerte innerhalb des Bereichs des Geräteumfangs oder außerhalb des Geräteumfangs im Umgebungsbereich des Geräts liegen. Liegen die erfassten Messwerte außerhalb des Geräteumfangs, werden diese Messwerte in die Navigation des Geräts zugeführt, wie es der Verfahrensschritt 13a schematisch zeigt. Liegen die erfassten Messwerte dagegen innerhalb des Bereichs des Geräteumfangs, wie es im Verfahrensschritt 13b gezeigt ist, wird weiter geprüft, ob die Messwerte innerhalb des User Interfaces liegen, oder nicht. Liegen die Messwerte außerhalb des User Interfaces (Schritt 14a), werden die jeweiligen Messwerte verworfen. Liegen die Messwerte innerhalb des User Interfaces (Schritt 14b), wird die Position des Fingers aus den erfassten Messwerten bestimmt. Nach der Positionsbestimmung wird im Verfahrensschritt 15 die errechnete Fingerposition einem vorbestimmten Positionsmarker zugeordnet. Anschließend wird im Verfahrensschritt 16 geprüft, ob sich der Finger bereits bei der letzten Messung an diesem Positionsmarker befunden hat. Wird dies bejaht (Schritt 17a), wird keine Aktion ausgeführt beziehungsweise Funktion durchgeführt. Wird dies dagegen verneint (Schritt 17b), kann die gewählte Funktion beziehungsweise Aktion des mit dem Finger besetzten Positionsmarkers starten.
  • Durch dieses Bedienverfahren am User Interface kann die Detektionseinrichtung des mobilen, selbstfahrenden Geräts als Ersatz für reale Tasten verwendet werden. Hierbei ist es nicht nur möglich, starre virtuelle Tasten zu bedienen, die sich immer an der gleichen Position befinden. Auch virtuelle Schieber oder virtuelle, drehbare Einstellräder können auf diese Weise bedient werden, insbesondere durch eine Auswertung über die Zeit und durch ein Tracking des Fingers des Nutzers. Insbesondere wird hierbei die Position des Fingers über die Zeit verfolgt. Es erfolgt eine damit einhergehende Auswertung der Bewegung des Fingers an den jeweiligen Bedienelementen.
  • Darüber hinaus kann eine Konfigurationsroutine für den Nutzer realisiert werden, bei dem der Nutzer die Belegung der virtuellen Tasten am Gerät und deren Funktion beispielsweise mit Hilfe einer App ein- beziehungsweise umschalten kann. Der Ablauf für eine derartige Kalibrier- beziehungsweise Einlern-Routine für eine neue, virtuelle vom Nutzer definierte Taste ist schematisch in 4B gezeigt.
  • In einem ersten Verfahrensschritt 20 startet der Nutzer in einer App beispielsweise auf seinem Smartphone das Programm „Einlern-Routine für neue virtuelle Tasten“. Dabei kann beispielsweise innerhalb der App eine durch das Gerät auszuführende Aktion ausgewählt werden, wie beispielsweise „Clean Room / Raumreinigung für den Raum Küche“. In einem zweiten Schritt 21 fordert die App den Nutzer auf, seinen Finger an die gewünschte Position im Bereich des User Interfaces auf dem Gerätegehäuse zu legen. Insbesondere wird eine Kalibrierroutine eingeleitet, bei der der Nutzer seinen Finger an die gewünschte Stelle positioniert. Im Schritt 22 beginnt die Detektionseinrichtung einen Scan und sucht innerhalb des Bereichs des Geräteumfangs nach dem Finger. Kann die Detektionseinrichtung den Finger nicht identifizieren, bittet die App im Schritt 23a den Nutzer, die Routine neu zu starten und den Finger deutlich am User Interface zu positionieren. Wird der Finger dagegen von der Detektionseinrichtung gefunden, bittet im Schritt 23b die App den Nutzer, den Finger zu entfernen und wiederholte Male auf die gewünschte Position zu legen. Im Schritt 24 wird aus den jeweils berechneten Positionen ein Mittelwert bestimmt. Im optionalen Schritt 25 bittet die App den Nutzer, die für die eingelernte Position zugehörige Geräteaktion in der App einzugeben, falls dies im Schritt 20 von der App noch nicht vorgesehen beziehungsweise erfolgt ist. Im letzten Schritt 26 wird die Einlern-Routine abgeschlossen, womit die neue virtuelle Taste mit der zuvor bestimmten Aktion an der festgesetzten Position dem Nutzer zur Verfügung steht.
  • Um die Position der so erstellten virtuellen Taste für den Nutzer sichtbar zu machen, können beispielsweise Aufkleber genutzt werden, die selbstständig durch den Nutzer an dem Gerätegehäuse angebracht werden. Alternativ kann der Nutzer bereits vorbelegte beziehungsweise vormarkierte Positionen neu belegen. Mit diesem Verfahren ist es jedem Nutzer möglich, nach eigenem Belieben virtuelle Tasten auf seinem Gerät vorzusehen und das Gerät auf diese Weise individuell und optimal an seine eigene Gerätenutzung anzupassen.

Claims (10)

  1. Mobiles, selbstfahrendes Gerät (10), insbesondere Bodenreinigungsgerät zur autonomen Bearbeitung von Bodenflächen wie ein Saug- und/oder Kehr- und/oder Wischroboter, umfassend ein Gerätegehäuse (1) und eine Detektionseinrichtung (2), wobei - die Detektionseinrichtung (2) zumindest teilweise auf dem Gerätegehäuse (1) angeordnet ist, - die Detektionseinrichtung (2) dazu ausgebildet ist, einen Umgebungsbereich des Geräts zu detektieren, um eine Umgebungskarte der Bodenfläche zu erstellen, und - die Detektionseinrichtung (2) weiter dazu ausgebildet ist, Bedienbefehle eines Nutzers auf dem Gerätegehäuse (1) zu detektieren, um eine Bedienung des mobilen, selbstfahrenden Geräts (10) zu veranlassen oder zu beenden.
  2. Mobiles, selbstfahrendes Gerät nach Anspruch 1, das durch die Detektionseinrichtung (2) ein druckloses, insbesondere tastenloses, Bedienen des mobilen, selbstfahrenden Geräts (10) durch Erfassen der Position eines Fingers des Nutzers gewährleistet.
  3. Mobiles, selbstfahrendes Gerät nach einem der vorhergehenden Ansprüche, das auf dem Gerätegehäuse (1) Positionsmarker für die Bedienbefehle des Nutzers umfasst.
  4. Mobiles, selbstfahrendes Gerät nach Anspruch 3, wobei die Positionsmarker auf dem Gerätegehäuse (1) insbesondere drucklose Positionsmarker sind, die bevorzugt aufgedruckt, geprägt, lackiert und/oder aufgeklebt sind.
  5. Mobiles, selbstfahrendes Gerät nach einem der vorhergehenden Ansprüche, weiter umfassend eine Auswerteinheit, die dazu eingerichtet ist, die Bedienbefehle des Nutzers auf Basis aus Winkel und Entfernung von Messstrahlen (6) der Detektionseinrichtung (2) auszuwerten.
  6. Mobiles, selbstfahrendes Gerät nach einem der vorhergehenden Ansprüche, wobei die Detektionseinrichtung (2) ein Sensor ist, insbesondere ein LIDAR-Sensor, und die Detektionseinrichtung (2) den Umgebungsbereich in einer Ebene (4), insbesondere das Gerätegehäuse zumindest in einem für die Bedienbefehle vorgesehenen Bereich überstreichend, detektiert.
  7. Mobiles, selbstfahrendes Gerät nach Anspruch 6, wobei die Ebene (4) insbesondere knapp, bevorzugt zwischen 5 mm und 15 mm, über dem Gerätegehäuse (1) liegt.
  8. Verfahren zur autonomen Bearbeitung von Bodenflächen mit Hilfe eines mobilen, selbstfahrenden Geräts (10) nach einem der vorhergehenden Ansprüche, wobei - die Detektionseinrichtung (2) einen Umgebungsbereich des Geräts (10) detektiert, um eine Umgebungskarte der Bodenfläche zu erstellen, und - die Detektionseinrichtung (2) weiter Bedienbefehle eines Nutzers auf dem Gerätegehäuse (1) detektiert, um eine Bedienung des mobilen, selbstfahrenden Geräts (10) zu veranlassen oder zu beenden.
  9. Verfahren nach Anspruch 8, wobei das mobile, selbstfahrende Gerät (10) individuell auf den Nutzer zugeschnittene oder von dem Nutzer vorgegebene Bedienbefehle einlernt.
  10. Verfahren nach einem der vorhergehenden Ansprüche 8 oder 9, wobei die Detektionseinrichtung (10) detektierte Messwerte insbesondere automatisch einordnet in Messwerte für die Umgebungskarte oder Messwerte als Bedienbefehl.
DE102021203583.3A 2021-04-12 2021-04-12 Mobiles, selbstfahrendes Gerät Pending DE102021203583A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021203583.3A DE102021203583A1 (de) 2021-04-12 2021-04-12 Mobiles, selbstfahrendes Gerät

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021203583.3A DE102021203583A1 (de) 2021-04-12 2021-04-12 Mobiles, selbstfahrendes Gerät

Publications (1)

Publication Number Publication Date
DE102021203583A1 true DE102021203583A1 (de) 2022-10-13

Family

ID=83361626

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021203583.3A Pending DE102021203583A1 (de) 2021-04-12 2021-04-12 Mobiles, selbstfahrendes Gerät

Country Status (1)

Country Link
DE (1) DE102021203583A1 (de)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012107689B3 (de) 2012-08-22 2013-09-26 Miele & Cie. Kg Staubsauger mit Bedien- und Anzeigeelementen
DE102012105608A1 (de) 2012-06-27 2014-01-02 Miele & Cie. Kg Selbstfahrendes Reinigungsgerät und Verfahren zur Bedienung eines selbstfahrenden Reinigungsgeräts
DE102012212754A1 (de) 2012-06-29 2014-01-02 Robert Bosch Gmbh Verfahren zum Betreiben eines Sensorsystems sowie Sensorsystem
DE102014212418A1 (de) 2014-06-27 2015-12-31 Robert Bosch Gmbh Autonomer Serviceroboter
US20210077643A1 (en) 2019-09-16 2021-03-18 Harbor Innovations, LLC Modular ultraviolet (uv) sterilization lighting assemblies

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012105608A1 (de) 2012-06-27 2014-01-02 Miele & Cie. Kg Selbstfahrendes Reinigungsgerät und Verfahren zur Bedienung eines selbstfahrenden Reinigungsgeräts
DE102012212754A1 (de) 2012-06-29 2014-01-02 Robert Bosch Gmbh Verfahren zum Betreiben eines Sensorsystems sowie Sensorsystem
DE102012107689B3 (de) 2012-08-22 2013-09-26 Miele & Cie. Kg Staubsauger mit Bedien- und Anzeigeelementen
DE102014212418A1 (de) 2014-06-27 2015-12-31 Robert Bosch Gmbh Autonomer Serviceroboter
US20210077643A1 (en) 2019-09-16 2021-03-18 Harbor Innovations, LLC Modular ultraviolet (uv) sterilization lighting assemblies

Similar Documents

Publication Publication Date Title
EP3417350B1 (de) Verfahren zur steuerung eines autonomen mobilen roboters
EP2741483B1 (de) Verfahrbares Reinigungsgerät sowie Verfahren zum Betreiben eines solchen
EP2294960B1 (de) Verfahren zum Betreiben eines Reinigungsroboters
WO2020041817A1 (de) Exploration eines robotereinsatzgebietes durch einen autonomen mobilen roboter
EP3497529A1 (de) Verfahren zum betrieb eines sich selbsttätig fortbewegenden flächenbearbeitungsgerätes
EP3345524A1 (de) Verfahren zum betrieb eines bodenbearbeitungsgerätes
DE102012109004A1 (de) Roboter und Verfahren zur autonomen Inspektion oder Bearbeitung von Bodenflächen
DE102016210422B4 (de) Teach-In Vorrichtung und Verfahren zum Steuern eines Reinigungsroboters
WO2014117895A1 (de) Verfahren und vorrichtung zum steuern eines werkstattgeräts
EP3355147B1 (de) Verfahren zum betrieb eines sich selbsttätig fortbewegenden fahrzeugs
DE102017118383A1 (de) Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Reinigungsgerätes
EP3392738B1 (de) Verfahren zum betrieb eines sich selbsttätig fortbewegenden fahrzeugs
DE102012105608A1 (de) Selbstfahrendes Reinigungsgerät und Verfahren zur Bedienung eines selbstfahrenden Reinigungsgeräts
DE102018200719A1 (de) Automatische Bodenreinigung
EP3243418A1 (de) System und verfahren zur reinigung eines fussbodens mit einem reinigungsroboter
EP3708058A1 (de) Bodenbearbeitungsgerät und system aus einem bodenbearbeitungsgerät und einem externen endgerät
DE102016100949B4 (de) Elektrisches Haushaltsgerät und Verfahren zu dessen Steuerung
DE102021203583A1 (de) Mobiles, selbstfahrendes Gerät
DE102017126798A1 (de) Selbstfahrendes Bodenpflegegerät
EP3995065B1 (de) Sich selbsttätig fortbewegendes reinigungsgerät
DE102015000226B4 (de) Leckage-Ortungsvorrichtung
EP4016226B1 (de) Verfahren zum betrieb eines mobilen, selbstfahrenden geräts
EP3984434A2 (de) Verfahren zum betrieb eines mobilen, selbstfahrenden geräts
DE102017220180A1 (de) Erstellen einer Umgebungskarte
EP4310539A1 (de) Verfahren zum betrieb eines mobilen, selbstfahrenden geräts

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication