DE102021200989A1 - Roboter zur Erkennung und Aufnahme von zumindest einem vorbestimmten Objekt - Google Patents

Roboter zur Erkennung und Aufnahme von zumindest einem vorbestimmten Objekt Download PDF

Info

Publication number
DE102021200989A1
DE102021200989A1 DE102021200989.1A DE102021200989A DE102021200989A1 DE 102021200989 A1 DE102021200989 A1 DE 102021200989A1 DE 102021200989 A DE102021200989 A DE 102021200989A DE 102021200989 A1 DE102021200989 A1 DE 102021200989A1
Authority
DE
Germany
Prior art keywords
robot
designed
predetermined object
mouthpiece
suction nozzle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021200989.1A
Other languages
English (en)
Inventor
Karl Schulz
Lukas Wiesmeier
Bilal Tariq
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Angsa Robotics De GmbH
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE102021200989.1A priority Critical patent/DE102021200989A1/de
Priority to US18/275,350 priority patent/US20240227169A9/en
Priority to EP22706748.5A priority patent/EP4288248A1/de
Priority to PCT/EP2022/052441 priority patent/WO2022167468A1/de
Publication of DE102021200989A1 publication Critical patent/DE102021200989A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/06Gripping heads and other end effectors with vacuum or magnetic holding means
    • B25J15/0616Gripping heads and other end effectors with vacuum or magnetic holding means with vacuum
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/08Gripping heads and other end effectors having finger members
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/02Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type
    • B25J9/023Cartesian coordinate type
    • B25J9/026Gantry-type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1615Programme controls characterised by special kind of manipulator, e.g. planar, scara, gantry, cantilever, space, closed chain, passive/active joints and tendon driven manipulators
    • B25J9/162Mobile manipulator, movable base with manipulator arm mounted on it
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40532Ann for vision processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)

Abstract

Bereitgestellt wird ein Roboter, der zur Erkennung und Aufnahme von zumindest einem vorbestimmten Objekt ausgestaltet ist, wobei der Roboter so ausgestaltet ist, dass die Erkennung und Aufnahme des vorbestimmten Objekts in einem Arbeitsraum unter dem Roboter erfolgt.

Description

  • Die vorliegende Erfindung betrifft einen Roboter, der zur Erkennung und Aufnahme von zumindest einem vorbestimmten Objekt ausgestaltet ist.
  • Aus dem Stand der Technik ist ein autonomer Roboter bekannt, der auf einer frei bestimmbaren Fläche mittels einer Kamera, die in Fahrtrichtung des Roboters gerichtet ist, mittels Bilderkennung und einem künstlichen neuronalen Netz Objekte erkennen und lokalisieren kann. Der Roboter kann diese Objekte mittels eines Greifarms vollautomatisch aufnehmen und in ein dazugehöriges Behältnis bewegen.
  • Der Erfindung liegt die Aufgabe zugrunde, einen solchen Roboter baulich und/oder funktional zu verbessern.
  • Die Aufgabe wird mit einem Roboter mit den Merkmalen des Anspruchs 1 gelöst. Vorteilhafte Ausführungen und Weiterbildungen sind Gegenstand der Unteransprüche.
  • Demnach wird die Aufgabe durch einen Roboter, der zur Erkennung und Aufnahme von zumindest einem vorbestimmten Objekt ausgestaltet ist, gelöst, wobei der Roboter so ausgestaltet ist, dass die Erkennung und Aufnahme des vorbestimmten Objekts in einem Arbeitsraum unter dem Roboter erfolgt.
  • Der Roboter kann ausgestaltet sein, um sich autonom in einem vordefinierten Bereich fortzubewegen. Der Roboter kann ausgestaltet sein, um sich auf einem festen oder unbefestigten Untergrund fortzubewegen. Der Roboter kann ausgestaltet sein, um sich vollelektrisch fortzubewegen. Der Roboter kann folglich mobil in verschiedenen Einsatzbereichen anwendbar sein.
  • Der Roboter kann eine Batterie und/oder einen Akku als Energiespeicher zur vollelektrischen Fortbewegung des Roboters aufweisen. Zusätzlich oder alternativ kann der Roboter ein Solarpanel aufweisen, insbesondere um den Akku aufzuladen. Der Akku und/oder die Batterie des Roboters kann entnehmbar im oder am Roboter verbaut sein. Der Akku und/oder die Batterie des Roboters kann/können erweiterbar ausgeführt sein.
  • Der Roboter kann so ausgestaltet sein, dass das vorbestimmte Objekt auf festem und/oder unbefestigtem Untergrund in einem Arbeitsraum unter dem Roboter erkannt und aufgenommen werden kann. Der Untergrund kann demnach festes Gelände, beispielsweise eine geteerte Fläche und/oder ein Kopfsteinpflaster, und/oder unbefestigtes Gelände, beispielsweise eine Grasfläche, Kies, Erde und/oder Sand, umfassen.
  • Dadurch, dass der Roboter das vorbestimmte Objekt in dem Arbeitsraum des Roboters, der sich im und unterhalb des Roboters befindet, aufnimmt, finden Bewegungen des Roboters zum Aufnehmen des vorbestimmten Objekts in dem geschützten Arbeitsraum statt und damit wird die Sicherheit beim Einsatz des Roboters, insbesondere im Vergleich zu eingangs beschriebenen herkömmlichen Robotern, erhöht. Demnach wird durch die hier vorgeschlagene Lösung ein geschützter Arbeitsraum für den Roboterarm bereitgestellt. Zudem kann eine, insbesondere im Vergleich zu eingangs beschriebenen herkömmlichen Robotern, bessere Beleuchtung bzw. Ausleuchtung des Arbeitsraums erreicht werden, was inter alia eine Genauigkeit bei der Erkennung des zumindest einen vorbestimmten Objekts erhöht.
  • Der Roboter kann eine Kamera zur Erkennung des vorbestimmten Objekts aufweisen, die insbesondere vertikal zum Untergrund unter dem Roboter ausgerichtet ist.
  • Der Roboter kann einen, insbesondere auf einem künstlichen neuronalen Netz basierenden, Objekterkennungsalgorithmus aufweisen, der ausgestaltet ist, um das vorbestimmte Objekt basierend auf von der Kamera detektierten Bilddaten zu erkennen.
  • Das bzw. die vorbestimmten Objekte können auf Basis vorab manuell gesammelter und/oder festgelegter Objekteigenschaften definiert werden. Die Objekteigenschaften können einen Objekttyp, beispielsweise Kronkorken und/oder Zigarettenstummel, Abmessungen des Objekts des jeweiligen Objekttyps und/oder eine oder mehrere Farben des Objektes des jeweiligen Objekttyps umfassen. Erkennt der Roboter basierend auf den Bilddaten und den Objekteigenschaften ein vorbestimmtes Objekt, so kann der Roboter ausgestaltet sein, um basierend auf den Bilddaten eine Position und/oder eine Ausrichtung des vorbestimmten Objektes zu bestimmen. Das künstliche neuronale Netz des Objekterkennungsalgorithmus kann durch zuvor definierte Objekteigenschaften auf zuvor aufgenommenen Beispiel-Bildern von vorbestimmten Objekten trainiert werden. Mit anderen Worten, das künstliche neuronale Netz, welches im Roboter verbaut ist, ermöglicht eine Erkennung von vorbestimmten Objekten. Trainiert werden kann das neuronale Netz mithilfe eines Datensatzes von realen Bildern, auf denen die vorbestimmten Objekte zu sehen sind. Dadurch ist es dem Roboter möglich, die vorbestimmten Objekte von anderen Objekten wie Blättern, Schmutz oder Insekten, zu unterscheiden.
  • Der Roboter kann ausgestaltet sein, um das vorbestimmte Objekt selektiv aufzunehmen. Das heißt, der Roboter ist ausgestaltet, um die vorbestimmten Objekte gezielt zu entfernen und nicht, wie beispielsweise ein Staubsaugerroboter, dauerhaft und/oder ungerichtet einen Saugstrom zu erzeugen und alle Objekte aufzusaugen, die sich in einem Arbeitsraum befinden. Diese selektive bzw. gezielte Aufnahme von vorbestimmten Objekten verhindert Schäden an Oberflächen bzw. am Untergrund und vermeidet ein ungewolltes Entfernen von anderen Objekten, wie beispielsweise von Insekten.
  • Der Roboter kann zur Aufnahme des vorbestimmten Objekts einen Endeffektor und eine Ausrichteinheit aufweisen, an der der Endeffektor verfahrbar befestigt ist.
  • Bei dem Endeffektor kann es sich um das letzte Element einer kinematischen Kette handeln, mittels dem das erkannte, vorbestimmte Objekt entfernt bzw. aufgenommen werden kann.
  • Die Ausrichteinheit kann den Endeffektor als ein wechselbares Bauteil aufweisen. Die Ausrichteinheit kann im Arbeitsraum des Roboters verfahrbar angeordnet sein. Die Ausrichteinheit kann als ein Drei-Achs-Schienensystem ausgeführt sein. Die Ausrichteinheit kann als Gelenkarm ausgeführt sein. Die Ausrichteinheit kann ausgestaltet sein, um den Endeffektor so zu verfahren, dass der Endeffektor ein Auffangbehältnis erreichen kann. Das Drei-Achs-Schienensystem kann Riemen und/oder Wellen aufweisen, die zu Stellmotoren verbunden sind, um den Endeffektor anzutreiben bzw. zu verfahren. Der Gelenkarm kann ein oder mehrere Gelenke aufweisen, die zu Gelenkmotoren verbunden sind, die ausgestaltet sind, um die Gelenke zu bewegen.
  • Der Arbeitsraum kann auch als die Fläche unter der Kamera bezeichnet werden, die von der Kamera erfassbar ist. Der Arbeitsraum kann durch die Ausrichteinheit abgedeckt werden. Die Kamera kann über der Ausrichteinheit positioniert werden.
  • Der Endeffektor kann ein, insbesondere flexibles, Mundstück, das über einen Saugrüssel mit einem Saugmotor verbunden ist, und/oder einen mechanischen Greifer aufweisen.
  • Die Ausrichteinheit kann ausgestaltet sein, das Mundstück des Saugrüssels so auf einen Untergrund unter einem Arbeitsraum des Roboters aufzusetzen, dass das Mundstück das vorbestimmte Objekt umschließt.
  • Der Roboter kann ausgestaltet sein, den Saugmotor so anzusteuern, dass dieser einen Unterdruck im Saugrüssel erzeugt, wenn das Mundstück auf dem Untergrund aufgesetzt ist.
  • Die Ausrichteinheit kann ausgestaltet sein, das Mundstück zu kippen, wenn der Saugmotor den Unterdruck im Saugrüssel erzeugt hat, um das vorbestimmte Objekt mittels des Saugrüssels einzusaugen.
  • Mit anderen Worten, das Mundstück kann so angeordnet sein, dass es mittels der Ausrichteinheit auf dem Untergrund bzw. dem Boden unter dem Roboter aufgesetzt werden kann. Denkbar ist, dass Abmessungen des Mundstücks so gewählt sind, dass das Mundstück die vorbestimmten und zu entfernenden Objekte vollends umschließen kann. Der Roboter kann ausgestaltet sein, um den Saugmotor so anzusteuern, dass dieser einen Unterdruck im Saugrüssel, insbesondere am Mundstück, erzeugt. Das Mundstück kann, insbesondere durch horizontales Verfahren der Ausrichteinheit relativ zum Untergrund, auf dem das Mundstück aufgesetzt ist, und/oder durch die Bauweise des Mundstücks und ggf. vertikales Verfahren der Ausrichteinheit relativ zum Untergrund, auf dem das Mundstück aufgesetzt ist, gekippt werden, sodass durch den Unterdruck im Saugrüssel ein Luftstrom erzeugt wird, der über das vom Mundstück umschlossene, vorbestimmte und zu entfernende Objekt strömt, sodass das vorbestimmte und zu entfernende Objekt eingesaugt wird.
  • Die konstruktive Ausgestaltung des Mundstücks, die das Kippen desselbigen ggf. durch das vertikale Verfahren der Ausrichteinheit ermöglicht, kann ein zweiteiliges Mundstück umfassen, wobei die zwei Teile vertikal relativ zueinander beweglich sind. Eines der beiden Teile weist eine ebene Oberfläche auf und nimmt das andere der beiden Teile, das eine abgeschrägte Oberfläche aufweist, in sich auf. Zunächst wird das Teil mit der ebenen Oberfläche auf dem Untergrund in der oben beschriebenen Weise aufgesetzt und der Unterdruck im Saugrüssel, insbesondere im Mundstück, erzeugt. Anschließend wird das Teil mit der ebenen Oberfläche vertikal nach oben bewegt und so verbleibt das andere der beiden Teile, das die abgeschrägte Oberfläche aufweist, am Untergrund. Dadurch wird in oben beschriebener Weise durch den Unterdruck im Saugrüssel ein Luftstrom erzeugt, der über das vom Teil mit abgeschrägter Oberfläche umschlossene, vorbestimmte und zu entfernende Objekt strömt, sodass das vorbestimmte und zu entfernende Objekt eingesaugt wird.
  • Der Roboter kann einen, insbesondere als Trägheitsabscheider ausgeführten, Teilchenabscheider aufweisen, wobei das Mundstück über den Saugrüssel und den Teilchenabscheider mit dem Saugmotor verbunden ist.
  • Der Saugrüssel kann so ausgeführt sein, dass er den erzeugten Luft- bzw. Saugstrom in eine zu einem Auffangbehältnis verbundene Kammer des Teilchenabscheiders leitet. Der Teilchenabscheider kann Objekte nach dem Trägheitsprinzip aus dem Saugstrom filtern. Die Kammer kann über einen Lufteinlass und -auslass verfügen. Die Klappe kann geschlossen sein, wenn der Saugmotor im Saugrüssel den Unterdruck erzeugt. Die Klappe kann geöffnet sein, wenn im Saugrüssel Umgebungsdruck herrscht, sodass das eingesaugte vorbestimmte Objekt in das Auffangbehältnis fällt. Das Auffangbehältnis kann austauschbar innerhalb des Roboters und/oder am Roboter angeordnet sein.
  • Der Roboter kann eine Antriebseinheit, insbesondere umfassend zumindest einen Elektromotor, aufweisen, die ausgestaltet ist, um den Roboter so anzutreiben, dass der Roboter einen, insbesondere vorbestimmten, Bereich abfährt.
  • Die Antriebseinheit kann ausgestaltet sein, um den Roboter so anzutreiben, dass der Roboter den, insbesondere basierend auf einer vom Roboter empfangenen Nutzereingabe vorbestimmten, Bereich autonom und/oder ferngesteuert abfährt.
  • Der Roboter kann eine Diebstahlsicherung aufweisen. Die Diebstahlsicherung kann ausgestaltet sein, um in einer vorbestimmten Situation ein akustisches Signal auszugeben. Die Diebstahlsicherung kann als Sirene ausgeführt sein. Die Diebstahlsicherung kann zusätzlich oder alternativ ausgestaltet sein, um in der vorbestimmten Situation ein Alarmsignal an ein Endgerät, z.B. ein Smartphone, zu senden.
  • Zusammenfassend und mit anderen Worten dargestellt, ergibt sich somit durch die Erfindung ein Roboter, der autonom Objekte auf einem Gelände erkennt und diese selektiv und isoliert entfernt. Der Roboter kann zur Säuberung von festem und/oder unbefestigten Untergrund eingesetzt werden. Der Roboter kann dazu auf einer Fläche auf einem Gelände platziert werden. Der Roboter kann sich autonom auf der Fläche fortbewegen. Der Roboter kann sich insbesondere vollelektrisch und batteriebetrieben fortbewegen. Der Roboter kann gezielt Objekte auf dem Gelände erkennen. Der Roboter kann dazu mit einer Kamera ausgestattet sein. Die Kamera kann über eine Objekterkennungssoftware verfügen. Durch ein künstliches neuronales Netz können vorbestimmte Objekte basierend auf den von der Kamera detektierten Bilddaten erkannt und klassifiziert werden. Der Roboter kann Objekte auf befestigten und/oder unbefestigten Untergrund erkennen. Der Roboter kann über eine Ausrichteinheit mit einem Endeffektor verfügen. Der Roboter kann so erkannte Objekte selektiv durch Saugen oder Greifen entfernen. Mit der Erfindung werden die Erkennung und Entfernung von bestimmten Objekten auf festem oder unbefestigtem Gelände ermöglicht. Mit der Erfindung können Objekte gezielt und isoliert entfernt werden. Mit der Erfindung wird das Aufsammeln von Objekten, wie Müll, erleichtert und optimiert. Eine zeitaufwändige und ineffektive homogene Entfernung von Müll wird vermieden. Durch die schonende Entfernung von Objekten durch Saugen oder Greifen werden Beschädigungen des Untergrunds vermieden. Die gezielte Entfernung von Objekten, die durch das künstliche neuronale Netz erkannt werden, vermeidet eine ungewollte Entfernung von anderen Objekten. Durch die gezielte Entfernung von Objekten, insbesondere auf Basis von Kameradaten, kann die Vernichtung von Kleinstlebewesen vermeiden werden. Die Entfernung von lediglich vorbestimmten Objekten, im Gegensatz zur homogenen Entfernung, bei der alle Objekte aufgesammelt bzw. entfernt werden, die sich im Arbeitsraum des Roboters befinden, vermeidet häufige Entleerungen des Auffangbehältnisses und verlängert die Dauer des ununterbrochenen Reinigungsbetriebes des Roboters.
  • Nachfolgend wird eine Ausführungsform der Erfindung unter Bezugnahme auf die 1 bis 5 näher beschrieben.
    • 1 ist eine schematische Seitenansicht eines Roboters, der zur Erkennung und Entfernung von vorbestimmten Objekten ausgestaltet ist,
    • 2 ist eine schematische Draufsicht des Roboters aus 1,
    • 3 ist eine schematische perspektivische Ansicht einer Ausrichteinheit des Roboters aus 1 und 2,
    • 4 ist eine schematische Seitenansicht eines zur Ausrichteinheit aus 3 verbundenen Saugrüssels, und
    • 5 ist eine schematische perspektivische Ansicht eines Teilchenabscheiders des Roboters aus 1 und 2.
  • In 1 ist ein Roboter 100 in einer Seitenansicht schematisch dargestellt, wobei der Roboter 100 ausgestaltet ist, sich in eine Hauptfahrt bzw. Vorwärtsfahrtrichtung F auf einem Untergrund 140 fortzubewegen. Dazu weist der Roboter 100 zumindest drei, insbesondere vier, Räder 150 auf, die in dem in 1 dargestellten Zustand mit dem Untergrund 140 in Kontakt sind.
  • Die Räder 150 des Roboters 100 sind zu einer (nicht dargestellten) Antriebseinheit des Roboters 100 verbunden, welche die Räder 150, insbesondere jeweils, antreibt und so den Roboter 100 relativ zum bzw. auf dem Untergrund 140 fortbewegt.
  • Die Antriebseinheit ist zu einem in und/oder an dem Roboter 100 angeordneten, insbesondere wechselbaren und/oder aufladbaren, (nicht dargestellten) Energiespeicher verbunden, der ein Antriebsenergie für die Antriebseinheit bereitstellt.
  • Der Roboter 100 ist ausgestaltet, um vorbestimmte Objekte 313, wie beispielsweise Zigarettenstummel und/oder Kronkorken, die sich an dem Untergrund 140 befinden, zu Erkennen und die erkannten vorbestimmten Objekte 313 aufzunehmen.
  • Dafür weist der Roboter 100 zumindest eine Kamera 110, eine Ausrichteinheit 200 und eine mit der Ausrichteinheit verbundene Objektaufnahmevorrichtung auf.
  • Die Kamera 110 ist auf den Untergrund 140 gerichtet und kann im Wesentlichen senkrecht, d.h. vertikal über dem Untergrund 140, angeordnet sein. Die Kamera 110 ist so angeordnet und ausgerichtet, dass sie, insbesondere laufend, Bilddaten von dem Untergrund 140 in einem Arbeitsraum 120 des Roboters 100 akquirieren bzw. aufnehmen kann, wie durch die gestrichelten Linien in 1, die einen Sichtbereich der Kamera 110 illustriert, angedeutet ist.
  • Mittels der Kamera 110 kann der Roboter 100 das zumindest eine vorbestimmte Objekt 313 in dem Arbeitsraum 120 unter dem Roboter 100 erkennen, dessen Position bestimmen und die bestimmte Position zu der Ausrichteinheit 200 ausgeben.
  • Dazu gibt die Kamera 110 die akquirierten Bilddaten zu einem (nicht dargestellten) Steuergerät des Roboters 100 aus, welches die von der Kamera 110 empfangenen Bilddaten mittels eines Objekterkennungsalgorithmus verarbeitet, der ausgestaltet ist, das vorbestimmten Objekt 313, das sich im Arbeitsraum 120 befindet, zu erkennen und dessen Position zu bestimmen. Der Objekterkennungsalgorithmus kann ein künstliches neuronales Netz aufweisen, welches so trainiert ist, dass es das zumindest eine vorbestimmte Objekt 313 basierend auf den Bilddaten der Kamera 110 erkennen kann. Denkbar ist, dass das Steuergerät eine von der Kamera 110 separate Recheneinheit ist und/oder in die Kamera 110 integriert ist.
  • Das Steuergerät gibt anschließend ein Steuersignal zu der Ausrichteinheit 200 aus. Genauer gesagt steuert das Steuergerät die Ausrichteinheit 200 so an, dass diese die Objektaufnahmevorrichtung zu der vom Steuergerät bestimmten Position des erkannten, vorbestimmten Objekts 313 bewegt.
  • Die Ausrichteinheit 200 ist demnach ausgestaltet, um basierend auf der mittels der Kamera 110 bestimmten Position des erkannten, vorbestimmen Objekts 313 die Objektaufnahmevorrichtung zu der Position des erkannten, vorbestimmen Objekts 313 zu bewegen.
  • Mittels der Objektaufnahmevorrichtung, die von der Ausrichteinheit 200 zu der Position des erkannten, vorbestimmten Objekts 313 bewegt wurde, kann der Roboter das erkannte, vorbestimmte Objekt 313 selektiv bzw. gezielt von dem Untergrund 140 entfernen, d.h. aufnehmen, und das von den Untergrund 140 mittels der Objektaufnahmevorrichtung aufgenommene Objekt 313 in einem am und/oder im Roboter 100 angeordneten Auffangbehältnis 130 aufnehmen.
  • Die Ausrichteinheit 200 kann als ein dreiachsiges System 210 ausgeführt sein (s. insbesondere 3), das zumindest eine, insbesondere zwei, erste Schienen 211, zumindest eine zweite Schiene 212 und zumindest eine dritte Schiene 213 aufweist. Die zumindest eine erste Schiene 211 kann im Wesentlichen horizontal und parallel zur Vorwärtsfahrtrichtung F des Roboters 100 verlaufen.
  • Die zumindest eine zweite Schiene 212 kann im Wesentlichen horizontal und senkrecht zu der Vorwärtsfahrtrichtung F des Roboters 100 verlaufen und in der Vorwärtsfahrtrichtung F verschieblich an der ersten Schiene 211 gelagert sein.
  • Die zumindest eine dritte Schiene 213 kann im Wesentlichen vertikal und senkrecht zu der Vorwärtsfahrtrichtung F des Roboters 100 verlaufen und senkrecht zur der Vorwärtsfahrtrichtung F des Roboters 100 verschieblich an der zweiten Schiene 212 gelagert sein.
  • An der zumindest einen dritten Schiene 213 kann ein Endeffektor 300, 312 in der Vertikalen verschieblich gelagert sein, um mittels der Ausrichteinheit 200 zur Aufnahme des erkannten, vorbestimmten Objekts 313 nach unten zum Untergrund 140 hin und nach der Aufnahme des erkannten, vorbestimmten Objekts 313 nach oben weg von dem Untergrund 140 bewegt zu werden. Bei dem Endeffektor kann es sich um einen, insbesondere mechanischen, Greifer 300 handeln (s. insbesondere 3).
  • Denkbar ist auch als Endeffektor ein Mundstück 312 vorzusehen (s. insbesondere 4). Das Mundstück 312 ist über einen flexiblen Saugrüssel bzw. Schlauch 314 und einen Teilchenabscheider 400 mit einem Saugmotor 440 verbunden (s. auch 5), der ebenfalls von dem oben beschriebenen Steuergerät gesteuert wird.
  • In 4 ist ein Ablauf der Aufnahme des erkannten, vorbestimmten Objekts 313 mit dem als Mundstück 312 ausgeführten Endeffektor, das einen im Wesentlichen runden bzw. kreisförmigen Querschnitt aufweist, in drei verschiedenen Stadien (in 4 von links nach rechts) gezeigt.
  • Initial (s. 4, links) wird das Mundstück 312 mittels der Ausrichteinheit 200 vertikal und im Wesentlichen mittig über dem erkannten, vorbestimmten Objekt 313 positioniert.
  • Nachfolgend wird das Mundstück 312 mittels der Ausrichteinheit 200 vertikal nach unten in Richtung des sich an, insbesondere auf, dem Untergrund 140 befindlichen erkannten, vorbestimmten Objekts 313 bewegt, sodass das Mundstück 312 das erkannte, vorbestimmte Objekt 313 umschließt und mit dem Untergrund 140 in Kontakt ist (s. 4, Mitte).
  • Der Roboter 100, hier das oben beschriebene Steuergerät, ist ausgestaltet, den Saugmotor 440 so anzusteuern, dass dieser einen Unterdruck im Saugrüssel 314 und damit auch im Mundstück 312 erzeugt, wenn bzw. sobald das Mundstück 312 auf dem Untergrund 140 aufgesetzt bzw. mit dem Untergrund 140 in Kontakt ist.
  • Dazu saugt der Saugmotor 440 Luft L1 durch eine Kammer 410 des Teilchenabscheiders 400 an, die einen Lufteinlass 420 aufweist, über den der Saugrüssel 314 mit der Kammer 410 verbunden ist, und stößt die angesaugte Luft L1 über einen Luftauslass 430 aus. Sobald der Saugmotor 440 eingeschaltet wird, d.h. sobald der Saugmotor 440 die Luft L1 ansaugt, schließt sich eine Klappe 450 (s. gestrichelte Linie in 5) der Kammer 410 und es entsteht der Unterdruck in dem Saugrüssel 314.
  • Nachdem der Saugmotor 440 den Unterdruck in dem Saugrüssel 314 erzeugt hat, wird das Mundstück 312 relativ zum Untergrund 140 mittels der Ausrichteinheit 200, insbesondere durch eine horizontale Bewegung der Ausrichteinheit 200 relativ zum Untergrund 140 und durch eine Haftreibung des Mundstückes am Untergrund 140, gekippt (s. 4, rechts).
  • Durch das Kippen des Mundstücks 312 erfolgt aufgrund des durch den Saugmotor 440 erzeugten Unterdrucks im Saugrüssel 314 ein Druckausgleich bzgl. des Umgebungsdrucks, wodurch ein Luftstrom L2 bedingt wird. Dieser durch das Kippen bedingte, ruckartige Luftstrom L2 strömt über das erkannte, vorbestimmte Objekt 313 und eine damit verbundene Sogwirkung befördert das erkannte, vorbestimmte Objekt 313 über den Saurüssel 314 in die Kammer 410 des Teilchenabscheiders 400.
  • Aufgrund der vergleichsweise hohen Masse und Trägheit des erkannten, vorbestimmten Objekts 313 verbleibt dies in der Kammer 410. Anschließend schaltet das Steuergerät den Saugmotor 440 ab und die Klappe 450 der Kammer 410 öffnet sich, sodass das sich in der Kammer 410 befindliche erkannte, vorbestimmte Objekt durch eine Öffnung, die durch die Öffnung der Klappe 450 entsteht, in das Auffangbehältnis 130 fällt (s. insbesondere 5).
  • Denkbar ist, dass der Roboter 100 einen Bereich, z.B. eine Rasenfläche, autonom abfährt. Zur oben beschriebenen Aufnahme des erkannten, vorbestimmten Objekts 313 stehen bleibt und nach der Aufnahme des erkannten, vorbestimmten Objekts 313 seine Fahrt fortsetzt.
  • Denkbar ist aber auch, dass der Roboter 100 das erkannte, vorbestimmte Objekt 313 während der Fahrt aufnimmt.
  • Ferner ist denkbar, dass der Bereich, den der Roboter 100 autonom abfährt und reinigt, mittels einer Nutzereingabe, z.B. via einem zum Roboter 100 verbindbaren Smartphone, festgelegt wird bzw. festlegbar ist.

Claims (10)

  1. Roboter (100), der zur Erkennung und Aufnahme von zumindest einem vorbestimmten Objekt (313) ausgestaltet ist, dadurch gekennzeichnet, dass der Roboter (100) so ausgestaltet ist, dass die Erkennung und Aufnahme des vorbestimmten Objekts (313) in einem Arbeitsraum (120) unter dem Roboter (100) erfolgt.
  2. Roboter (100) nach Anspruch 1, dadurch gekennzeichnet, dass der Roboter (100) eine Kamera (110) zur Erkennung des vorbestimmten Objekts (313) aufweist, die insbesondere vertikal zum Untergrund (140) unter dem Roboter (100) ausgerichtet ist.
  3. Roboter (100) nach Anspruch 2, dadurch gekennzeichnet, dass der Roboter (100) einen, insbesondere auf einem künstlichen neuronalen Netz basierenden, Objekterkennungsalgorithmus aufweist, der ausgestaltet ist, um das vorbestimmte Objekt (313) basierend auf von der Kamera (100) detektierten Bilddaten zu erkennen.
  4. Roboter (100) nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass der Roboter (100) ausgestaltet ist, um das vorbestimmte Objekt (313) selektiv aufzunehmen.
  5. Roboter (100) nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass der Roboter (100) zur Aufnahme des vorbestimmten Objekts (313) einen Endeffektor (300, 312) und eine Ausrichteinheit (200) aufweist, an der der Endeffektor verfahrbar befestigt ist.
  6. Roboter (100) nach Anspruch 5, dadurch gekennzeichnet, dass der Endeffektor ein, insbesondere flexibles, Mundstück (312), das über einen Saugrüssel (314) mit einem Saugmotor (400) verbunden ist, und/oder einen mechanischen Greifer (300) aufweist.
  7. Roboter nach Anspruch 6, dadurch gekennzeichnet, dass: - die Ausrichteinheit (200) ausgestaltet ist, das Mundstück (312) des Saugrüssels (314) so auf einen Untergrund (140) unter einem Arbeitsraum 120 des Roboters (100) aufzusetzen, dass das Mundstück (312) das vorbestimmte Objekt (313) umschließt, - der Roboter (100) ausgestaltet ist, den Saugmotor (400) so anzusteuern, dass dieser einen Unterdruck im Saugrüssel (314) erzeugt, wenn das Mundstück (312) auf dem Untergrund (140) aufgesetzt ist, und - die Ausrichteinheit (200) und/oder das Mundstück konstruktiv ausgestaltet ist, das Mundstück (312) zu kippen, wenn der Saugmotor (400) den Unterdruck im Saugrüssel (314) erzeugt hat, um das vorbestimmte Objekt (313) mittels des Saugrüssels (314) einzusaugen.
  8. Roboter nach Anspruch 6 oder 7, dadurch gekennzeichnet, dass der Roboter (100) einen, insbesondere als Trägheitsabscheider ausgeführten, Teilchenabscheider (400) aufweist, wobei das Mundstück (312) über den Saugrüssel (314) und den Teilchenabscheider (400) mit dem Saugmotor (400) verbunden ist.
  9. Roboter (100) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Roboter (100) eine Antriebseinheit aufweist, die ausgestaltet ist, um den Roboter (100) so anzutreiben, dass der Roboter (100) einen, insbesondere vorbestimmten, Bereich abfährt.
  10. Roboter (100) nach Anspruch 9, dadurch gekennzeichnet, dass die eine Antriebseinheit ausgestaltet ist, um den Roboter (100) so anzutreiben, dass der Roboter (100) den, insbesondere basierend auf einer vom Roboter (100) empfangenen Nutzereingabe vorbestimmten, Bereich autonomen und/oder ferngesteuert abfährt.
DE102021200989.1A 2021-02-03 2021-02-03 Roboter zur Erkennung und Aufnahme von zumindest einem vorbestimmten Objekt Pending DE102021200989A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102021200989.1A DE102021200989A1 (de) 2021-02-03 2021-02-03 Roboter zur Erkennung und Aufnahme von zumindest einem vorbestimmten Objekt
US18/275,350 US20240227169A9 (en) 2021-02-03 2022-02-02 Robot for detecting and picking up at least one predetermined object
EP22706748.5A EP4288248A1 (de) 2021-02-03 2022-02-02 Roboter zur erkennung und aufnahme von zumindest einem vorbestimmten objekt
PCT/EP2022/052441 WO2022167468A1 (de) 2021-02-03 2022-02-02 Roboter zur erkennung und aufnahme von zumindest einem vorbestimmten objekt

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021200989.1A DE102021200989A1 (de) 2021-02-03 2021-02-03 Roboter zur Erkennung und Aufnahme von zumindest einem vorbestimmten Objekt

Publications (1)

Publication Number Publication Date
DE102021200989A1 true DE102021200989A1 (de) 2022-08-04

Family

ID=80595311

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021200989.1A Pending DE102021200989A1 (de) 2021-02-03 2021-02-03 Roboter zur Erkennung und Aufnahme von zumindest einem vorbestimmten Objekt

Country Status (4)

Country Link
US (1) US20240227169A9 (de)
EP (1) EP4288248A1 (de)
DE (1) DE102021200989A1 (de)
WO (1) WO2022167468A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190271125A1 (en) 2018-03-05 2019-09-05 Dawn Fornarotto Robotic feces collection assembly
US20200150696A1 (en) 2012-09-19 2020-05-14 Krystalka R. Womble Method and System for Remote Monitoring, Care and Maintenance of Animals
DE102018132964A1 (de) 2018-12-19 2020-06-25 Enway Gmbh Autonome reinigungsvorrichtung mit einem saugarm

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6671582B1 (en) * 2002-08-26 2003-12-30 Brian P. Hanley Flexible agricultural automation
SE544741C2 (en) * 2018-05-11 2022-11-01 Genie Ind Bv Waste Sorting Gantry Robot and associated method
KR20210074324A (ko) * 2018-10-08 2021-06-21 어드밴스드 팜 테크놀로지스, 인크. 자율 작물 수확기
DE102020121554A1 (de) * 2020-08-17 2022-02-17 Thorsten Seckert Robotersystem und mobiler Roboter zum Pflücken von stielbehafteten Früchten einer Pflanze
SE544102C2 (en) * 2020-10-28 2021-12-21 Zenrobotics Oy Waste sorting robot with throw sensor for determining position of waste object

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200150696A1 (en) 2012-09-19 2020-05-14 Krystalka R. Womble Method and System for Remote Monitoring, Care and Maintenance of Animals
US20190271125A1 (en) 2018-03-05 2019-09-05 Dawn Fornarotto Robotic feces collection assembly
DE102018132964A1 (de) 2018-12-19 2020-06-25 Enway Gmbh Autonome reinigungsvorrichtung mit einem saugarm

Also Published As

Publication number Publication date
WO2022167468A1 (de) 2022-08-11
US20240227169A9 (en) 2024-07-11
EP4288248A1 (de) 2023-12-13
US20240131690A1 (en) 2024-04-25

Similar Documents

Publication Publication Date Title
EP2982285B1 (de) Bodenreinigungsgerät zur trocken- und feuchtreinigung sowie verfahren zum betrieb eines selbstfahrenden bodenreinigungsgerätes
EP1938154B1 (de) Selbsttätig verfahrbares bodenstaub-aufsammelgerät
DE102010017213A1 (de) Entleerungsstation für einen Schmutzsammelbehälter eines Reinigungsgerätes sowie Verfahren hierzu
EP2946712A1 (de) Selbstfahrendes bodenreinigungsgerät mit einem einem führungsfahrzeug folgenden folgefahrzeug
WO2019121804A1 (de) Reinigungsvorrichtung und verfahren zum betreiben einer reinigungsvorrichtung
DE10258781A1 (de) Automatischer Staubsauger mit Luftumwälzung
EP3409168B1 (de) Eckenreinigungsmodul für modular aufgebaute reinigungsroboter
EP3409165B1 (de) Stützanordnung an einem reinigungsroboter
DE102013103086A1 (de) Absaugstation für ein selbsttätig verfahrbares Bodenreinigungsgerät sowie Kombination einer Absaugstation mit einem solchen Gerät
DE102014101969B4 (de) Reinigungssystem
DE102018222657A1 (de) Verfahren zum Reinigen eines Innenraums eines Fahrzeugs, mobiler Reinigungsroboter, mobile Hebevorrichtung und System
EP3725202A1 (de) Sich selbsttätig fortbewegender saugroboter sowie system aus einem sich selbsttätig fortbewegenden saugroboter und einem externen saugreinigungsgerät
DE102014001482A1 (de) Entsorgungsfahrzeug mit zumindest einer Zuführungseinrichtung für die Aufnahme von Reststoffen oder dergleichen
DE102021200401B3 (de) Verfahren zur autonomen Bearbeitung von Bodenflächen
DE102021200989A1 (de) Roboter zur Erkennung und Aufnahme von zumindest einem vorbestimmten Objekt
DE102018132964A1 (de) Autonome reinigungsvorrichtung mit einem saugarm
DE102021006233A1 (de) Vorrichtung zur Aufnahme von Zigarettenkippen, Papier, Abfällen im Außenberech mit automatischer Trennung und Separierung der Zigarettenkippen
EP3893710B1 (de) Gerät zur reinigung verschmutzter oberflächen
DE102007008910A1 (de) Verfahren zum Betreiben eines autonomen selbstfahrenden Mähgerätes
DE102022207089B4 (de) Bearbeitungsgerät zur Vorbereitung einer Bodenfläche
DE19711298A1 (de) Verfahren und Vorrichtung zum Sammeln von Gegenständen
DE102019135791B4 (de) Vorrichtung und Verfahren zum Auflesen von Steinen von landwirtschaftlichen Nutzflächen
DE202019107240U1 (de) Vorrichtung zum Auflesen von Steinen von landwirtschaftlichen Nutzflächen
DE202021003813U1 (de) Vorrichtung zur Aufnahme von Zigarettenkippen, Papier, Abfällen im Außenberech mit automatischer Trennung und Separierung der Zigarettenkippen
DE2718801A1 (de) Vorrichtung zum reinigen von koksofendecken, z.b. von kohlenstaub und koksgrus

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: ADVOTEC. PATENT- UND RECHTSANWALTSPARTNERSCHAF, DE

Representative=s name: TAUTZ & SCHUHMACHER PATENTANWAELTE GBR, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: E01H0001040000

Ipc: E01H0001000000

R082 Change of representative

Representative=s name: ADVOTEC. PATENT- UND RECHTSANWALTSPARTNERSCHAF, DE

R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: ANGSA ROBOTICS GMBH, DE

Free format text: FORMER OWNERS: BILAL, TARIQ, 85591 VATERSTETTEN, DE; SCHULZ, KARL, 81667 MUENCHEN, DE; WIESMEIER, LUKAS, 82041 OBERHACHING, DE