DE102021103038A1 - Verfahren und System zur Beförderung eines Roboters in einem Aufzug - Google Patents

Verfahren und System zur Beförderung eines Roboters in einem Aufzug Download PDF

Info

Publication number
DE102021103038A1
DE102021103038A1 DE102021103038.2A DE102021103038A DE102021103038A1 DE 102021103038 A1 DE102021103038 A1 DE 102021103038A1 DE 102021103038 A DE102021103038 A DE 102021103038A DE 102021103038 A1 DE102021103038 A1 DE 102021103038A1
Authority
DE
Germany
Prior art keywords
elevator
robot
floor
people
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021103038.2A
Other languages
English (en)
Inventor
Christian STERNITZKE
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Metralabs Neue Tech und Systeme GmbH
METRALABS NEUE TECHNOLOGIEN und SYSTEME GmbH
Original Assignee
Metralabs Neue Tech und Systeme GmbH
METRALABS NEUE TECHNOLOGIEN und SYSTEME GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Metralabs Neue Tech und Systeme GmbH, METRALABS NEUE TECHNOLOGIEN und SYSTEME GmbH filed Critical Metralabs Neue Tech und Systeme GmbH
Publication of DE102021103038A1 publication Critical patent/DE102021103038A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0225Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving docking at a fixed facility, e.g. base station or loading bay
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B1/00Control systems of elevators in general
    • B66B1/34Details, e.g. call counting devices, data transmission from car to control system, devices giving information to the control system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B1/00Control systems of elevators in general
    • B66B1/34Details, e.g. call counting devices, data transmission from car to control system, devices giving information to the control system
    • B66B1/46Adaptations of switches or switchgear
    • B66B1/468Call registering systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B17/00Hoistway equipment
    • B66B17/14Applications of loading and unloading equipment
    • B66B17/16Applications of loading and unloading equipment for loading and unloading mining-hoist cars or cages
    • B66B17/20Applications of loading and unloading equipment for loading and unloading mining-hoist cars or cages by moving vehicles into, or out of, the cars or cages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B2201/00Aspects of control systems of elevators
    • B66B2201/40Details of the change of control mode
    • B66B2201/46Switches or switchgear
    • B66B2201/4607Call registering systems
    • B66B2201/463Wherein the call is registered through physical contact with the elevator system
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

Die Erfindung umfasst ein Verfahren und ein System zur Beförderung eines mobilen Roboters in einem Aufzug unter Einbezug der Überwachung von Aufzug-Bedienkomponenten sowie von Personen, die sich um Umfeld des Aufzugs befinden und die den Aufzug bedienen, indem sie eine Etage wählen, in die der mobile Roboter sich bewegen soll. In einem Aspekt erfolgt eine Nutzung eines Inertialsensors zum Erlernen bzw. Ermitteln der Etagenzahl. Der Roboter kann auch implementierte Verfahren aufweisen, um den Flächenbedarf innerhalb des Aufzugs abzugleichen bzw. sich derart vor dem Aufzug positionieren, dass er bspw. die Bedienung von Aufzug-Bedienkomponenten überwachen kann, ohne aus Perspektive der Aufzugnutzer als Hindernis wahrgenommen zu werden.

Description

  • Gebiet der Erfindung
  • Die Erfindung umfasst ein Verfahren und ein System zur Beförderung eines Roboters in einem Aufzug.
  • Hintergrund der Erfindung
  • Im Rahmen der zunehmenden Automatisierung werden immer mehr Aufgaben von Robotern übernommen. Dies trifft nicht nur auf Roboter zu, die stationär an Fertigungsstraßen installiert sind, sondern auch auf solche mobilen Roboter, die sich autonom vor allem innerhalb von Gebäuden bewegen. Darunter fallen einerseits Transportroboter, die bspw. in Lagern eingesetzt werden, um Waren von einer Position zu einer anderen Position in dem Lager zu transportieren, sondern auch solche Roboter, die direkt mit Menschen interagieren, seien es Roboter, die als mobile Informationsportale zur Verfügung stehen, Diagnosen oder Therapien am Menschen vornehmen oder gar solche, die Menschen direkt durch Aktoren bei körperlichen Tätigkeiten unterstützen.
  • Alle diese Tätigkeiten können innerhalb von Gebäuden ausgeübt werden. Manchmal ist es so, dass der Roboter auf mehreren Etagen oder Ebenen eines Gebäudes operieren muss. So kann bspw. der Roboter instruiert werden, eine Last von einer Etage in die nächste Etage zu transportieren, oder der Roboter kann auf einer Etage seine Ladestation haben, auf der anderen Etage aber die Aufgabe erfüllen müssen, Informationen bereitzustellen oder über seine Sensorik-Daten zu erfassen, bspw. im Rahmen von Diagnosen oder Therapien.
  • Der Roboter muss hierzu, sofern der Roboter nicht in der Lage ist, Treppen zu steigen, einen Aufzug benutzen. Die nachfolgende Offenbarung beschreibt eine Implementierung eines Roboters, die diese Nutzung eines Aufzugs ermöglicht, ohne dass der Roboter mit der Aufzugsteuerung auf elektronischem Weg interagiert und ohne Wissen über die Höhe einer Etage. Vielmehr stellen das System, die Vorrichtung und die Methode darauf ab, mit Menschen zu interagieren, die gleichfalls den Aufzug nutzen möchten. Dazu verfügt der Roboter über verschiedene Navigationsfähigkeiten und Erfassungsfähigkeiten, um sein Umfeld zu beobachten und daraus Ableitungen über die richtigen Etagenzahl zu erhalten, aber auch, um die Bewegungen von Menschen in seinem Umfeld möglichst wenig zu beeinträchtigen.
  • Stand der Technik
  • Im Stand der Technik sind viele Ansätze dazu bekannt, die vorsehen, dass ein Roboter über eine Schnittstelle im Datenaustausch mit einem Aufzug-Kontrollsystem steht. Dazu zählen etwa CN108455393 , CN108861905 , CN105600631 , CN105858383 , CN105881553 , CN107055241 , CN108002151 , CN108163653 , CN109205406 , CN108382933 , KR20100077920 , KR20100080278 , JP2011088721 , JP2012106866 , JPH05210414 , JPH05210414 , JP2005018382 , JP2007210801 , JP2009051617 . Im Stand der Technik herrscht außerdem das Paradigma vor, dass Roboter und Menschen nicht zeitgleich einen Aufzug nutzen sollen ( JP2012106866 JP2005053671 , JP2006089262 , JP2007210801 , JP2009051617 ), so dass der Roboter bspw. einen Aufzug nur nutzt, wenn sich keine Menschen darin befinden ( CN105881553 ), der Aufzug keine Menschen zusteigen lässt, wenn der Roboter ihn benutzt, etc. Der Grund hierfür ist mglw., dass der Roboter durch seine Navigation Menschen gefährden könnte, indem der Roboter mit den Menschen im Aufzug unbeabsichtigt kollidiert.
  • Im Stand der Technik gibt es Lösungsansätze, die bei der Ortung der Etage darauf abstellen, sowohl vor dem Aufzug als auch innerhalb die Aufzug-Anzeigeelemente anzeigen aufzuzeichnen und die Aufnahmen auszuwerten, um zu erkennen, welche Etage angezeigt wird bzw. ob der Aufzug auf dem Weg ist. Sofern keine Aufzug-Anzeigeelemente erkennbar sind, nimmt der Roboter eine zeitliche Schätzung vor ( CN105565094 ).
  • Die Bedienung des Aufzugs erfolgt im Stand der Technik auf unterschiedlichem Weg. In einem Aspekt werden Roboter mit Aktoren beschrieben, die dazu konfiguriert sind, die Aufzugtasten zu drücken ( CN107538463 , CN108297061 , JP2008162758 ).
  • Ein anderer Ansatz ( CN108002154 ) wiederum zielt darauf ab, dass der Roboter über eine Sprachausgabe mit Personen in seiner Umgebung derart kommuniziert, dass diese Personen zunächst die Aufzugruftaste drücken. Der Roboter überwacht den Öffnungszustand der Aufzugtür und fährt nach Öffnen in den Aufzug hinein. Der Roboter fordert die Personen über eine Sprachausgabe auf, im Aufzug die Etagentaste zu drücken. Der Roboter detektiert die Etagenzahl durch Messen des Luftdrucks und verlässt den Aufzug nach Öffnen der Tür, um zu seiner Zielposition auf der Zieletage zu navigieren. Für diese Auswertung ist es notwendig, die Etagenhöhe zu ermitteln, um die Etagenzahl korrekt zu bestimmen.
  • In einem anderen Ansatz ( EP3453663 ) überwacht ein Roboter durch einen Beschleunigungssensor die Etage, in der der Roboter sich befindet. Der Roboter erhält Angaben über die momentane Erdbeschleunigung in einem statischen Zustand in dem Aufzug und über die Beschleunigung des Roboters in einem sich bewegenden Zustand in dem Aufzug, sowie eine Anfangsetagennummer. Darüber hinaus sind Informationen über die Etagenhöhe notwendig. Durch diese Angaben kann der Roboter seine Position und Etage berechnen.
  • In CN107826917 wird eine Geräuschquelle eingesetzt, die als Referenzmarke für die Etagenidentifizierung dient und über deren Schallintensität sich die zurückgelegte Distanz durch den Roboter ermitteln lässt, wobei Etagen jeweils ein Intensitätsniveau zugeordnet ist, welches mit der auf der Etage durch den Roboter erfassten Schallintensität verglichen wird.
  • In CN 108002154 wird ein Roboter beschrieben, der über einen Luftdrucksensor verfügt und durch Änderungen im Luftdruck auf Änderungen der Etage rückschliesst.
  • JP2009258821 beschreibt einen Roboter, der basierend auf einem maximalen Zuladegewicht eines Aufzugs das Gewicht seiner Zuladung anpassen kann bzw. auch das maximale Zuladungsgewicht eines Aufzugs beeinflussen kann. In JP2012106866 misst ein Aufzug das Gewicht und gibt einem Roboter dazu Feedback, um dessen Gewicht zu modifizieren.
  • Kurzfassung der Erfindung
  • Ein computer-implementiertes Verfahren zur Beförderung eines Roboters in einem Aufzug zu einer vorbestimmten Etage wird in diesem Dokument offenbart. Das Verfahren umfasst: Erfassung von Personen im Umfeld des Roboters, Erkennung einer Aufzug-Bedienkomponente für den Aufzug, Überwachung der Aufzug-Bedienkomponente oder einer Aufzug-Anzeigeelement zur Erkennung von ausgewählten Etagen, und Aufforderung an zumindest eine der erfassten Personen zum Auswählen der vorbestimmten Etage mittels der Aufzug-Bedienkomponente.
  • In einem Aspekt des Verfahrens umfasst die Überwachung der Aufzug-Bedienkomponente eine Überwachung von Körperteilpositionen z.B. die Positionen von Fingern oder Händen von mindestens einer der erfassten Personen bei der Auswahl der Etagen mittels der Aufzug-Bedienkomponente. Diese Erfassung der Personen kann durch eine Erstellung eines sogenannten Skelettmodells erfolgen und somit erfolgt die Überwachung der Körperteilpositionen auf Basis von erfassten Gelenkpunkten z.B. am Handgelenk aus dem Skelettmodell.
  • In einem Aspekt umfasst des Verfahrens auch die Ermittlung einer Distanz zwischen den Aufzug-Bedienkomponenten und den Körperteilpositionen von mindestens einem der erkannten Personen. Die Distanz kann berechnet werden und bei Unterschreiten eines Schwellwerts wird ein Ereignis ausgelöst. Das Ereignis kann umfassen z.B. ein Rufen des Aufzugs, ein Auswählen der vorbestimmten Etage oder eine Aufforderung an eine der erkannten Personen zum Auswählen der vorbestimmten Etage mittels der Aufzug-Bedienkomponente.
  • Die Erkennung der Aufzug-Bedienkomponente erfolgt durch Aufnahme eines Bildes und Klassifikation des aufgenommenen Bildes. Die Erfassung eines Aufzug-Anzeigeelements ermöglicht eine Erkennung der Etage des Aufzugs, wobei auch ein Vergleich der erkannten Etage mit der vorbestimmten Etage erfolgen kann.
  • Bei Erreichen der vorbestimmten Etage verlässt der Roboter den Aufzug.
  • In einem weiteren Aspekt umfasst das Verfahren auch eine Aufstellung des Roboters in einer Roboterposition vor dem Aufzug, wobei die Roboterposition so ausgewählt ist, dass eine Distanz zwischen der Roboterposition und einer Aufzugtür von dem Aufzug von einer vorbestimmten Geschwindigkeit des Roboters und einer Öffnungszeit der Aufzugtür oder von der Wahrscheinlichkeit eines Treffens eines beweglichen Hindernisses abhängt.
  • Das Verfahren kann zusätzliche die Ermittlung einer ausreichend großen, freien Fläche für den Roboter im Aufzug umfassen.
  • Diese Beschreibung offenbart auch ein System zur Beförderung eines Roboters in einem Aufzug zu einer vorbestimmten Etage mit den folgenden Merkmalen: mindestens einen Sensor zur Erkennung von Personen im Umfeld des Roboters, mindestens eine Kamera zur Aufnahme von Bildern einer Aufzug-Bedienkomponente in oder vor dem Aufzug (die identisch sein kann mit dem vorgenannten Sensor), einer Ausgabeeinheit zur Ausgabe von Aufforderungen an Personen in dem Aufzug, und einer Bildklassifikationseinheit zur Erkennung einer ausgewählten Etage durch Vergleich der aufgenommenen Bilder mit abgespeicherten Mustern in einer Datenbank. Das System kann auch ein Personenerkennungsmodul zur Erstellung eines Skelettmodells der Personen umfassen. Die Kamera ermöglicht die Aufnahme von Bildern eines Aufzug-Anzeigeelemente.
  • In einem weiteren Aspekt enthält das System mindestens einen Speicher. Der Speicher enthält z.B. Regeln zur Erfassung der Distanz zwischen einer Aufzug-Bedienkomponente und eines Körperteils, Regeln zur Detektion der Bedienung des Aufzugs, Regeln zur Detektion der Bewegungsrichtung des Aufzugs, Regeln zur Detektion der Zieletage des Aufzugs, Regeln zur Auswahl einer Roboterposition zur Aufstellung des Roboters vor einer Aufzugtür des Aufzugs, oder Regeln zur Ermittlung der freien Fläche innerhalb des Aufzugs.
  • Figurenliste
  • Die Erfindung wird nun anhand der folgenden Zeichnungen näher beschrieben. Es zeigen:
    • 1 eine mögliche Architektur des Roboters;
    • 2 Roboter und mit dem Roboter verbundenes System
    • 3 den Ablauf der Positionierung eines Roboters vor dem Aufzug;
    • 4 Aufzug-Bedienkomponenten und Aufzug-Anzeigeelemente außerhalb des Aufzugs
    • 5 Aufzug-Bedienkomponenten und Aufzug-Anzeigeelemente innerhalb des Aufzugs
    • 6 den Ablauf der Personenansprache vor dem Aufzug;
    • 7 Belegtheitskarten
    • 8 den Ablauf der Platzermittlung innerhalb des Aufzugs;
    • 9 die Erkennung der Etagenzahl;
    • 10 Personenströme und Wartepositionen vor Aufzug
    • 11 die Berücksichtigung des Gewichts und Aufzugladung des Roboters;
    • 12 die Ermittlung der Etage;
    • 13 System zur Implementierung innerhalb eines Aufzugs.
  • Detaillierte Beschreibung der Erfindung:
  • Eine mögliche Implementierung des in diesem Dokument beschriebenen Roboters 1 ist in 1 dargestellt (Systemarchitektur) (und teils 2). Ein Roboter 1 verfügt bspw. über mindestens drei Räder 805, davon mindestens zwei Antriebsräder. Die Antriebsräder werden durch eine Steuerung 41 kontrolliert und von einer Stromquelle mit Energie versorgt, z.B. von einem Akkumulator 825. Des Weiteren verfügt der Roboter 1 über eine Vorrichtung, um die Stromquelle selbst wieder mit Energie zu versorgen, in einem Aspekt über eine Schnittstelle zum Andocken an eine Ladestation zum Aufladen des Akkumulators 825 sowie die dazu notwendige Elektronik (d.h. einen Ladeport und Ladeelektronik 40). Der Roboter 1 kann darüber hinaus über weitere Rechner bzw. Prozessoren verfügen.
  • Der Roboter 1 kann über ein Display 37, einen Lautsprecher 42 und ggf. ein Mikrofon 43 und/oder Bedienelemente 36 verfügen. Der Roboter 1 ist mit mindestens einer Drahtlosschnittstelle 38 ausgestattet, bspw. einem WLAN oder GSM/UMTS/LTE/5G-Modul. Alternativ kann, in einem optionalen Aspekt, die mindestens eine Drahtlosschnittstelle 38 zum Ansteuern (monodirektional) und/oder der bidirektionalen Kommunikation von Gebäude-bezogenen Anlagen wie dem ferngesteuerten Öffnen und Schließen von(Automatik- )Türen, zum Auslösen von Signalen optischer und /oder akustische Signalisierungseinrichtungen, etc. vorhanden sein. Dabei kommt als Übertragungsstandard bspw. Bluetooth, ZigBee, ISM/ 433/ 868 MHz (Sub-1-Ghz)-Transceiver oder Infrarot (IrDA) zum Einsatz. Ebenso können im Gebäude bzw. im Fahrbereich an bekannten Orten montierte Schalter / Taster, Eingabegeräte vorgesehen sein, um den Roboter 1 z.B. zur Stelle zu rufen (z.B. Abholung vom Transportgut) oder um andere bestimmte Aktionen auszulösen, welche über die Drahtlosschnittstelle 38 kommunizieren. Es findet über die mindestens eine Drahtlosschnittstelle 38 ein Informationsaustausch mittels eines Übertragungsprotokolls statt. Bei diesem Informationsaustausch werden z.B. in einem optionalen Aspekt mit Zeitbezug (Zeitstempel) Informationen wie die Position des Roboters 1 (bspw. auf einer Karte), die aktuelle Geschwindigkeit und die geplante Route übertragen. Erhält der Roboter 1 die Route eines anderen Roboters, wird diese erhaltene Route als dynamisches Hindernis in der Karte des (ersten) Roboters 1 eingetragen und/oder in der Pfadplanung im Pfadplanungsmodul 13 berücksichtigt, zum Beispiel wenn ein Distanzschwellwert zwischen dem ersten Roboter 1 und dem anderen Roboter unterschritten wird. Der Roboter 1 besitzt bspw. mindestens einen LIDAR 34, der mit einem der Rechner oder Prozessoren verbunden ist. In einem alternativen oder ergänzenden Aspekt kann auch mindestens eine Kamera 35 zum Einsatz kommen, z.B. eine RGB-D-Kamera mit Speckle- oder Time-of-Flight-(ToF)-Technologie.
  • Auf der Ebene der Roboter-Fähigkeiten (Softwareebene) 5 ist der Roboter 1 mit einem Navigationsmodul 10 ausgestattet, einem Umfelderfassungs-Modul 12 für die 2D/3D-Umfelderfassung, das bspw. Daten des Umfelderfassungssensors 46 weiterprozessiert, und ein Kartierungs-Modul 18 zur Kartierung der Umgebung, in der sich der Roboter 1 bewegt. Dies bedeutet, dass der Roboter 1 seine Umgebung sensorisch erfasst, dabei bspw. Hindernisse registriert und darauf basierend eine Karte erstellt. Die Karte selbst kann im Karten-Modul 11 abgelegt werden und bspw. „verbotene“ Bereiche (oder nicht betretbare Bereiche) umfassen wie bspw. Gullideckel, Wasserrinnen, Dehnungsfugen, Türschwellen, Treppen, etc., die umfahren werden sollen. In einem Aspekt kann eine schon vorher erstellte Karte auch in den Roboter-Speicher 820 übertragen werden, bspw. über die Cloud. In dem Falle wäre keine Kartierung durch den Roboter notwendig. Weiterhin verfügt das Navigationsmodul 10 bspw. über ein Lokalisierungs-Modul 15 für die Selbstlokalisierung, vorzugsweise innerhalb einer kartierten Umgebung. Der Roboter kann über ein Pfadplanungsmodul 13 für die metrische Pfadplanung verfügen, das dafür sorgt, dass der Roboter 1 effizient den eigenen, zurückzulegenden Weg bspw. unter Optimierung verschiedener Kriterien einen optimalen Pfad berechnen kann. In einem Aspekt kann ein Bewegungsplaner 16 dazu genutzt werden, u.a. basierend auf den Ergebnissen der (metrischen) Pfadplanung aus dem Pfadplanungsmodul 13 eine optimale Wegstrecke für den Roboter unter Berücksichtigung bzw. Optimierung verschiedener Kostenfunktionen zu errechnen. Als Kostenfunktionen fungieren neben den Daten aus der Pfadplanung z.B. auch solche aus der Hindernisvermeidung, einer Vorzugsfahrrichtung, usw. Hierbei kann bspw. der Dynamic Window Approach zum Einsatz kommen. Ein Energieüberwachungs-Modul 19 für das automatische Laden sorgt bspw. dafür, dass der Roboter 1 bei niedrigem Energiestand automatisch eine Ladestation aufsucht, dort andockt und seinen Akkumulator 825 auflädt.
  • Der Roboter 1 kann auf dieser Ebene ebenfalls über ein Modul zur Selbstblockadedetektion 14 verfügen, was es dem Roboter 1 ermöglicht, im Falle einer Blockade durch fixe oder bewegliche Hindernisse, die zu einem Stop der Roboterbewegungen in einer Stop-Position geführt haben, sich von dieser Stop-Position wegzubewegen und bspw. seinen Auftrag weiter auszuführen. Weiterhin kann der Roboter 1 über ein Lokalisierungs-Modul 15 verfügen, welches dem Roboter 1 hilft, durch Abtasten seines Umfelds mittels der vorhandenen Sensorik seine Position auf einer im Navigationsmodul 10 enthaltenen Karte (siehe Kartenmodul 11) zu bestimmen. Ein optionales Wartepositions-Ermittlungsmodul 17 enthält Regeln, nach denen der Roboter 1 eine Warteposition einnimmt, während eines Auftrags und/oder zwischen verschiedenen Aufträgen. Diese Regeln werden weiter unten näher erläutert.
  • In einem Aspekt verfügt der Roboter 1 über ein Personenerkennungsmodul 20. Ein Personenidentifizierungsmodul 21 wird für die Personenidentifizierung eingesetzt, ein visuelles Personentrackingmodul 22 für visuelles Personentracking primär via einer Kamera, ein optionales, laserbasiertes Personentrackingmodul 23 für LIDAR-basiertes Personentracking. Daneben gibt es bspw. ein Skelettmodell-Erstellungsmodul 24 für eine Skelettmodell-Erstellung. Dieses Skelettmodell-Erstellungsmodul 24 kann auf Basis von mittels Kamera 35 erfassten Daten ein Skelettmodell erstellen, wie weiter unten näher dargestellt wird. Die Personen-Identifizierung im Personenidentifizierungsmodul 21 kann mittels Skelettmodell-Erstellung erfolgen, wie sie Auswertungs-Frameworks von 2D und 3D-Kameras und/oder Frameworks wie OpenCV, OpenPose, etc. ermöglichen. Eine Synchronisierung der Aufzeichnungen der Sensoren, die die Skelettmodell-Erstellung umsetzen und einer RGB-Aufnahme ermöglichen es, Körperregionen der getrackten Person Farben und/oder Farbmuster und/oder Texturen von Kleidung zuzuordnen, die bspw. von der Kleidung der Person stammen. Auf Basis der Parameter Farbe bzw. Farbmuster pro Körperregion und/oder auch Größenparameter des Patienten (Körperhöhe, Armlänge, Beinlänge) lassen sich Personen im Zeitablauf tracken und auch wiedererkennen. Alternativ und/oder ergänzend können auch Gangmuster und/oder eine aus dem Stand der Technik bekannte Gesichtserkennung genutzt werden.
  • Auf der Hardwareebene 30 sind verschiedene Komponenten implementiert. Darunter ist ein Odometrie-Modul 31, d.h. eine Mess- und Steuereinheit für die Odometrie-Funktion, welche mit dem Navigationsmodul 10 über eine Schnittstelle verbunden ist. Druckempfindliche Stoßstangen 32 (bzw. kombinierte Gummi-gepufferte Schaltleisten mit Aufprallschutz) befinden sich im Abstand von vorzugweise mehr als 10 Millimeter über dem Boden und erlauben eine Kollisionsdetektion. Alternativ und/oder ergänzend können auch ToF-Sensoren 33 und/oder sog. Nahbereichs-LIDAR-/ Radar-/ Ultraschallsensoren als Abstandssensoren genutzt werden. Sofern eine Kollision detektiert wird, wird ein sofortiger Stopp des Differentialantriebs 40 ausgelöst. Dieser Differentialantrieb 40 stellt ansonsten die generelle Fortbewegung des Roboters 1 sicher. Ein Ladeport mit zugehöriger Ladeelektronik 41 ermöglicht es, den integrierten Akkumulator 825 wieder aufzuladen und von einer externen Ladevorrichtung mit entsprechender Energie versorgt zu werden. Die Motorsteuerung 44 kann in einem Aspekt Teil der (Roboter)steuerung 41 sein und bspw. den Inertialsensor 45 enthalten.
  • 2 stellt eine andere Sichtweise auf den Roboter 1 in einer beispielhaften Konfiguration dar. Der Roboter 1 verfügt über Räder 805, einen LIDAR 34 und eine Kamera 35, welche bspw. zusammen zu Navigationszwecken eingesetzt werden. Der Roboter 1 verfügt über einen Umfelderfassungssensor 46, wozu Kamera 35 oder LIDAR 34 zählen können, aber auch andere Sensoren zur berührungslosen Umfelderfassung wie Radar, Ultraschall oder Infrarotsensoren. Die Steuerung 41 verfügt über eine Steuerung-Prozessoreinheit 830 und einen Steuerungsspeicher 835. Der Roboter 1 verfügt ferner über einen Roboter-Rechner 810 mit einem Roboter-Prozessor 815 und einem Roboter-Speicher 820. Über die Drahtlosschnittstelle 38 ist der Roboter 1 mit einem Cloud-Server 850 (d.h. einem Server in der Cloud) verbunden, der einen Cloud-Prozessor 855 und einen Cloud-Speicher 860 aufweist. Die beschriebenen Softwaremodule und die nachfolgend beschriebenen Regeln können im Roboter-Speicher 820 hinterlegt sein oder ggf. auch im Cloud-Speicher 860, sofern der Roboter 1 eine Online-Verbindung über eine Schnittstelle (z.B. 38) dorthin aufweist.
  • Der Ablauf der Positionierung eines Roboters 1 vor dem Aufzug 700 wird nun an Hand von 3 beschrieben. Der Roboter 1 erhält im Schritt 105 einen Auftrag, der mit einer bestimmten geographischen Position verbunden ist. Dabei kann, in einem Aspekt, die geographische Position über dreidimensionale Koordinaten abgebildet werden, wobei die Höhendimension Informationen über die Etage beinhaltet, in welchem der Auftrag durchgeführt werde soll. Alternativ und/oder ergänzend ist der Auftrag mit separaten Informationen über die Etage assoziiert. Dieser Auftrag kann entweder über die Drahtlosschnittstelle 38 den Roboter 1 erreichen oder aber im Roboter-Speicher 820 abgelegt sein. Der Auftrag kann sowohl einmaliger Natur als auch, in bestimmten Zeiträumen, wiederkehrend sein. Unter der geographischen Position kann sowohl eine feste Koordinate verstanden werden als auch ein Bereich, der über mehrere Koordinaten beschrieben wird (bspw. derart, dass der Auftrag zwischen zwei Koordinaten auf einer Ebene ausgeführt werden soll). Wie oben aufgeführt verfügt der Roboter 1 verfügt über das Navigationsmodul 10, welches über Karten des Umfelds verfügt (bspw. innerhalb des Karten-Moduls 11), in dem der Roboter sich bewegt. Dieses Navigationsmodul 10 kann, in einer Ausführungsform, über eine Cloudanwendung aktualisiert werden, wobei über den Cloud-Server 850 bzw. im Cloud-Speicher 860 bspw. eine Karte in Roboterspeicher 820 übertragen wird (siehe 2), wo die Karte im Navigationsmodul 10 abgelegt wird. In einer weiteren Ausführungsform ist dieses Navigationsmodul 10 in der Cloud angesiedelt und der Roboter 1 kann in real-time über der Drahtlosschnittstelle 38 darauf zugreifen. Hierbei würde sich bspw. das Navigationsmodul 10 im Cloud-Speicher 860 befinden (siehe 2).
  • Die nachfolgenden Berechnungsschritte, welche die Navigation des Roboters 1 betreffen, werden bspw. im Navigationsmodul 10 ausgeführt. Der Roboter 1 vergleicht im Roboter-Prozessor 815 im Schritt 110 die Etage der Zielposition, die sich aus seinem Auftrag ergibt, mit der Etage der gegenwärtigen Position, wobei sich die Etage der Zielposition aus den mit dem Auftrag verbundenen Koordinaten ergibt und die gegenwärtige Etage bspw. aus dem Modul zur Selbstlokalisierung 15. Ist im Schritt 110 die Etage der Zielposition identisch mit der Etage der gegenwärtigen Position, navigiert der Roboter 1 im Schritt 115 zur geographischen Position der Zielposition auf der Karte, ohne die Etage zu wechseln. Stimmen die Etagen der Zielposition und der gegenwärtigen Position nicht überein, prüft der Roboter 1 im Roboter-Prozessor 815 im Schritt 120 der Roboter 1 auf Basis seiner gegenwärtigen Position und der Karte, wo sich der nächstgelegene Aufzug 700 auf der Etage befindet. Dabei kann bspw. die euklidische Distanz zwischen den Koordinaten der gegenwärtigen Position 110 des Roboters 1 und den Koordinaten von mindestens zwei Aufzügen 700 ermittelt werden und dann der Aufzug 700 ausgewählt werden, dessen euklidische Distanz kürzer ist (bei einem einzeln Aufzug 700 erübrigt sich die Berechnung zur Ermittlung des kürzeren Wegs, und der Roboter 1 kann direkt zum Aufzug 700 fahren). Die Berechnung der euklidischen Distanz kann auch etwaige Hindernisse auf dem Weg zum Aufzug berücksichtigen. Der Roboter 1 ermittelt ebenfalls, ob der Roboter 1 im Aufzug nach oben oder nach unten fahren muss, um die Zielposition zu erreichen. Eine Fahrt in eine höher gelegene Etage ist dann bspw. notwendig, wenn die Etage, auf der das Zielposition liegt, eine höhere Etagennummer aufweist als die Etage, auf der sich der Roboter 1 in der gegenwärtigen Position befindet.
  • Hierbei berechnet der Roboter 1 den Weg zum Aufzug und/oder Zielposition im Schritt 125 innerhalb des Bewegungsplaner 16 basierend auf einem Kriterienkatalog. Dieser Kriterienkatalog kann entweder im Navigationsmodul 10 oder in einer anderen Komponente des Roboters 1 hinterlegt sein. Kriterien, die hierbei eine Rolle spielen, können der Zustand der Energiequelle sein, die den Roboter 1 mit Strom versorgt, die Dringlichkeit des Auftrags, etc. Dabei ermittelt der Roboter verschiedene Pfade, die zur Zielposition oder zu einer Zwischenzielposition (bspw. dem Aufzug, wenn er eine Zielposition auf einer anderen Etage erreichen möchte) führen. Basierend auf dem Kriterienkatalog werden die jeweiligen Pfade gewichtet, als Kostenfunktionen betrachtet und es wird der Pfad ausgewählt, welcher die kleinsten Kosten aufweist. Dabei kann bspw. der schon erwähnte Dynamic Window Approach zum Einsatz kommen, evolutionäre Algorithmen oder auch andere Pfadplanungsverfahren, die im Stand der Technik beschrieben sind. Berechnungsprogramme für die Berechnung der Kostenfunktion zum Beispiel aus dem Robotic Operating System (bspw. mit dem Modul base_local_planner) können für diese Berechnung eingesetzt werden.
  • Der Roboter 1 navigiert im Schritt 130 zu einer Warteposition 800 in der Nähe des Aufzugs 700. Hier sind zwei optionale, alternative und/oder ergänzende Ansätze möglich, um die Warteposition vor dem Aufzug 700 zu bestimmen. Im ersten Ansatz erhält der Roboter 1 im Schritt 135 über sein Navigationsmodul 10 Informationen über die Positionsdaten von Aufzug-Bedienkomponenten 702 und Aufzugs-Anzeigeelementen 701.
  • 4 a) und b) stellt bspw. Aufzug-Bedienkomponente 702 und Aufzug-Anzeigeelemente 701 dar, die sich außerhalb des Aufzugs 700 befinden. Der Aufzug 700 ist in eine Wand 704 eingelassen. Neben einer Aufzugtür 703 auf der Wand 704 befindet sich ein Aufzug-Bedienkomponente 702, bspw. ein Ruftaster. Dieser Aufzug-Bedienkomponente 702 kann in 4a) bspw. unterschiedliche Tasten aufweisen, d.h. eine für Fahrten nach oben, eine für Fahrten nach unten. In 4b) ist nur ein Taster als Aufzug-Bedienkomponente 702 vorhanden. Hier muss bspw. eine Person, die den Aufzug 700 bedient, innerhalb des Aufzugs 700 über Aufzug-Bedienkomponente 702 angeben, ob der Aufzug 700 nach oben oder unten fahren soll. Oberhalb der Aufzugtür 703 befinden sich beispielhaft Aufzug-Anzeigeelemente 701, die in 4 a) die Fahrtrichtung des Aufzugs 700 anzeigen oder in 4 b) die Etagenzahl des Aufzugs 700, in dem der Aufzug 700 sich befindet. Es können auch Kombinationen aus diesen Elementen oder anderweitige Aufzug-Bedienkomponente 702 oder Aufzug-Anzeigeelemente 701 vorhanden sein, die gleich wirkende Effekte haben. So können bspw. die Aufzug-Bedienkomponente 702 in 4 a) beleuchtet sein und über die Beleuchtung anzeigen, dass der Aufzug 700 gerufen wurde und der Aufzug 700 in die gewünschte Richtung fahren wird, d.h. bei Drücken der unteren Taste er sich nach unten bewegt. 5 stellt Aufzug-Bedienkomponente 702 und Aufzug-Anzeigeelemente 701 dar, die sich innerhalb des Aufzugs 700 befinden. Abweichend von dieser Darstellung kann auch eine Etagendarstellung oberhalb der Aufzugtür 703 vorhanden sein, ähnlich wie das in 4 b) von außen dargestellt ist. Alternativ kann auch an anderer Stelle im Aufzug 700 ein Aufzug-Anzeigeelement 701 angebracht sein, welches bspw. als 7-Segment-Anzeige ausgestaltet ist. Zumeist ist, wenn vom Aufzug 700 gesprochen wird, in dem sich der Roboter 1 von Etage zu Etage bewegen soll, die Aufzugkabine gemeint. Aus Vereinfachungsgründen wird in diesem Dokument jedoch vornehmlich der Begriff des Aufzugs 700 gewählt.
  • In 5 a) kann eine Person direkt die Etagenzahl wählen. In 5 b) und 9 c) ist dargestellt, dass die Aufzug-Bedienkomponente 702 dadurch, dass die Aufzug-Bedienkomponente 702 bspw. leuchten können, auch direkt die Etage anzeigen können, in der sich der Aufzug 700 bewegt, womit es sich zugleich um Aufzug-Anzeigeelemente 701 handelt.
  • Im Schritt 145 erhält der Roboter 1 aus dem Kartenmodul 11 Daten über das Raumlayout vor dem Aufzug 700.
  • Im alternativen und/oder ergänzenden Ansatz tastet im Schritt 140 die Sensorik des Roboters 1 die Wände um den Aufzug 700 ab (vgl. bspw. 4), um Aufzug-Bedienkomponenten 702 oder Aufzug-Anzeigeelemente 701 zu identifizieren. Diese Identifizierung geschieht in einem ersten Schritt durch Aufzeichnung der Umgebung des Roboter 1 mit der Kamera 35, bspw. einer RGB-Kamera. Je nach Winkel der Kamera 35 hält der Roboter 1 dabei einen Mindestabstand ein oder bewegt sich derart, dass jeweils die Seiten des Aufzugs und/oder der Bereich oberhalb der Aufzugtür durch die Kamera 35 erfasst werden. Die Aufnahmen (Bilder) werden im Roboter-Speicher 820 gespeichert und wie in den weiter unten beschriebenen Erläuterungen zu 6 ausgewertet. Dabei erfolgt ein Vergleich von Mustern in den abgespeicherten Aufnahmen mit in dem Roboter-Speicher 820 hinterlegten Mustern, bspw. auf Basis einer Klassifizierung. Den Aufzug-Bedienkomponenten 702 (und bspw. den an anderer Stelle beschriebenen Aufzug-Anzeigeelementen 701) werden Raumkoordinaten zugewiesen, bspw. durch Auswertung der Position im aufgezeichneten Bild, Aufnahmewinkel der Kamera 35 und Position inkl. räumlicher Orientierung des Roboters 1 und/oder der aufzeichnenden Kamera 35. Im Falle der Nutzung einer RGB-D-Kamera dagegen ist eine vereinfachte Ermittlung der Position der Raumkoordinaten der Aufzug-Bedienkomponenten 702 und Aufzug-Anzeigeelemente 701 möglich. In einem alternativen Aspekt kann der Roboter 1 auch Säulen, auf denen sich mindestens eine Aufzug-Bedienkomponente 702 und ggf. auch ein Aufzug-Anzeigeelement 701 befindet, erkennen und auswerten. Beispielhaft fertigt hierbei die Kamera 35 fortlaufend Aufnahmen der Bereiche an, in denen sich die Aufzug-Bedienkomponente 702 oder ein Aufzug-Anzeigeelement 701 befindet, d.h. die Bereiche neben und oberhalb der Aufzugtür 703, die im Roboter-Speicher 820 als abzutastende Bereiche hinterlegt sind. (Sofern sich der Roboter 1 innerhalb eines Aufzugs 700 befindet (was insbesondere in weiter unten beschriebenen Schritten der Fall ist), werden bspw. Bereiche an den Wänden und bspw. oberhalb der Aufzugtür 703 erfasst.) Weiterhin tastet der Roboter 1 im Schritt 150 das Umfeld um den Aufzug 700 ab, um das Raumlayout zu identifizieren, wozu der Umfelderfassungssensor 46 genutzt wird, in einem Aspekt der LIDAR 34, in einem alternativen und/oder ergänzenden Aspekt eine Kamera 35, bspw. eine RGB-D-Kamera. Ausgehend von der Position des Roboters 1, die bspw. mittels des Odometrie-Moduls 31 ermittelt wird, ermittelt der Roboter 1 bspw. mittels LIDAR 34 die Distanz zu Objekten. Dabei werden solche Objekte, bspw. Wände, als solche erkannt, wenn die Objekte sich über einen definierten Zeitraum nicht bewegen. Im Gegensatz dazu erkennt der Roboter 1 bewegliche Hindernisse daran, dass diese erkannten Hindernisse nach einer bestimmten Zeit nicht mehr vorhanden sind, womit diese erkannten Hindernisse als beweglich klassifiziert werden. Hierbei werden im Stand der Technik beschriebene Verfahren für die Erstellung von Belegtheitskarten (Occupancy Grid Maps) genutzt. Für diese Auswertung kann der Roboter 1, auch in Abhängigkeit des Erfassungswinkels der genutzten Sensorik, solche Bewegungen ausführen, die es dem Roboter 1 erlauben, das Erfassungsareal vor dem Aufzug 700 im Zeitverlauf zu erfassen und bspw. zu maximieren. Es können in einem alternativen oder ergänzenden Aspekt auch mindestens ein Radar- oder Ultraschallsensor für die Erfassung der Objekte oder der Hindernisse genutzt werden. Basierend auf diesen Informationen über die Objekte oder die Hindernisse schätzt der Roboter 1 im Schritt 155 im Bereich vor dem Aufzug 700 solche Bereiche ab, in denen ein höherer Personenverkehr zu erwarten ist als in anderen Bereichen. Diese Bereiche mit vermutlich höherem Personenverkehr zeichnen sich bspw. dadurch aus, dass in diesen Bereichen mit einer Häufigkeit bewegliche Hindernisse erkannt werden, die über der Häufigkeit in anderen Bereichen liegt. Hierbei können bspw. auch Schwellwerte für eine Hindernisdetektion genutzt werden, um die Bereiche nach der Auftretenshäufigkeit von Hindernissen zu klassifizieren. Im Zeitverlauf kann der Roboter 1 bspw. Wartepositionen derart auswerten, dass solche Bereiche, in denen die Auftretenswahrscheinlichkeit von wartenden Personen über einem Schwellwert liegt, als Wartebereiche in der Karte des Roboters 1 ausgeschlossen werden. Die Wahrscheinlichkeit wird dabei über die Erfassung der Personenpositionen im Zeitverlauf ermittelt. Diese Ermittlung ist in einem unten aufgeführten Ausführungsbeispiel näher erläutert.
  • Alternativ und/oder ergänzend können auch historische Daten aus dem Roboter-Speicher 820 genutzt werden, die durch Beobachtungen des Personenverkehrs im Bereich vor dem Aufzug 700 aufgezeichnet wurden (Schritt 160), was in einem Aspekt durch den Roboter 1 bei früheren Aufenthalten in diesem Bereich geschehen sein kann. Alternativ und ergänzend können diese Informationen durch andere Roboter oder andere Systeme erfasst worden sein. Diese Informationen werden bspw. im Roboter-Speicher 820 zur Verfügung gehalten. Unter Personenverkehr werden Bereiche verstanden, in denen sich Personen vornehmlich bewegen und damit indirekt auch Bereiche mit wenig Personenverkehr. Eine nähere Beschreibung befindet sich in Beispiel 1.
  • Alternativ und/oder ergänzend zu den Schritten 135-160 können auch fixe, im Navigationsmodul 10 des Roboters 1 abgelegten Bereichen gewählt werden. Diese abgelegten Bereiche können bspw. zuvor auf Basis der genannten Kriterien ausgewählt worden sein. Die Bereiche können sich ferner aus einem Lernverhalten des Roboters 1 ergeben. Näheres hierzu findet sich in Beispiel 3.
  • Im nächsten Schritt tastet der Roboter 1 bspw. mittels LIDAR, Kamera 35, Radar- und/oder Ultraschallsensor sein Umfeld ab, in dem Falle den Bereich vor dem Aufzug 700 und identifiziert die Position von Personen 165, bspw. solchen Personen, die sich in Warteposition befinden. Dies Identifizierung geschieht bspw. mittels Ermittlung beweglicher Hindernisse, die durch den LIDAR 34 identifiziert wurden; durch Personen, die mittels Auswertung der Kamera-Aufnahmen identifiziert wurden (bspw. durch Einbeziehen von Skelettmodell-Detektionen mittels des Skelettmodell-Erstellungsmoduls 24, welches auf Kamera-SDKs, Frameworks wie OpenPose, OpenCV basieren kann, die diese Funktionalität anbieten, etc. Diese Bereiche werden als mögliche Wartebereiche für den Roboter 1 ausgeschlossen. In einem optionalen Aspekt ermittelt der Roboter 1, basierend auf dem Layout des Bereichs sowie den identifizierten Positionen der Personen sonstige Bereiche mit geringer Personenverkehrs-Wahrscheinlichkeit im Ermittlungsschritt 170 und bewegt sich im Schritt 175 optional in dem sonstigen Bereich mit einer geringen oder der geringsten Personenverkehr-Wahrscheinlichkeit bei definiertem Abstand zum Aufzug. Beim Ermittlungsschritt 170 kann der Roboter 1 die aus dem Schritt 160 als Bereiche mit wenig Personenverkehr mit den Bereichen, in denen sich Personen befinden (Schritt 165) vergleichen. Dabei positioniert sich der Roboter 1 in den Bereichen mit wenig Personenverkehr, in denen sich zu dem Zeitpunkt auch keine Person befindet.
  • Wie 6 weiter zeigt, zeichnet im Schritt 205 eine Kamera 35, z.B. eine RGB-Kamera, das Umfeld des Roboters 1 auf, um die Aufzug-Bedienkomponente 702 und Aufzug-Anzeigeelemente 701 im Schritt 210 zu identifizieren und auch zu klassifizieren, was durch ein Bilderkennungsverfahren realisiert wird. In einem Aspekt greift im Schritt 215 der Roboter 1 auf eine Klassifikationsdatenbank zurück, die im Roboter-Speicher 820 abgelegt ist oder im Cloud-Speicher 860, der über die Drahtlosschnittstelle 38 mit dem Roboter 1 verbunden ist. In dieser Klassifikationsdatenbank befinden sich, basierend auf einer Auswertung von Bildern einer Vielzahl von Aufzugssystemen, Klassifizierungsalgorithmen, welche bspw. mittels Verfahren des maschinellen Lernens und/oder neuronaler Netze erstellt worden sind, wobei in einem Aspekt auch deterministische Regeln zur Identifizierung dieser Merkmale genutzt werden können.
  • Diese Verfahren erlauben es, bspw. auf Basis von Daten z.B. Farbe (bspw. auf Basis einer Auswertung verschiedener Farbkanäle mit 8 bit), Graustufen und/oder Texturen, ggf. in Verbindung mit Histogram-of-Gradient-Daten, etc. Diese Daten werden als Eingangsdaten für die Klassifizierungsverfahren genutzt, während bspw. von menschlichen Bewertern bezeichnete Bilder als Ausgangsdaten genutzt werden. Dies heißt, einem Bild, dessen Daten wie Farbe, Graustufen, etc. als Eingangsdaten vorliegen (bspw. in Form einer Tabelle, wobei die Daten jeweils Spalten repräsentieren), ist auch ein Wert als Ausgangsdaten zugeordnet wie bspw. eine Kodierung, ob es sich um ein Aufzug-Anzeigeelement 701 oder eine Aufzug-Bedienkomponente 702 handelt. In einem weiteren Schritt kann bspw. die Interpretation der angezeigten Werte erfolgen, insbesondere für Aufzug-Anzeigeelemente 701. Zeigt ein solches Aufzug-Anzeigeelement 701 bspw. die Zahl drei, die für die Etage drei steht, würde in der genannten Tabelle eine Spalte mit korrespondierenden Zahlenwerten bspw. die auf Aufzug-Anzeigeelementen 701 genannten Etagenzahlen beschreiben. Im Falle der Kodierung als Aufzug-Anzeigeelement 701 würde bspw. eine kategoriale Kodierung erfolgen, bspw. auf der Ebene, ob es sich um ein solches Element handelt und ggf. auch, um was für eine Art (7-Segment-Anzeige, Taster für eine bestimmte Etage, etc.). Als Klassifizierungsverfahren kann bspw. eine multinomiale logistische Regression zum Einsatz kommen, die an anderer Stelle in dieser Offenbarung näher beschrieben ist.
  • Darüber lässt sich nicht nur eine Aufzug-Bedienkomponente 702 oder ein Aufzug-Anzeigeelement 702 als solches identifizieren (d.h. bspw. von Typenschildern differenzieren), sondern auch interpretieren, d.h. es wird bspw. erkannt, dass eine bestimmte Etage angezeigt wird, dass der Aufzug 700 gerufen wurde, dass ein Taster mit einem Pfeil nach unten eine Fahrt in eine niedrigere Etage bedeutet, etc. Dies wurde bereits im vorangegangenen Absatz beschrieben. Dafür sind in der Klassifikationsdatenbank Regeln hinterlegt, die den eigentlichen Bildklassifizierungen Interpretationen zuweisen. Diese Regeln können bspw. auch mittels Verfahren des maschinellen Lernens und/oder neuronaler Netze oder aber mittels deterministischer Vorgaben erstellt worden sein.
  • Es findet im nächsten Schritt 220 ein Tracking und eine Auswertung der Aufzeichnungen statt, d.h. der Roboter 1 ist in der Lage, die Aufzug-Bedienkomponente 702 insofern zu erfassen und zu überwachen, als dass bspw. für den Fall, der Roboter 1 möchte auf eine niedrigere Etage wechseln (wie sich bspw. aus Schritt 110 ergibt), die mindestens eine Aufzugbedienkomponente 702 für Fahrten zu einer niedrigeren Etage nach Schritt 220 erfasst, identifiziert und überwacht. Das kann bedeuten, einerseits die Bedienung durch eine Person zu erfassen und zu überwachen, die dieses Aufzugbedien-Komponente 702 auslöst, andererseits aber auch zu erkennen, ob dieses Aufzug-Bedienkomponente 702 bereits ausgelöst wurde, weil die Aufzug-Bedienkomponente 702 bspw. leuchtet, was die Aufzug-Bedienkomponente 702 bspw. sonst im nicht-ausgelösten Zustand nicht tut. Dabei ist der Roboter 1 z.B. in der Lage, die Aufzug-Bedienkomponente 702 auch dahingehend zu interpretieren, ob der Aufzug 700 nach oben oder unten fahren soll.
  • Diese Interpretation wird bspw. so umgesetzt, dass der Roboter 1, basierend auf der Auswertung, dass der Roboter 1 in eine höhergelegene Etage fahren soll (bspw. von der Etage 3 auf die Etage 5), durch die Aktivierung der Aufzug-Bedienkomponente 702 die Wahl einer Etage erkennt, die sich oberhalb von 3 befindet (idealerweise 5). Dies erfolgt z.B. durch a) Erfassung seines Umfelds durch die Kamera 35, b) Speichern der aufgezeichneten Bildern im Roboter-Speicher 820, c) Vergleich der aufgezeichneten Muster mit im Roboter-Speicher 820 hinterlegten Mustern, und damit d) der Identifizierung der Aufzug-Bedienelemente 702, e) Zuordnung einer Raumkoordinate zu den Aufzug-Bedienkomponente 702 bspw. auf Basis der Auswertung von Daten der Kamera 35 (z.B. einer RGB-D-Kamera), insbesondere der Entfernungen und Orientierung im Vergleich zur Position und Orientierung des Roboters 1 (die sich bspw. aus der Odometrieeinheit 31 ergibt), f) der Erfassung von mindestens einer Personen bspw. mittels der Kamera 35, g) der Erstellung eines Skelettmodells der mindestens einer Person, h) Auswertung der Position der Handgelenke und/oder Finger der mindestens einen Person im Zeitverlauf, i) Ermittlung des Abstands zwischen den Koordinaten, die den Fingern und/oder Handgelenk zugewiesen sind und den Koordinaten der Aufzug-Bedienkomponente 702, wobei j) bei Unterschreiten eines Schwellwerts eine Aktivierung erfasst wird. Alternativ und/oder ergänzend kann der Roboter 1 das Aufzugs-Bedienelement 701, welches die Fahrtrichtung des Aufzugs 700 indiziert, entsprechend interpretieren. So können hier bspw. Pfeilsymbole im Aufzug 700 dahingehend ausgewertet werden, ob diese Pfeilsymbole leuchten, wobei das Leuchten und/oder Anzeigen des Pfeilsymbols, das nach oben zeigt, als Fahrt nach oben interpretiert wird. Alternativ und/oder ergänzend kann auch das Leuchten und/oder Anzeigen von Etagenzahlen auf ihre Reihenfolge hin ausgewertet werden, wobei eine ansteigende Reihe (bspw. 4 gefolgt auf 3) eine Fahrt nach oben indiziert.
  • Daraus ergeben sich mindestens zwei Aktivitätspfade für den Roboter 1. Der erste, hier betrachtete Aktivitätspfad impliziert, dass die entsprechende Aufzug-Bedienkomponente 702 noch nicht gedrückt worden ist, der Aufzug 700 demnach nur mit geringer Wahrscheinlichkeit innerhalb weniger Minuten tatsächlich stoppt und in die vom Roboter 1 gewünschte Richtung weiterfährt. In einem optionalen Schritt identifiziert im Schritt 225 der Roboter 1 Personen im Umfeld des Aufzugs 700, bspw. mindestens eine Person, die sich am dichtesten zum Roboter 1 hin aufhält, alternativ auch eine Person, die sich am dichtesten an der Aufzug-Bedienkomponente 702 aufhält. Die Personen-Identifizierung erfolgt bspw. auf Basis der Auswertung von Kamera-Aufzeichnungen in Verbindung mit der Erstellung von Skelettmodellen, über die ein Objekt als Person identifiziert wird und der Koordinaten im Raum zugeordnet werden, bspw. durch Auswertung der Erfassungsrichtung und des Erfassungsabstands im Vergleich zur Position des Roboters. Sofern mehrere Personen identifiziert werden, kann der Abstand der Positionen der Personen im Raum zu den erfassten und identifizierten Aufzug-Bedienkomponenten 702 erfolgen. Der Roboter 1 richtet sich optional im Schritt 230 zu dieser Person hin aus. In einem weiteren Schritt spricht der Roboter 1 diese Person an, d.h. initiiert eine Ausgabe über sein Display 37 und/oder eine Sprachsynthese (über seine Lautsprecher 42), die einen entsprechenden Wunsch beinhaltet, den entsprechenden Taster (d.h. eine Aufzug-Bedienkomponente 702) im Schritt 235 zu drücken. Dabei beinhaltet die Ausgabe in einem Aspekt eine Information über die gewünschte Zieletage. In einem alternativen und/oder ergänzenden Aspekt beinhaltet die Ausgabe eine Information darüber, ob sich die Etage über oder unter der Position des Roboters 1 befindet.
  • Der Schritt 225 wird bspw. durch das Personenerkennungsmodul 20 umgesetzt, welches auf Basis von Kamera-Daten (bspw. mittels des Frameworks OpenCV) automatisiert Skelettmodelle von im Kamerabild vorhandenen Personen erstellt, aus den Daten die Koordinaten der Person im Roboterumfeld ermittelt (bspw. hilfsweise über die Position des Roboters 1), und die Koordinaten der Person nutzt, um damit bspw. die euklidische Distanz der Person zum Aufzugbedienelement 702 und/oder Roboter 1 auszuwerten und bspw. im Falle mehrerer Personen zu vergleichen. Die Ausrichtung des Roboters 1 auf die Person hin im Schritt 230 kann bspw. derart erfolgen, dass der Roboter 1 zunächst die Orientierung der Person auf Basis der Skelettmodellparameter ermittelt, wobei der Roboter 1 die Drehrichtung über die Achse zwischen zwei Schultergelenk- oder Hüftgelenkpunkten ermittelt und die Vorderseite bzw. Rückseite bspw. auf Basis einer im Stand der Technik beschriebenen Gesichtserkennung. In einem weiteren Schritt positioniert sich der Roboter 1 derart vor dieser Person, dass bspw. seine Vorderseite im Winkel von weniger als ±120°, bspw. weniger als ±60° von der Sagittalebene der Person abweicht. Darüber kann die Person bspw. eine Ausgabe auf dem Display des Roboters 1 besser erkennen. Generell aber ist davon auszugehen, dass bei einem solchen Winkel eine Person sich eher angesprochen fühlt, als wenn die Ansprache von hinten erfolgt. Der Roboter 1 überwacht im Schritt 240 nachfolgend das Verhalten der angesprochenen Person, um zu überprüfen, ob diese angesprochene Person den Taster (d.h. eine Aufzug-Bedienkomponente 702) drückt. Wird eine solche Drückbewegung erkannt, werden die Schritte 205 fortfolgende erneut durchlaufen.
  • Für die Detektion der Drückbewegung erfasst der Roboter 1 die Aufzug-Bedienkomponente 702, d.h. eine Aufzug-Bedienkomponente 702, die den Aufzug 700 ruft, und der Roboter 1 trackt (nach Erstellung des Skelettmodells mit dem Skelettmodell-Erstellungsmodul 24, ggf. unterstützt durch das visuelle Personentrackingmodul 22), die Bewegungen der Person, insbesondere die Bewegungen der erfassten Fingerglieder, alternativ die des Handgelenkpunkts aus dem Skelettmodell und ermittelt die Distanz zur Aufzug-Bedienkomponente 702. Unterschreitet diese einen Schwellwert, wird von einem Drücken der Aufzug-Bedienkomponente 702 ausgegangen. In einem Kontrollschritt kann ferner auf eine Farbänderung der Aufzug-Bedienkomponente 702 abgestellt werden (bspw. aufleuchten nach dem Unterschreiten des Schwellwerts) oder aber eine Anzeigenänderung in den Aufzuganzeigeelementen 701, oder Kombinationen daraus.
  • Alternativ kann auch direkt der Weg zum optionalen Schritt 245 erfolgen. Wird dagegen keine Drückbewegung erkannt, spricht der Roboter 1 die Person noch einmal an, alternativ auch eine andere Person, die sich in der Nähe der Aufzugtür 703 befindet (Schritt 270). Diese Ansprach kann der Roboter 1 auch mehrfach wiederholen. Nach jeder dieser Ansprachen geht es weiter mit Schritt 205 fortfolgende. Selbstredend sei an dieser Stelle festgehalten, dass, sofern keine Person da ist, die der Roboter 1 ansprechen kann, dieser Roboter 1 so lange wartet, bis eine Person vom Roboter 1 identifiziert wird oder bis sich eine Aufzugtür 703 öffnet. Bzgl. des Vorgehens der Personenidentifizierung wird bspw. auf den vorangegangenen Absatz verwiesen.
  • Sofern die Auswertung der Aufzug-Bedienkomponenten 702 ergibt, dass der Aufzug 700 kommt, (identifiziert und) überwacht der Roboter 1 in einem optionalen Schritt 245 die Aufzugtür 703. In einem optionalen Aspekt identifiziert der Roboter 1 Personen, die den Aufzug 700 im Schritt 250 verlassen sowie ebenfalls optional die Personen, die den Aufzug 700 im Schritt 255 betreten. Der Roboter 1 ermittelt im Schritt 260 den erforderlichen Platz im Aufzug 700, wozu der Roboter 1 u.a. seine Sensorik nutzt, insbesondere seinen Umfelderfassungssensor 46 (z.B. die Kamera 35 oder einen LIDAR 34, mitUltraschall und Radar als Alternativen) und berechnet die Fläche in der xy-Ebene, auf der sich kein Hindernis befindet. Dabei ermittelt der Roboter 1 im ersten Schritt die freie Fläche, die sich bspw. aus der Belegtheitskarte (occupacy grid map) innerhalb des Aufzugs 700 ergibt, die der Roboter 1 mittels seiner Sensorik erstellt (ein Standardverfahren der Robotik). Im zweiten Schritt werden die Dimensionen dieser Fläche mit den Angaben über die in dem Roboter-Speicher 820 hinterlegten Fläche verglichen, die die Flächen-Dimensionen des Roboters 1 widergibt zzgl. eines üblichen Sicherheitsabstands zu Hindernissen. Hierbei bezieht der Roboter 1 optional auch die Fläche eines leeren Aufzugs 700 mit ein, die der Roboter 1 bspw. als „historischen“ Wert durch frühere Flächenermittlungen abgespeichert haben kann und/oder die als Wert fest im Speicher des Roboters 1 hinterlegt ist (Schritt 265). Ein leerer Aufzug 700 wird bspw. derart identifiziert, dass der Roboter 1 innerhalb des Aufzugs 700 eine vornehmlich rechteckige Fläche erkennt. Die Erkennung einer rechteckigen Fläche kann bspw. auf Basis einer Belegtheitskarte (occupancy grid map) erfolgen. Darin werden bspw., wie in 7 gezeigt, belegte Zellen (in 7 dunkel) und freie Zellen (hell in 7) dargestellt. Es werden Richtungsvektoren entlang belegter Zellen gebildet, die an nicht belegte Zellen grenzen. Dabei wird der Winkel der Richtungsvektoren zueinander ausgewertet. In 7 a) und b) ist beträgt der Winkel 90°, d.h. es handelt sich im Wesentlichen um eine rechteckige Form (von der hier eine Ecke dargestellt ist). In 7 c) weicht der Winkel von 90° ab, womit kein Rechteck vorliegt. Dieser Fall wird ausgeschlossen, d.h. hierbei wird angenommen, es handelt sich um keinen leeren Aufzug. Weiterhin wird die Länge der Richtungsvektoren ermittelt. Liegt die Länge der Richtungsvektoren unter einem Schwellwert, werden diese Fälle ebenfalls ausgeschlossen (siehe bspw. 7 d). In einem Aspekt kann auch eine Kette von Richtungsvektoren berücksichtigt werden, wobei die Parallelität der Richtungsvektoren ausgewertet wird, wobei die Orientierung der Richtungsvektoren über eine definierte Gesamtlänge ausgewertet wird, und wenn es sich überwiegend um parallele Richtungsvektoren handelt, wird dieser Fall als leerer Aufzug klassifiziert. Hierbei ist es jedoch so, dass die jeweils in etwa parallelen Richtungsvektoren zueinander orthogonal sein müssen. Dieser Fall ist bspw. in 7 d) dargestellt, in dem die „Unebenheiten“ der detektierten Wände (d.h. der dunklen Bereiche) ignoriert werden, weil die Orientierung der Vektoren jeder Seite im Wesentlichen parallel ist. Ergänzend kann die Länge oder Gesamtlänge mehrerer Richtungsvektoren ausgewertet werden.
  • Der Roboter 1 kann in einer Ausführungsform auch Messungen über die Zeit vornehmen und das Maximum der ermittelten Fläche als die eines leeren Aufzugs 700 abspeichern. In dem Fall der Ermittlung der Fläche des leeren Aufzugs 700 wertet der Roboter 1 bspw. die Anzahl der freien Zellen aus, die er innerhalb des Aufzugs 700 ermittelt, speichert diese Anzahl der freien Zellen der Belegtheitskarte in seinem Roboter-Speicher 820 ab (wobei die Anzahl der freien Zellen bspw. proportional zur Fläche ist) und wiederholt diesen Vorgang über eine bestimmte Anzahl (bspw. 20) Vorgänge, bei denen der Roboter 1 den Aufzug 700 betritt. Anschließend ermittelt der Roboter 1 das Maximum über die abgespeicherte Anzahl freier Zellen der Belegtheitskarte und, durch Multiplikation mit in einem Roboter-Speicher 820 abgelegten Wert, welcher die Größe einer Zelle repräsentiert, ermittelt der Roboter 1 die Größe der Fläche des leeren Aufzugs 700. In einem Aspekt kann der Roboter 1 beim Erfassen des Inhalts des Aufzugs 700 detektieren, ob es bewegliche Hindernisse in dem Aufzug 700 gibt und in dem Fall die Messwerte (Anzahl freier Zellen der Belegtheitskarte) bei der Ermittlung der Fläche des leeren Aufzugs 700 ausschließen.
  • Eine Berechnung der freien Fläche in dem Aufzug 700 ist relativ einfach, wenn der Aufzug 700 leer ist oder Personen sich hinten an der Aufzugwand stehen. Üblicherweise jedoch verteilen sich Personen im Aufzug 700, obwohl die Personen grundsätzlich enger zusammenstehen könnten. Um dieses Zusammenstehen zu berücksichtigen, wird das Verfahren zur Ermittlung des freien Platzes in 8 dargestellt. Die Maxime ist hierbei, dass die freie Fläche innerhalb des Aufzugs 700 größer sein muss als die Grundfläche des Roboters 1 (Schritt 305), wobei die Fläche, die der Roboter 1 im Endeffekt benötigt (Schritt 310), etwas größer sein kann, um eine Bewegung innerhalb des Aufzugs 700 zu ermöglichen und dabei noch einen Sicherheitsabstand zu Personen einhalten zu können. Derartige Informationen sind im Roboter-Speicher 820 abgelegt, sie werden im Schritt 305 bspw. der vom Roboter 1 eingenommenen Fläche zugerechnet, d.h. die Abmessungen des Roboters 1 werden mit einem Zuschlagswert versehen, der im Roboter-Speicher 820 abgelegt ist. Ergänzend oder alternativ wird die hinterlegte Fläche des Roboters 1 etwas größer im Roboter-Speicher 820 hinterlegt.
  • Nach Öffnen der Aufzugtür 703 erfolgt das Abtasten des Aufzuginneren und der Roboter 1 ermittelt die freie Fläche im Aufzug 700 bspw. basierend auf der bereits beschriebenen Belegtheitskarte. Diese Fläche wird mit der oben beschriebenen, vom Roboter 1 benötigten Fläche (Schritt 310) verglichen. Dabei wird die Form der Fläche ebenfalls berücksichtigt, d.h. die Länge und Breite der nicht belegten Fläche wird mit der Länge und Breite des Roboters 1 (zzgl. des Zuschlags) verglichen. Ist die Fläche des Roboters 1 größer als die freie Fläche kann, ermittelt der Roboter im Schritt 315 die Anzahl Personen im Aufzug. Dabei nutzt der Roboter 1 mindestens den Umfelderfassungssensor 46. In einem Aspekt kann das über eine Skelettmodellerstellung realisiert werden, bei denen entsprechende Frameworks bspw. mit einer Kamera 35 genutzt werden, und es wird die Anzahl der erfassten Skelettmodelle addiert. In einem Aspekt nimmt der Roboter 1, sofern der Roboter 1 im Schritt 305 feststellt, dass der Platz im Aufzug 700 nicht ausreicht (also die freie Fläche), im Schritt 312 eine neuen Position vor oder im Aufzug 700 ein, um durch den Positionswechsel innerhalb des Aufzugs 700 besser abschätzen zu können, ob ggf. hinter Personen, die vorne stehen, noch weitere Personen vorhanden sind. Dabei bewirkt der Positionswechsel, dass durch einen anderen Erfassungswinkel des mindestens einen Umfelderfassungssensors 46 Personen besser erkannt werden können, die sich hinter anderen Personen befinden. Personen können bspw. durch die im Rahmen von bspw. mit einer Kamera 35 (2D oder 3D) erstellten Skelettmodelle, im Rahmen einer LIDAR-Erfassung auf Basis der Form der Beine (in etwa rund, Durchmesser größer 5 cm und zwei pro Person) ermittelt werden. Der Roboter 1 addiert die erfassten Personen zur Anzahl Personen, die sich im Aufzug 700 befinden.
  • Anschließend im Schritt 320 multipliziert der Roboter 1 die Anzahl der Personen im Aufzug 700 mit einem Durchschnittswert, der pro Person die benötigte Fläche im Aufzug 700 wiedergibt, und errechnet im Schritt 330, ob diese Fläche größer ist als die Fläche, die der Roboter 1 innerhalb des Aufzugs 700 benötigt (also mindestens größer ist als die Roboterfläche). Ist die nach dieser Berechnung verfügbare Fläche nicht ausreichend, springt der Roboter 1 zurück zu Schritt 205. Reicht die Fläche aus, navigiert der Roboter 1 in einem Aspekt in Richtung Aufzugtür 703 im Schritt 335 (um damit zu signalisieren, dass der Roboter 1 den Aufzug 700 nutzen möchte). Alternativ und/oder ergänzend signalisiert im Schritt 340 der Roboter 1 über Sprachsynthese und/oder Display, dass die Personen innerhalb des Aufzugs 700 zusammenrücken mögen. Nach den Schritten 335 und 340 errechnet der Roboter 1 erneut die freie Fläche, springt also zu Schritt 305 zurück, wartet jedoch bspw. noch einige Sekunden im Schritt 350 vor der nächsten Flächenberechnung. Wenn der Roboter 1 in einem erneuten Durchlauf den Schritt 335 und/oder 340 absolviert hat, springt der Roboter 1 zu Schritt 205 in 6 zurück, was im Endeffekt bedeutet, der Roboter 1 wartet auf den nächsten Aufzug 700.
  • Hat der Roboter 1 dagegen nach Schritt 305 errechnet, dass die Fläche innerhalb des Aufzugs 700 ausreichend groß ist (d.h. großer als die Grundfläche des Roboters 1 ist), fährt der Roboter 1 in den Aufzug 700 im Schritt 325 hinein und tastet im Schritt 355 die Umgebung an, um die Aufzug-Bedienkomponente 702 zu erkennen. Diese Erfassung der Umgebung kann auch Drehungen des Roboters 1 beinhalten. Im Regelfalle ist die Position im Roboter-Speicher 820 abgelegt, an der sich die Aufzug-Bedienkomponenten 702 innerhalb des Aufzugs 700 befinden, was deren Identifizierung vereinfacht. Dabei benutzt der Roboter 1 die bereits an anderer Stelle in diesem Dokument skizzierte Vorgehensweise. Der Roboter 1 positioniert sich im Schritt 327 z.B. derart im Aufzug 700, dass der Roboter 1 von seiner Position aus sowohl die Aufzug-Bedienkomponenten 702, die Etagenanzeige (sofern vorhanden) als ein Aufzug-Anzeigeelement 701 und die Aufzugtür 703 mittels seiner Sensorik erfassen kann, wobei diese Erfassung je nach Anordnung dieser Elemente/Komponenten auch innerhalb eines definierten Zeitintervalls sequentiell geschehen kann.
  • Sofern die Aufzug-Bedienkomponenten 702 erkennbar sind, prüft der Roboter 1 im Schritt 360, ob die gewünschte Etagenzahl bereits gewählt wurde (inkl. Schritte 205-215). Falls ja, geht es mit dem weiteren Ablauf in 9 weiter mit der Etagenermittlung im Aufzug 700. Falls für den Roboter 1 die Aufzug-Bedienkomponenten 702 nicht erkennbar sind, fordert der Roboter 1 im Schritt 365 eine Ausgabe über das Display und/den Lautsprecher mitfahrende Personen auf, die gewünschte Etage zu wählen. Dabei erfasst der Roboter 1 in einem optionalen Aspekt das Verhalten von Personen in der Nähe der Aufzug-Bedienkomponenten 702, d.h. der Roboter 1 erfasst im Schritt 370, ob diese Personen sich bewegt haben („Tracking der Personen in Tasternähe“). Diese Erfassung kann bspw. mittels Detektion einer Positionsänderung mittels mindestens durch einen Umfelderfassungssensor 46 erfassten Gliedmaße (z.B. Beine) der Personen geschehen. Alternativ und/oder ergänzend kann eine Auswertung der Belegtheitskarten erfolgen dahingehend, ob sich die Belegtheit von Feldern ändert. Alternativ und/oder ergänzend kann auch eine Auswertung der Skelettpunkte aus einem auf Basis von mindestens einer Kamera 35 erfassten und berechneten Skelettmodells erfolgen, bei denen die Positionsänderung von Skelettmodellpunkten und/oder der Winkel von Richtungsvektoren, die Gelenkpunkte miteinander verbinden, herangezogen wird. Detektiert der Roboter 1 keine Bewegung, springt der Roboter 1 zurück zu Schritt 365, alternativ geht es in 9 weiter mit der Etagenermittlung im Aufzug 700.
  • 9 stellt nun den Ablauf dar, wie der Roboter 1 die richtige Etage ermittelt, in der der Roboter 1 den Aufzug 700 verlässt. Dabei bewegt sich dieser Aufzug 700 zunächst in Richtung Zieletage 405. Der Roboter 1 tastet im Schritt 410 die Umgebung ab, um die Aufzug-Bedienkomponenten 702 (Schritte 205-215) und/oder Aufzug-Anzeigeelemente 701 zu erkennen. Sind die Aufzug-Anzeigeelemente 701 erkennbar, klassifiziert der Roboter 1 die vom Aufzug-Anzeigeelement 701 ausgegebenen Etagennummern mittels etablierter Bildklassifizierungsverfahren, z.B. durch Aufnahme eines Bildes und Vergleich des aufgenommenen Bildes mit Mustern, ermittelt daraus die Etagenzahl (bspw. 3) und vergleicht im Schritt 425 diese ausgegebene Etagenzahl mit der Etagenzahl (bspw. 5), in welcher der Roboter 1 den Aufzug 700 verlassen muss. Stimmen die Etagenzahlen der ausgewählten Etage mit der Zieletage überein, verlässt der Roboter 1 den Aufzug 700 beim Halt in der Etage, andernfalls bleibt der Roboter 1 im Aufzug 700 (siehe unten).
  • Sind dagegen die Aufzug-Bedienkomponenten 702 und/oder die Aufzug-Anzeigeelements 701 nicht erkennbar, fordert im Schritt 420 der Roboter 1 über das Display 37 und/oder die Sprachsynthese (Ausgabe mittels Lautsprecher 42) umstehende Personen auf, den Roboter 1 auf die richtige Etage aufmerksam zu machen. Die Reaktion der umstehenden Personen kann im Schritt 430 wiederum über das Display 37 des Roboters 1 (bspw. in Form des Drückens eines Menüknopfs), auf Basis anderer Eingabeeinheiten (bspw. in Form eines physischen Knopfs), und/oder in Form gesprochener Sprache erfolgen (die durch mindestens ein Mikrophon 43 des Roboters 1 aufgezeichnet und mittels etablierter Verfahren der Spracherkennung ausgewertet wird).
  • Ist die Etage erreicht, kann im Schritt 435 der Roboter 1 in einem optionalen Aspekt den umstehenden Personen signalisieren, dass der Roboter 1 den Aufzug 700 verlassen möchte. Diese Signalisierung kann über Signalisierungsleuchten, über (langsame) Bewegungen hin zur Aufzugtür 703, durch eine Sprachausgabe, einen Warnton, durch Anzeigen auf dem Display oder auch Kombinationen aus diesen Mitteln erfolgen. Der Roboter 1 überwacht die Aufzugtür 703 im Schritt 440 mittels des Umfelderfassungssensors 46. Diese Überwachung geschieht bspw. mittels des LIDARs 34, der ermitteln kann, ob der Bereich der Aufzugtür 703 geöffnet (bspw. dadurch erkennbar, dass die Felder, wo sich die Aufzugtür 703 befindet (im Speicher ablegt) auf der Belegtheitskarte frei sind) oder geschlossen ist (Hindernisdetektion dort, wo sich die Aufzugtür 703 laut im Roboter-Speicher 820 abgelegter Daten befindet). Sobald diese Aufzugtür 703 sich öffnet, verlässt der Roboter 1 auf der Zieletage den Aufzug 700 im Schritt 445 und bewegt sich zu seiner Zielposition auf dieser Etage 450. Selbstredend prüft der Roboter 1 den Bereich in Fahrtrichtung mit Blick auf Personen, die sich dort befinden und hält definierte Sicherheitsabstände und -maßnahmen ein, d.h. z.B., falls diese der optionalen Aufforderung im Schritt 435 zum Beiseitetreten nicht folgen, verbleibt der Roboter 1 im Aufzug 700, bis der Roboter die Zieletage erneut erreicht, womit der Roboter 1 in dem Falle zu Schritt 410 springen würde. Die Sicherheitsabstände hält der Roboter 1 dadurch ein, dass er sich erst in eine Richtung bewegt, wenn in dieser Richtung kein Hindernis innerhalb eines definierten Bereichs durch seine Sensorik detektierbar ist (bspw. aufgrund von LIDAR-Daten in den Belegtheitskarten des Roboters erkennbar). Die Breite des definierten Bereichs ist abhängig von der Breite des Roboters 1, die Tiefe des definierten Bereichs ist abhängig von der Geschwindigkeit des Roboters 1. Wenn die Tiefe bspw. 25 cm beträgt, kann der Roboter 1 sich langsam in diese Richtung bewegen. Beträgt die Tiefe dagegen 2 m, kann der Roboter 1 sich mit einer größeren Geschwindigkeit dorthin bewegen. Beträgt die Tiefe dagegen bspw. nur 10 cm, bleibt der Roboter 1 stehen, bewegt sich also nicht aus dem Aufzug 700 hinaus.
  • Beispiel 1: Identifizierung einer Warteposition des Roboters vor dem Aufzug
  • Der Roboter 1 nutzt wenigstens eines der nachfolgenden drei Kriterien, um eine Warteposition vor dem Aufzug 700 zu identifizieren. Ein Kriterium ist die Minimierung der Verkehrsflussbeeinträchtigung. Ein weiteres, alternatives oder ergänzendes Kriterium ist die Distanz zur Aufzugtür 703. Ein drittes, alternatives oder ergänzendes Kriterium ist der Erfassungswinkel des Aufzuginneren nach Öffnung der Aufzugtür 703 (basierend auf der Position des Roboters 1), der so gewählt sein sollte, dass der Roboter 1 bei Türöffnung einen möglichst großen Teil der Fläche des Inneren des Aufzugs 700 abtasten kann. Diese Kriterien sind nachfolgend näher erläutert.
  • 10 zeigt exemplarisch auf, wie Bereiche mit wenig Personenverkehr hergeleitet werden können. Bei dieser Darstellung in 10 handelt es sich um eine Draufsicht. In diesem Beispiel befinden sich zwei Aufzüge 700a und 700b an einem ersten Gang 710, der von links nach rechts verläuft und dessen dargestellter Ausschnitt durch die Punkte I-J-H-G begrenzt wird. Dieser Gang 710 wird durch einen deutlich breiteren Gang 715 an den Punkten A-B und C-D unterbrochen, der auf der einen Seite die beiden Aufzüge 700a, 700b vorweist und dessen Darstellung an den Punkten K-L endet. An der Wand 720 zwischen den Aufzügen (E-F) 700a, 700b befindet sich das Aufzug-Bedienkomponente 702 (hier: Taster) für die Aufzüge 700a, 700b.
  • Graue Pfeile geben mögliche Laufrichtungen von Personen an, die sich im ersten Gang 710, im breiten Gang 715 und rund um die Aufzüge 700a, 700b bewegen. Exemplarisch habe der erste Gang 710 eine Breite von bspw. 2m (bspw. gemessen zwischen den Punkten AB), der breite Gang 715 einen Durchmesser von bspw. 6m (bspw. gemessen zwischen den Punkten B-C). Die tatsächliche Laufrichtung von sich im dargelegten Bereich befindlichen Personen hängt von vielen Faktoren ab, darunter Gegenverkehr, der Anzahl sich in etwa parallel bewegenden Personen, usw.
  • In den Bereichen des Ganges 710, 715 E-C-H-G sowie I-J-B-A wurde jeweils nur eine Laufrichtung dargestellt hin zum Aufzug 700a oder 700b. Es sind natürlich auch gegenläufige Laufbewegungen der Personen möglich (wie auch Personen den Aufzug 700a, 700b verlassen können, obwohl die Pfeile in der Darstellung lediglich in Aufzugrichtung zeigen). Generell verlaufen die Bewegungen eher gangmittig. Vor dem Aufzug 700a, 700b hängen die Bewegungen davon ab, ob die Aufzugtüren 703 geöffnet sind oder ob der Aufzug 700a, 700b noch gerufen werden muss.
  • Die Darstellung in 10 zeigt auch zwei mögliche Positionen vom Roboter 1, der jeweils als Roboterposition 750 vermerkt ist. In einem Aspekt hat sich der Roboter 1 nahe dem Punkt B positioniert. An dieser ersten Stelle (Roboterposition 750a) ist der Roboter 1 aus allen Gängen 710, 715 sichtbar, hält sich aber relativ dicht an der Wand, da die Wahrscheinlichkeit geringer ist, dass sich Personen dort direkt entlangbewegen. Vielmehr geht der Roboter 1 davon aus, dass sich Personenverkehr eher gangmittig hält und den Roboter 1 im Bereich C-D-E-F-A-Roboter passieren wird. Im zweiten, dargestellten Roboterposition 750b befindet sich der Roboter 1 im Kreuzungsbereich des ersten Ganges 710 und des breiten Ganges 715 gegenüber der Punkte C und E. In dieser zweiten Roboterposition 750b ist davon auszugehen, dass Personenverkehr, der den ersten Gang 710 entlangläuft, den Bereich D-E-F-A-Roboter 1 passieren wird, während Personenverkehr, der den breiten Gang 715 passieren möchte und entweder aus den Aufzügen 700a, 700b kommt oder dem Gang, die Bereiche zwischen dem Roboter 1 und C bzw. zwischen dem Roboter 1 und B passieren wird. In beiden Fällen hat sich der Roboter 1 weder gangmittig positioniert noch in einem Abstand vom Aufzug 700, der bspw. weniger als 50 cm beträgt.
  • Beide dargestellten Roboterpositionen 750a, 750b vereint, dass der Abstand zum Aufzug 700a, 700b jeweils nicht so groß ist, dass eine Beeinträchtigung der Laufrichtung der Personen zu erwarten ist, was bspw. dann der Fall wäre, wenn der Roboter 1 sich in einem Abstand von ca. 50cm vor der Aufzugtür 703 befinden würde. Bspw. beträgt der Abstand zum Aufzug 700a, 700b mindestens 90cm, besser 1m. Weiterhin stellen die dargestellte Roboterpositionen 750a, 750b sicher, dass die Verkehrsflüsse entlang der Mittelinie der Gänge keine wesentlichen Umwege durch die Roboterposition 750a, 750b des Roboters 1 bedeuten, wobei wesentliche Umwege Distanzen von mehr als bspw. 2m ausmachen. Genauso wenig positioniert sich der Roboter 1 direkt vor dem Aufzugs-Bedienkomponente 702, um Personen nicht daran zu hindern, den Aufzug 700 zu bedienen. Zusammenfassend stellt die Minimierung der Verkehrsflussbeeinträchtigung ein erstes Kriterium dar.
  • Es gibt nun mehrere Möglichkeiten der Implementierung dieses Kriteriums der Verkehrsflussbeeinträchtigung im Roboter 1, die bspw. auch (ganz oder teilweise) kombiniert werden können. Eine Möglichkeit ist es, eine Karte im Kartenmodul 11 zu hinterlegen, in denen Wartepositionen fest verzeichnet sind. Das gilt bspw. auch für die anderen beiden Kriterien Distanz zur Aufzugtür 703 und Erfassungswinkel Aufzuginhalt. Eine weitere Möglichkeit ist die Erfassung und Auswertung von Personenströmen, was in einem der nachfolgenden Beispiele näher erläutert ist. Eine dritte Möglichkeit ist es, Wartepositionen auf Basis der in den vorangegangenen Absätzen beschriebenen Restriktionen zu definieren. Dazu zählt bspw., dass der Roboter 1 für das Aufsuchen einer Warteposition, bei der der Roboter 1 den Verkehrsfluss möglichst wenig beeinträchtigen soll, sich eine Roboterposition 750 sucht, die nahe einer Wand gelegen ist, welche sich bspw. aus der Belegtheitskarte ergibt. Positioniert sich der Roboter 1 bspw. an einer Ecke im Raum als Roboterposition 750 (z.B. bei Punkt B in 10), positioniert der Roboter 1 sich bspw. so, dass er aus beiden Gängen sichtbar ist, d.h. er ragt zumindest teilweise in den Gang, der zwischen den Punkten A und B liegt.
  • Alternativ zu dieser Roboterposition 750 an der Wand kann der Roboter 1 ab einer definierten Gangbreite auch von der Wand weg in Richtung Gangmitte positionieren, wobei die Roboterposition 750 von der Gangbreite und der Breite des Roboters 1 abhängt. In einem Aspekt kann die Roboterbreite bei 80 cm liegen und die Gangbreite bei 4m. In dem Fall kann der Roboter 1 sich bspw. auch im Abstand von 1,2m von der Wand in Richtung Gangmitte befinden (während auf der anderen Seite des Roboters 1 die Wand 2m entfernt ist). Alternativ und/oder ergänzend kann der Roboter 1 definierte Mindestabstände zu Aufzug-Bedienkomponenten 702 einhalten, die bspw. 70cm oder mehr betragen.
  • In einem alternativen und/oder ergänzenden Aspekt positioniert sich der Roboter 1 in Aufzugnähe nicht mittig vor Aufzugtüren 703, sondern seitlich versetzt. Im Falle von zwei oder mehr Aufzugtüren 703 nebeneinander positioniert der Roboter 1 sich bspw. zwischen zwei Aufzugtüren 703, jedoch nicht notwendigerweise mittig zwischen den Aufzugtüren 703.
  • Zwei weitere Kriterien bestimmen die Roboterpositionen 750a, 750b des Roboters 1. Zum einen ist es der Abstand zur Aufzugtür 703. Dieser Abstand darf nicht zu groß sein, damit einerseits die Sensorik des Roboters 1 den Aufzuginhalt abtasten kann, wenn sich die Aufzugtür 703 öffnet. Zum anderen navigiert nach dem Öffnen der Aufzugtür 703 der Roboter 1 in Richtung Aufzugtür 703. Wenn der Roboter 1 hierbei die typische Schrittgeschwindigkeit eines Menschen von 1m/s annimmt, würde der Roboter 1 alleine (ohne Beschleunigung und Abbremsen zu berücksichtigen), bei einer Distanz, wie sich aus 10 ergibt, ca. 3 Sekunden benötigen. Damit muss das Warteintervall der Aufzugtür 703 (Aufzugtür 703 komplett geöffnet oder letzte Person passiert bis Einsetzen der Türschließbewegung) bei über 3s liegen. Derartige Werte kann der Roboter 1 entweder durch eine Beobachtung des Aufzugs 700 erlernen und abspeichern (siehe Beispiel 3) oder diese Werte können im Roboter-Speicher 820 schon abgelegt sein. Für die Navigation des Roboters 1 ist es wichtiger, den Aufzug 700 nutzen zu können, als Personen vor dem Aufzug 700 sehr große Bewegungsfreiheit gewähren zu können. Daher ist das zweite Kriterium Distanz zum Aufzug 700 wichtiger als das erste Kriterium mit einer Roboterposition 750, die große Bewegungsfreiheit für die Verkehrsflüsse gewährleistet. Die Distanz zur Aufzugtür 703 wird damit bspw. durch die durchschnittliche Geschwindigkeit des Roboters 1 vor einem Aufzug 703 und das Zeitintervall, währenddessen die Aufzugtür 703 geöffnet ist, ermittelt. Befindet sich der Roboter 1 zwischen den Aufzugtüren 703, verhindert bspw. eine Lichtschranke das Schließen der Aufzugtür 703, womit der Roboter 1 anschließend auch seine Geschwindigkeit reduzieren kann.
  • Das dritte Kriterium zielt darauf ab, dass der Roboter 1 das Innere des Aufzugs 700 nach Öffnen der Aufzugtüren 703 bestmöglich erfassen kann. Bestmöglich heißt in dem Fall, dass der Roboter 1 mindestens 80%, besser mindestens 95% des Aufzugs 700 oder bspw. nur der Rückwand des Aufzugs 700 erfassen kann, wenn keine Personen im Aufzug 700 vorhanden sind. Indem der Roboter 1 eine solche Position einnimmt, kann der Roboter 1 auch, wie an anderer Stelle beschrieben, gut die Anzahl an Personen innerhalb des Aufzugs 700 ermitteln. Auf diese Weise wird sichergestellt, dass der Roboter 1 die wesentliche Fläche des Aufzugs 700 abtasten kann, um zu errechnen, ob für den Roboter 1 ausreichend Platz ist.
  • Umgesetzt wird dieses Kriterium bspw. im Rahmen der Kartierung, die der Roboter 1 vornehmen kann. Hierbei kann der Roboter 1 bspw. die Fläche des Aufzugs 700 ermitteln, indem der Roboter 1 den Aufzug 700 durch eine Positionierung vor oder besser innerhalb des Aufzugs 700 sensorisch abtastet, bspw. mittels LIDAR 34, und über die gemessenen Entfernungen zu den detektierten Aufzugwänden die Aufzugfläche errechnet. Befindet sich der Roboter 1 anschließend außerhalb des Aufzugs 700, jedoch so positioniert, dass der Roboter mittels seiner Sensorik den Bereich der Aufzugtür 703 erfassen kann, tastet der Roboter 1 nach Öffnen der Aufzugtür 703 den Bereich ab, den der Roboter 1 darüber erreichen kann. Durch Positionswechsel tastet der Roboter 1 den Bereich aus unterschiedlichen Positionen ab. Die innerhalb des Aufzugs 700 erfasste Fläche wird jeweils im Roboter-Speicher 820 abgelegt zusammen mit der Roboterposition 750, von der aus diese Fläche ermittelt wurde. Die ermittelten Flächen werden anschließend miteinander verglichen und es wird die Position ausgewählt, von der aus das Maximum der Fläche innerhalb des Aufzugs ermittelt werden konnte.
  • Es wird in 12 erkennbar, dass diese Erfassung in der linken Roboterposition 750b des Roboters 1 nur eingeschränkt umsetzbar ist, da vom Roboter 1 aus die obere rechte Ecke von 700a nicht erkannt werden kann und somit diese Roboterposition 750b demnach nur begrenzt geeignet ist. Die Positionierung des Roboters 1 erfolgt demnach unter der Berücksichtigung, dass 1) der Roboter 1 berücksichtigt Personenverkehrsströme und minimiert hierbei den Einfluss auf deren Fluss, 2) der Roboter 1 dicht genug am Aufzug 700 positioniert ist, um nach Öffnen der Aufzugtüren 703, besser nach Eintreten/Austreten einer Person noch die Aufzugtüren 703 erreichen zu können, bevor diese schließen, unter Berücksichtigung der Geschwindigkeit des Roboters 1, und 3) der Roboter 1 positioniert sich in einem Winkel gegenüber dem Aufzug 700, der dem Roboter 1 ermöglicht, nach Öffnen die Rückwand ausreichend zu erfassen.
  • Wird mehr als eines der Kriterien genutzt, so können diese Kriterien gewichtet zusammen ausgewertet werden, bspw. über eine Zielfunktion, wobei das Kriterium Distanz zur Aufzugtür 703 bspw. am höchsten gewichtet wird. Der Roboter 1 kann bspw. pro Kriterium verschiedene Roboterpositionen 750 ermitteln, die infrage kommen, und dann unter den Roboterpositionen 750 diese auswählen, welcher die Zielfunktion maximiert. Als weiteres Kriterium kommt bspw. noch die Erfassungsreichweite des optischen Sensors zur Erfassung des Aufzuginhalts zum Tragen, welche begrenzt ist, aber dennoch mindestens die Rückseite des Aufzugs 700 von der Position des Roboters 1 erfassen sollte.
  • Beispiel 2: Lernverhalten des Roboters zur Positionierung vor einem Aufzug
  • Der Roboter 1 ist so konfiguriert, dass der Roboter 1 mittels seiner Sensorik (wie z.B. den mindestens einen Umfelderfassungssensor 46) die Aufzugtüren 703 im geschlossenen und geöffneten Zustand erfassen kann. Dies geschieht in einem Aspekt unter Zuhilfenahme der Karten, die im Kartenmodul 11 abgelegt sind und die, in einem Aspekt, der Roboter 1 von der Umgebung des Aufzugs 700 selbst erstellt hat. Die eine oder mehrere Karten umfassen auch den Aufzug 700, wenn die Aufzugtüren 703 geöffnet sind. Bei der Sensorik handelt es sich z.B. um 3D-Sensoren wie eine RGB-D-Kamera oder einen LIDAR 34, alternativ eine RGB-Kamera. Der Roboter 1 identifiziert die Bereiche der Aufzugtüren 703 aufgrund ihrer wechselnden Durchlässigkeit (bspw. dadurch, dass innerhalb der Belegtheitskarten diese Felder mal vollständig belegt sind, mal nicht), erfasst diese Bereiche im Zeitverlauf und ermittelt so über einen längeren Zeitraum, wie lange die Aufzugtüren 703 offen sind. Dabei umfasst der Roboter 1 in einem Aspekt auch, ob sich Personen vor dem Aufzug 700 und/oder innerhalb des Aufzugs 700 befinden (wie bspw. weiter oben näher beschrieben wurde), was ggf. die Öffnungszeiten der Aufzugtür 703 beeinflusst und ggf. auch abhängig von der jeweiligen Aufzugsteuerung ist. Hierbei kann der Roboter 1 auf Berechnungsverfahren des maschinellen Lernens und/oder neuronaler Netze zurückgreifen, bei dem als Ausgangsgröße die Öffnungszeit (also die Zeit, über die die Aufzugtür 703 geöffnet ist) und als Eingangsgröße für die Berechnungen bspw. die Anzahl der Personen vor und/oder innerhalb des Aufzugs 700 herangezogen wird, die der Roboter 1 entsprechend identifiziert und auswertet. Im Ergebnis wird damit eine Tabelle ausgewertet mit der Anzahl an Personen in einer Spalte, der korrespondierenden Öffnungszeit der Aufzugtür 703 in einer anderen Spalte, und ggf. weiteren Größen wie im Folgeabsatz benannt.
  • In einem Aspekt kann es sich bei der Auswertung um eine lineare Regression handeln, bei der mehrere unabhängige Variablen x1, x2, ... als Eingangsgrößen und der abhängigen Variable y aus Ausgangsgröße: y = b0 + b1*x1 + b2x2 + b3*x3 + ...... bn*xn, welche nach der kleinsten Quadrate-Methode geschätzt werden, wobei b jeweils die Regressionsgewichte repräsentiert. Dafür kann bspw. die Bibliothek Scikit-Learn für Python genutzt werden mit dem Befehl LinearRegression(). In einer vereinfachten Ausführung ermittelt der Roboter 1 lediglich die Öffnungszeiten ohne Berücksichtigung weiterer Einflussfaktoren und ermittelt einen Mittelwert. Die auf diesem Wege errechneten Öffnungszeiten werden im Roboter-Rechner 810 zur Geschwindigkeit des Roboters 1 in Relation gesetzt, wobei auch Beschleunigungszeiten und Abbremszeiten berücksichtigt werden. Das heißt konkret, wenn die Türöffnungszeit für ein ermitteltes Szenario (bspw. zwei Personen vor dem Aufzug) drei Sekunden beträgt, der Roboter 1 im Schnitt ca. 0,5m/s zurücklegt (und dabei Be- und Entschleunigung berücksichtigt), darf sich der Roboter 1 nicht weiter weg als 1,5m vom Aufzug befinden, damit der Roboter 1 diesen noch vor Schließen der Aufzugtür 703 erreicht.
  • Beispiel 3: Erfassung und Auswertung von Personenströmen
  • Der Roboter 1 ist so konfiguriert, dass der Roboter 1 mittels seiner Sensorik dazu in der Lage ist, Personen im Zeitablauf zu erfassen, wobei der Trackingprozess dem Stand der Technik folgt. In einem Aspekt wird diese Erfassung zunächst durch Anlegen eines Zeichen-Box in jedem Frame eines Kamerabilds für jedes detektierte Objekt z.B. jeder Person durchgeführt. Die dem zugrunde liegende Objekterkennung, die bspw. auch eine Vorstufe für die Interpretation von Aufzug-Anzeigeelementen 701 und/oder Aufzugbedien-Komponenten 702 ist, kann bspw. mittels Farbgrenzen und Konturextraktionen, Haar-Kaskaden, Histogram-of-gradients und lineare Support Vector Machines, rekursive konvolutionäre neuronale Netzwerke, etc. erfolgen. Pro Zeichen-Box wird das Zentrum der Koordinaten ermittelt (bspw. durch Halbieren der Koordinatenwerte aus den Zeichen-Box-Kanten). Jede Zeichen-Box bekommt eine ID. Im Vergleich zum Folge-Frame werden die euklidischen Distanzen zwischen den Zentren der Koordinaten ermittelt. Dabei wird angenommen, dass die Distanzänderungen zwischen den Frames für die gleichen Objekte kleiner sind als die Distanzen zwischen anderen Objekten. Neue Objekte werden subsequent mit neuen IDs versehen. IDs von Objekten, die nicht mehr auftauchen, bspw. ignoriert. Umgesetzt werden kann dieser Ansatz eines Centroid Trackers bspw. in Python u.a. mittels der Pakete SciPy, NumPy, OpenCV. Dieses Tracking kann dazu genutzt werden, im Umfeld des Roboters 1 Personenströme, aber auch Wartepositionen von Personen zu erfassen. Dabei wird unter einem Personenstrom vor allem die Bewegung einer Person nahe der Aufzugtür 703 verstanden, was in etwa das Umfeld umfasst, welches in 4 durch Pfeile abgebildet ist. Unter Wartepositionen von Personen werden diejenigen Bereiche verstanden, in denen sich erfasste Personen länger als eine definierte Zeitdauer aufhalten, bspw. 3 Sekunden. Um die Echtzeitfähigkeit der Auswertung zu verbessern, kann anstelle von Python auch eine Auswertung in C++ erfolgen, mit entsprechenden Softwarepaketen.
  • Die hierbei erfassten Bewegungen bzw. Wartepositionen werden insbesondere während der Zeiträume erfasst, in denen der Roboter 1 sich in Warteposition vor dem Aufzug 700 befindet, aber auch, wenn der Roboter 1 sich in den Aufzug 700 hinein- oder herausbewegt.
  • Den räumlichen Verläufen der Personenströme und den Wartepositionen werden Koordinaten bzw. Zellen in einer Belegtheitskarte zugeordnet und diese Koordinaten bzw. Zellen werden im Roboter-Speicher 820 abgelegt, wobei ein Attribut jeweils angibt, ob es sich um eine Warteposition oder einen Personenstrom handelt. Ein Personenstrom wird bspw. als solcher erkannt, als dass eine Zelle in einer Belegtheitskarte über einen definierten Zeitraum belegt und dann wieder frei ist. Diese Information kann zusätzlich um Informationen aus der Auswertung bspw. einer Kamera 35 ergänzt werden, die dem auf diese Weise in der Belegtheitskarte registrierten Hindernis die Information Person zuweist, bspw. dadurch, dass die Kameraaufnahmen auf Basis einer Skelettmodellerstellung ausgewertet und bei Erstellung eines Skelettmodells davon ausgegangen wird, dass es sich beim bewegten Hindernis, dass sich in der Zelle der Belegtheitskarte befindet, um eine Person handelt. Die auszuwertenden Daten liegen bspw. tabellarisch vor, mit den Koordinaten bzw. Zellen der Belegtheitskarte als eine Spalte; den Zeitpunkten, wann und/oder wie lange die Koordinaten bzw. Zellen belegt sind, als weitere Spalte; der Information, ob es sich um bei der belegten Koordinate oder Zelle zum jeweiligen Zeitpunkt um bspw. eine Person handelt, in einer weiteren Spalte, etc. Ergänzend können Spalten für kategoriale Daten zu Tageszeiten, Wochentagen, Monaten, etc. vorliegen, um saisonale Effekte zu berücksichtigen. Basierend auf diesen Informationen werden bspw. Verfahren des maschinellen Lernens wie Clusteringverfahren wie hierarchisches Clustering oder K-means-Clustering eingesetzt, um über längere Zeiträume diejenigen Bereiche zu ermitteln, in denen die Personenströme verlaufen und in denen Personen warten. Diese Daten können bspw. über Heatmaps für einen Nutzer des Roboters 1 visualisiert werden, wozu es verschiedene Funktionen in statistischer Software gibt wie bspw. die Funktion „heatmap“ in R, wobei der Roboter 1 lediglich auf Basis der errechneten Cluster Roboterpositionen 750 einnehmen kann. Die Erfassung (d.h. die Erfassung von Personenpositionen im Zeitablauf) kann hierbei im Rahmen einer Kartierung erfolgen, die über mehrere Stunden läuft. Diese Kartierung kann aber in einem Aspekt auch im Rahmen der üblichen Fahrten des Roboters 1 im Betrieb erfolgen, bspw. über ein halbes Jahr. Dabei erfasst der Roboter 1 einzelne Bereiche zwar jedesmal ggf. nur kurz, durch die Anzahl an Fahrten und die Dauer des Zeitraums kann hier aber dennoch eine Vielzahl an Messwerten ermittelt werden. Hierbei werden den Bereichen jeweils Wahrscheinlichkeiten für die beiden Ereignisse Personenstrom und/oder Warteposition zugeordnet.
  • Diese Wahrscheinlichkeiten können vom Roboter 1 wiederum genutzt werden, um eigene Wartepositionen (Roboterpositionen 750 in 11) zu ermitteln. Dabei verfügt ein Bereich, den der Roboter 1 als eigene Warteposition in Betracht zieht, eine geringe Wahrscheinlichkeit für Personenströme und optional eine hohe Wahrscheinlichkeit für eine Warteposition von Personen vor. Die Wahrscheinlichkeit berechnet sich bspw. als ermittelte Auftretenshäufigkeit der Belegung über alle erfassten Zeitpunkte (bspw. 10 min ermittelte Belegtheit der Zelle der Belegtheitskarte durch 5h Erfassung der Zelle, wobei hier saisonale Aspekte wie oben beschrieben berücksichtigt werden können). Dies wird jedoch insofern eingeschränkt, als dass hin zu den Aufzugs-Bedienelemente 703, um den Aufzug 700 zu rufen, ausreichend Platz gehalten wird, z.B. mindestens 50 cm, damit Personen in der Lage sind, den Aufzug 700 zu rufen.
  • Beispiel 4: Erlernen einer Warteposition auf Basis der Erkennbarkeit von Personen im Aufzug
  • Der Roboter 1 hat in einer Warteposition (Roboterposition 750) vor dem Aufzug 700 das Ziel, zeitnah mittels des Aufzugs 700 die Etage zu wechseln. Dafür ist es nötig, einen Aufzug 700 zu benutzen, in dem ausreichend Platz für den Roboter 700 ist. Der Platz wird vor allem durch Personen (ggf. auch andere Objekte wie weitere Roboter) blockiert, die sich im Aufzug 700 befinden. Der Roboter 1 kann, in einem Aspekt, bei jeder Öffnung der Aufzugtür 703 direkt in den Türbereich navigieren, um zu erfassen, wie viel Platz sich im Aufzug 700 befindet, d.h. um zu evaluieren, ob der Roboter 1 in den Aufzug 700 mit hineinpasst. Dies würde jedoch Personen am Aussteigen (und ggf. auch Einsteigen) hindern, die Aufenthaltsdauer des Aufzugs 700 in der Etage verlängern und damit die Transportkapazität des Aufzugs 700 verringern. Aus diesem Grund positioniert sich der Roboter 1 z.B. in ausreichender Entfernung von der Aufzugtür 703, um Personen entsprechend Raum zum Verlassen (und ggf. Betreten) des Aufzugs 700 zu geben. Dabei ist es jedoch vorteilhaft, den Inhalt des Aufzugs 700 zu erfassen, um feststellen zu können, ob ausreichend Platz für den Roboter 1 im Aufzug 700 ist. Je nach Ausgestaltung des Aufzugs 700 können aus bestimmten Winkeln unterschiedlich viele Personen bzw. Hindernisse im Aufzug 700 erkannt werden. Der Roboter 1 kann daher, in einem Aspekt, so konfiguriert sein, dass der Roboter 1 automatisch die Roboterpositionen 750 einnimmt, in denen der Roboter 1 am besten einschätzen kann, ob der Roboter 1 noch in den Aufzug 700 hineinpasst.
  • Im Rahmen dieser Implementierung speichert der Roboter 1 die Koordinaten der Position ab, von der aus der Roboter 1 den Inhalt des Aufzugs 700 (und in einem weiteren Aspekt auch das Umfeld auf der Etage mit wartenden Personen) abtastet. Der Roboter 1 erfasst die Inhalte des Aufzugs 700 (ggf. einen leeren Aufzug 700, einen Aufzug 700 mit Personen, mit weiteren Hindernissen, etc.), die Anzahl Personen (ggf. auch die Dimensionen von Objekten), die den Aufzug 700 verlassen, in dem weiteren Aspekt auch die Zahl an Personen, die in den Aufzug 700 hineingeht. Diese Informationen fungieren allesamt als mögliche Eingangsgrößen eines Berechnungsmodells, ggf. ergänzt um saisonale Daten wie weiter oben beschrieben. Für die Berechnungen liegen diese Daten in tabellarischer Form vor, bspw. jeweils pro Kriterium in Spalten. Des Weiteren erfasst der Roboter 1, ob er ebenfalls in den Aufzug 700 hineingepasst hat oder der Roboter 1, bei Navigation in Richtung Aufzug 700 bzw. gar innerhalb des Aufzugs 700 nicht genug freien Platz detektieren konnte, den der Roboter 1 einnehmen konnte, um mit dem Aufzug 700 die Etage zu wechseln, so dass der Roboter 1 den Aufzugfahr-Vorgang abbrechen musste und sich erneut in eine Warteposition begeben musste. Letztere Ereignisse differenziert der Roboter 1 bspw. binär, d.h. der Roboter 1 konnte den Aufzug 700 benutzen oder nicht. Diese Werte fließen bspw. ebenfalls in die genannte Tabelle für die Berechnungen ein, bspw. als Spalte mit korrespondierenden Werten, wobei die verschiedenen genannten Ereignisse wie begrenzter Platz im Aufzug 700, etc. kategorial hinterlegt werden können. Auf Basis dieser Daten wird ein Modell geschätzt, welches Wahrscheinlichkeiten ausgibt, dass sich von bestimmten Koordinaten besonders gut vorhersagen lässt, dass der Roboter 1 auf Basis der erfassten Inhalte des Aufzugs 700 tatsächlich auch mitfahren kann. Hierfür können verschiedene Berechnungsverfahren eingesetzt werden, die aus dem Bereich des maschinellen Lernens und/oder neuronaler Netze stammen, darunter bspw. die oben erwähnte logistische Regression. Das Berechnungsergebnis gibt Koordinaten an, die mit hoher Wahrscheinlichkeit, unter Berücksichtigung erfasster Aufzuginhalte, sich im Umfeld des Aufzugs 700 befindlichen Personen usw. ein Mitfahren des Roboters 1 ermöglichen. Dabei dienen die weiteren Daten wie saisonale Effekte bspw. als beeinflussende und/oder begrenzende Faktoren.
  • Grundlage für eine Schätzung sind Navigationsaktivitäten des Roboters 1 und abgespeicherte Daten zu erfolgreichen Mitfahrten des Roboters 1 im Aufzug 700 und nicht erfolgreichen Mitfahrversuchen, die im Zeitablauf kumuliert erfasst werden und bspw. in tabellarischer Form vorliegen und an anderer Stelle in dieser Offenbarung beschriebener Weise ausgewertet werden.
  • Beispiel 5: Selbstlernen der Aufzugbedienung
  • Der Roboter 1 ist in einem Aspekt so konfiguriert, dass der Roboter 1 im Umfeld einer Aufzugtür 703, deren Position sich z.B. basierend auf einer Karte ergibt, die Aufzug-Bedienkomponente 702 und/oder die Aufzug-Anzeigeelemente 701 selbständig identifizieren kann, wobei der Roboter 1 in einem Aspekt auf eine Datenbank an den Aufzug-Bedienkomponenten 702 und den Aufzug-Anzeigeelementen 701 Klassifikationsregeln zugreifen kann, die im Roboter-Speicher 820 abgelegt ist. Diese Klassifikationsregeln sind jedoch nicht notwendigerweise insofern deterministisch, als dass jede Aufzug-Bedienkomponente 702 und/oder jedes Aufzug-Anzeigeelemente 701 dort exakt niedergelegt ist und der Roboter 1 lediglich einen Abgleich von Form und/oder Farbe vornehmen muss, um eine Aufzug-Bedienkomponente 702 und/oder jedes Aufzug-Anzeigeelement 701 im Umfeld einer Aufzugtür 703 (oder innerhalb eines Aufzugs 700) zu identifizieren. Vielmehr stellen die im Rahmen der Klassifizierung identifizierten Merkmale darauf ab, selbständig die Aufzug-Bedienkomponente 702 und/oder jedes Aufzug-Anzeigeelement 701 zu erkennen basierend auf gemeinsamen Merkmalen wie bspw. (arabischen) Zahlen, Buchstaben, Tasten, Mehrsegmentanzeigen, Farbänderungen der Tasten, usw. Dazu ist der Roboter 1 in der Lage, Ereignisse im Zeitablauf auszuwerten, die u.a. von erkannten Personen getriggert werden, wie bspw. das Drücken von Tasten (d.h. also von Aufzug-Bedienkomponenten 702), oder aber durch den Aufzug 700 selbst ausgelöst werden, wie bspw. das Öffnen der Aufzugtür 703.
  • Der Roboter 1 identifiziert daher in einem ersten Schritt basierend auf den gemeinsamen Merkmalen innerhalb des Aufzugs 700 bzw. in dessen Umfeld entsprechende Kandidatenregionen, die mit hoher Wahrscheinlichkeit Aufzug-Bedienkomponente 702 und/oder Aufzug-Anzeigeelement 701 des Aufzugs 700 darstellen. Hierzu greift der Roboter 1 in einem Aspekt u.a. auf eine im Roboter-Speicher 820 abgelegten Karte zu (die bspw. im Kartenmodul 11 liegt), in der die Position von Aufzügen 700 verzeichnet ist. Wie in 4 und 9 dargestellt können diese Aufzug-Anzeigeelemente 701 und/oder die Aufzug-Bedienkomponente 702 Zahlen sein, die sich oberhalb des Aufzugs 700 befinden, Knöpfe, die sich neben den Aufzugtüren 703 befinden, usw. Die Aufzug-Bedienkomponente 702 und Aufzug-Anzeigeelemente 701 werden im Zeitablauf erfasst und überwacht. Dabei werden Einflussfaktoren erfasst, die die Wahrscheinlichkeit erhöhen, dass es sich tatsächlich um eine Aufzug-Bedienkomponente 702 und/oder ein Aufzug-Anzeigeelemente 701 handelt. Diese Einflussfaktoren können mit Blick auf ein Aufzug-Anzeigeelemente 701 oberhalb der Aufzugtür 703 bspw. sein, dass dort identifizierte Zahlen sich im Zeitverlauf verändern, dass ggf. dann, wenn die angezeigte Zahl die Etagennummer wiedergibt, sich die Aufzugtür 703 öffnet. Mit Blick auf Aufzug-Bedienkomponente 702 kann das bedeuten, dass diese Aufzug-Bedienkomponente 702 durch identifizierte und überwachte Personen betätigt werden, was bspw. ein Öffnen der Aufzugtür 703 innerhalb eines definierten Zeitraums ab Identifizierung des Betätigungszeitpunkts beinhaltet, eine Veränderung der Etagennummern über dem Aufzug 700, etc. Der Ablauf der Erfassung einer Aufzugbetätigung ist bspw. an anderer Stelle in diesem Dokument dargelegt.
  • In einer Ausführungsvariante wird mit derartigen Informationen mindestens ein neuronales Netzwerk trainiert, z.B. ein konvolutionäres neuronales Netzwerk mit Rückwärtspropagation, dass als Eingangsgrößen gemeinsame Merkmale setzt und als Ausgangsgröße die Funktion, die mit dem Merkmal assoziiert ist. Darüber kann bspw. ein Aufzug-Ruftaster ausgewertet werden. Als Eingangsgröße dient die Erfassung des Auslösens eines oder mehrerer Aufzug-Bedienkomponenten 702 (an anderer Stelle näher beschrieben, was jeweils Körperposen, d.h. Orientierungen von in einem Skelettmodell stilisierten Gliedmaßen im Raum und deren Bewegungen sowie bspw. die Position von Aufzug-Bedienkomponenten 702), als Ausgangsgröße bspw. die Fahrt des Aufzugs 700 in eine bestimmte Richtung (bspw. indiziert durch ein Aufzug-Anzeigeelement 701). Derartige Werte werden tabellarisch gespeichert und dann ausgewertet, die das bereits an anderen Stellen in dieser Offenbarung beschrieben wurde. Alternativ zu einem neuronalen Netzwerk kann auch eine multinomiale logistische Regression genutzt werden. Dabei wird eine lineare Prädiktorfunktion genutzt, die einen Score mittels eines Satzes an linear kombinierten Knoten-Gewichten ermittelt, welche mit den Eingangsgrößen als Skalarprodukt multipliziert werden: score(Xi,k) = βk · Xi, dabei ist Xi ein Vektor der Eingangsgrößen für die Beobachtung i, βk ist ein Gewichtsvektor bzw. Regressionskoeffizient mit Blick auf die jeweilige Ausgangsgröße k. Der Score kann wiederum direkt in einen Wahrscheinlichkeitswert konvertiert werden, dass die Beobachtung i der Eingangsgrößen zur jeweiligen Ausgangsgröße k führt. Eine Umsetzung ist bspw. mittels des Befehls LogisticRegression() in SCIKIT-LEARN für Python möglich, bspw. mit dem Zusatzbefehl multi_class=‚multinomial‘ in den Klammern. Dabei werden bspw. verschiedene Aufzug-Bedienkomponenten-Auslöseereignisse als Eingangsgröße, Aufzugfahrrichtungen als Ausgangsgröße definiert.
  • Beispiel 6: Etagenkontrolle durch den Roboter
  • Der Roboter 1 kann in einem Aspekt derart konfiguriert sein, dass der Roboter 1, bspw. wenn der Roboter 1 sich im Aufzug 700 befindet, nach Öffnen der Aufzugtür 703 die Umgebung außerhalb des Aufzugs 700 abtasten kann. In einem alternativen Aspekt findet das Abtasten während des Verlassens des Aufzugs 700 statt und/oder nachdem der Roboter 1 den Aufzug 700 verlassen hat.
  • Im Rahmen dieses Abtastens identifiziert der Roboter 1 Merkmale der Umgebung, um diese Merkmale mit im Roboter-Speicher 820 abgelegten Merkmalen der Etage abzulegen, die in einem Aspekt Teil der Karte sein können, die der Roboter 1 zur Navigation nutzt. Dabei dienen Merkmale, die für die Etage charakteristisch sind und insbesondere erlauben, die Etage von weiteren Etagen zu unterscheiden, als Instrument zur Verifizierung, ob der Roboter 1 sich in der Etage befindet, in der den Aufzug 700 zu verlassen beabsichtigt. Bei diesen Merkmalen kann es sich charakteristische Formen der Wände handeln, um Gegenstände, die im Umfeld des Aufzugbereichs positioniert sind, um Wandbilder, Barcodes (inkl. Barcodes, die durch einen LIDAR 34 ausgelesen werden können und demzufolge dreidimensional ausgestaltet sind), es kann sich um optische Signale handeln, die auf der Etage emittiert werden, Schallsignale, elektromagnetische Signale wie bspw. solche, die von WLAN-Zugangspunkten emittiert werden, etc. Hierbei können, in einem Aspekt, auch Bildauswertungsverfahren genutzt werden, um Zahlen an Wänden zu identifizieren. In einem Aspekt können diese Merkmale mit Koordinaten aus der Karte des Roboters 1 versehen werden. Der Roboter 1 erfasst die Merkmale im Umfeld des Aufzugs 700, gleicht diese erfassten Merkmale mit abgespeicherten Merkmalen in einer Datenbank ab, die sich z.B. im Roboter-Speicher 820 befindet und die bspw. im Rahmen einer zuvor erfolgten Kartierung erhoben wurde, und ermittelt darüber die Nummer der Etage, in der der Roboter 1 sich befindet, und gleicht diese Nummer wiederum mit der Etagennummer der Zieletage ab.
  • Eine solche Etagenkontrolle kann dazu dienen, bspw. bei für den Roboter 1 nicht erkennbaren Aufzug-Bedienkomponenten 702 und/oder Aufzug-Anzeigeelemente 701 zu verifizieren, ob der Roboter 1 sich auf der richtigen Etage befindet. Dieser Kontrollmechanismus kann in einem Aspekt auch die Ansprache von Personen zum Drücken von Tasten (Schritt 235) oder die Auswertung der Aufzug-Bedienkomponente (Schritt 425) ersetzen.
  • Beispiel 7: Türöffnungskontrolle
  • In Abhängigkeit von der Aufzuggröße, der Position des Roboters 1 innerhalb des Aufzugs 700, seiner räumlichen Orientierung, der Orientierung seiner Sensoren und/oder der Zahl an weiteren Personen und/oder Hindernissen im Aufzug 700 kann der Roboter 1 ggf. das Öffnen der Aufzugtür 703 nicht direkt erfassen, weil keine direkte Sichtverbindung zwischen der Aufzugtür 703 und der Sensorik des Roboters 1 wie dem LIDAR 34 und/oder einer Kamera 35 (2D oder 3D), Ultraschall, Radar, etc. besteht. Für derartige Fälle kann der Roboter 1 in einem Aspekt Helligkeitsschwankungen und/oder Tonsignale erfassen. Helligkeitsschwankungen können über spezielle optische Sensoren auf der Oberfläche des Roboters 1 ermittelt werden, bspw. photoresistive Sensoren, aber auch eine Kamera 35. Dabei werden Helligkeitsschwankungen detektiert und diesen Türöffnungsereignisse zugeordnet. Hierbei kann, in einem Aspekt, das Intervall, nach dem die Helligkeitsschwankung detektiert wird, mit im Roboter-Speicher 820 hinterlegten Fahrintervallen des Aufzugs 700, die angeben, nach welchen Zeitintervallen typischerweise eine Türöffnung stattfindet, verglichen werden, um die Detektion der Türöffnung der Aufzugtür 703 präziser zu erfassen.
  • Beispiel 8: Gewichtsschätzung durch den Roboter
  • Wenn es sich beim Roboter 1 um einen Transportroboter handelt, der schwere Gegenstände transportieren kann, Aufzüge 700 aber in der Regel über Gewichtsbeschränkungen verfügen, ist es in dem Falle hilfreich zu ermitteln, ob der Roboter 1 durch hineinfahren in den Aufzug 700 das Maximalgewicht der Aufzugzuladung des Aufzugs 700 überschreiten würde. Während regelmäßig davon ausgegangen werden kann, dass ein (Transport)roboter 1 mit einer typischen Last das Maximalgewicht der Aufzugladung nicht überschreiten dürfte, wenn er dazu konfiguriert ist, den Aufzug 700 zu nutzen, kann die Situation anders sein, wenn sich bereits Gegenstände, u.a. Personen, im Aufzug 700 befinden und die Aufzugzuladung sich demnach aus diesen Gegenständen und/oder Personen und den (Transport)roboter mit Zuladung ergibt. 11 illustriert den Ablauf dieses Prozesses.
  • Der Roboter 1 kann in einem ersten Schritt 505 zu seinem eigenen Gewicht, dass im Roboter-Speicher 820, bspw. dort in einer Datenbank, abgelegt ist, das Gewicht von Zuladungen im Schritt 510 ermitteln. Hierbei kann der Roboter 1 in einem Aspekt eine Messung über ein roboterintegriertes Wägesystem vornehmen (Schritt 514) (oder über eine externe Waage, auf die der Roboter 1 fährt und die dem Roboter 1 anschließend das Zuladegewicht mitteilt - Schritt 516), in einem anderen Aspekt auf im Roboter-Speicher 820, abgelegte Gewichtswerte zurückgreifen 512 (insbesondere dann, wenn der Roboter 1 zumeist Gegenstände mit einheitlichem Gewicht transportiert). In letzterem Fall kann der Roboter 1 in einem ergänzenden Aspekt die Last zunächst über Sensoren im Schritt 520 identifizieren (bspw. als eine bestimmte Art von Paletten), d.h. zunächst diese Objekte im Schritt 522 erkennen, im Schritt 524 klassifizieren und dann, über eine Datenbank, den identifizierten Gegenständen ein im Roboter-Speicher 820 niedergelegtes Gewicht im Schritt 526 zuordnen. Die Klassifizierung erfolgt bspw. analog zu anderen in dieser Offenbarung beschriebenen Klassifizierungen. Der Roboter 1 addiert dann dieses Gewicht der Zuladung zu seinem eigenen Gewicht im Schritt 530.
  • Die Objekterkennung kann in einem Aspekt mittels des R-CNN-Verfahrens (Girshick et al. 2014; arXiv:1311.2524) implementiert werden. Dabei wird mittels selektiver Suche von Kandidatenregionen erfolgen, in denen sich Objekte befinden (Uijlings et el. 2013, DOI: 10.1007/sl 1263-013-0620-5). In einem nächsten Schritt kann die Kandidatenregion bspw. mittels einem konvolutionären neuronalen Netzwerk, um einen Merkmalsvektor zu generieren. Hierbei kann bspw. AlexNet eingesetzt werden, ggf. mit einer Skalierung der Eingangsbilder der Kandidatenregionen auf die von AlexNet benötigte Eingangsgröße. Der Merkmalsvektor als Ausgangsgröße besteht bspw. aus 4096 Dimensionen. Diese Vektoren werden anschließend mittels einer Support Vector Machine klassifiziert. Dabei wird jeweils eine Support Vector Machine für jede Objektklasse genutzt. Damit wird pro mögliches Objekt ein Konfidenz-Score ermittelt, der die Wahrscheinlichkeit angibt, dass der Merkmalsvektor das jeweilige Objekt repräsentiert. Eine Kandidatenregion wird verworfen, wenn diese Region eine „Intersection over Union“-Überlappung aufweist, die bspw. einen höheren Score aufweist, der größer ist als ein gelernter Schwellwert. Insgesamt wird zunächst das konvolutionäre neuronale Netzwerk mit Trainingsdaten trainiert, dann die jeweiligen Support Vector Machines. Alternativ zum R-CNN-Verfahren kann bspw. auch das Faster-R-CNN-Verfahren zum Einsatz kommen (Ren et al. 2016, DOI: 10.1109/TPAMI.2016.2577031). Diese Objekterkennung kann bspw. auch für die Identifizierung von Aufzug-Anzeigeelementen 701 und Aufzug-Bedienkomponenten 702 genutzt werden.
  • Wenn der Roboter 1 im Schritt 535 auf Basis von Schritt 310 in 8 die Zahl der Personen ermittelt, kann der Roboter 1 im Schritt 540 die Anzahl an Personen mit einem im Roboter-Speicher 820 abgelegten durchschnittlichen Personengewicht 545 multiplizieren, um das Gewicht der Personen innerhalb des Aufzugs 700 zu schätzen. In einem optional ergänzenden Aspekt wird der Durchschnittswert des Personengewichts durch eine detailliertere Schätzung ersetzt, die zunächst Personen im Aufzug 700 im Schritt 550 identifiziert, diese im Schritt 552 nach ihren äußeren Dimensionen klassifiziert (bspw. in eine Personendimensionsklasse bestehend aus großen und breiten Personen; eine aus großen, normalbreiten Personen; eine aus großen und schlanken Personen; eine aus normalgroßen und breiten Personen; etc.) und dann, je nach Personendimensionsklasse, eine genauere Gewichtsermittlung pro Person im Schritt 554 vornimmt und dann die pro Person geschätzten Gewichte im Schritt 556 addiert. Dabei sind im Roboter-Speicher 820, vergleichbar mit dem durchschnittlichen Personengewicht 545, je Personendimensionskasse Gewichte hinterlegt. Es sind auch Kombinationen aus diesen beiden Aspekten möglich.
  • In einem Aspekt kann der Roboter 1 auch weitere Roboter innerhalb des Aufzugs 700 ergänzend und/oder alternativ zu darin vorhandenen Personen im Schritt 560 identifizieren, deren Gewicht mittels im Roboter-Speicher 820 hinterlegter Daten im Schritt 562 ableiten (d.h. vergleichbar mit Schritt 545), erkennen, ob diese eine Ladung transportieren (Bilderkennung, Klassifizierung und Abgleich mit Roboter-Speicher 820) im Schritt 564, das Zuladegewicht im Schritt 566 wie in Schritt 526 bestimmen und deren Gesamtgewicht im Schritt 570 ermitteln. Weiterhin summiert der Roboter 1 das Personengewicht und ggf. das Gewicht des noch im Aufzug 700 vorhandenen Roboters auf, was das Gewicht aller Aufzuginhalt im Schritt 575 ergibt.
  • Der Roboter 1 addiert zum alten Aufzuginhaltsgewicht sein eigenes Gewicht plus das Gewicht der eigenen Zuladung, errechnet so das voraussichtliche Ladegewicht des Aufzugs 700 (neuer Aufzuginhalt) im Schritt 577 und vergleicht dieses voraussichtliche Ladegewicht mit einem in der Datenbank hinterlegten maximalen Zuladegewicht des Aufzugs 700 im Schritt 579. Sofern das maximale Zuladegewicht durch die vorhandenen Personen (ggf. zzgl. des sich bereits im Aufzug 700 befindlichen Roboter 1) dann durch Hineinnavigieren des Roboters 1 in den Aufzug 700 überschritten werden würde, fährt der Roboter 1 nicht in den Aufzug 700, sondern wartet auf den nächsten Aufzug 700 (oder darauf, dass der Aufzug 700 zurückkommt.) Alternativ kann der Roboter 1 auch, über eine der vorhandenen Ausgabevorrichtungen, Personen bitten, den Aufzug 700 im Schritt 580 zu verlassen. Ist das Ladegewicht des neuen Aufzuginhalts hingegen größer als das maximale Zuladegewicht, fährt der Roboter 1 in den Aufzug 700 hinein 585.
  • Beispiel 9: Erkennen der Etagenanzahl auf Basis von Beschleunigungsparametern des Aufzugs
  • Wie in Schritt 410 beschrieben wurde, tastet der Roboter 1 im Aufzuginneren des Aufzugs 700 die Umgebung nach Aufzug-Anzeigeelemente 701 und/oder Aufzug-Bedienkomponente 702 ab, aus denen sich ableiten lässt, auf welcher Etage der Roboter 1 sich befindet. Sofern diese Etage nicht erkennbar sind, ist der Roboter 1 in der Lage, Personen anzusprechen, die den Roboter 1 auf die richtige Etage im Schritt 420 verweisen. Ein alternativer und/oder ergänzender Aspekt in dieser Hinsicht ist es, mittels eines Inertialsensors 45 die Etagenzahl zu ermitteln, in der sich der Roboter 1 befindet, wenn sich bspw. die Türen 703 öffnen. Hierbei wird ein System implementiert, das in einem Aspekt autonom arbeitet und keine Aufzugparameter benötigt, wie das bspw. in EP3453663 der Fall ist, wo die Geschosshöhe ein Eingangsparameter für die beschleunigungssensor-basierte Etagenermittlung eines Roboters darstellt.
  • Das hier beschriebene System nutzt einen Inertialsensor 45 innerhalb des Roboters 1, bspw. einen Beschleunigungssensor, der die Beschleunigung des Roboters 1 bspw. innerhalb des Aufzugs 700 erfasst, wie 12a) darlegt. Dieser Inertialsensor 45 misst im Schritt 605 die Beschleunigung in vertikaler Richtung, darunter auch die Erdbeschleunigung. Der Messwert dieser ist im Roboter-Speicher 820 abgelegt, bspw. als prädefinierter Wert 610 (z.B. 9,81 m/s2). Den Wert für die Erdbeschleunigung kann der Roboter 1 aber auch selbst ermitteln, indem der Roboter 1 die Beschleunigung außerhalb des Aufzugs 700 misst, wenn der Roboter 1 sich im Schritt 614 nicht fortbewegt, oder aber im Schritt 613 innerhalb des Aufzugs 700, wenn der Roboter 1 detektiert, dass die Türen 703 offen sind (bspw. zwischen Schritt 440 und 445 in 9), der Aufzug 700 sich folglich auch nicht in vertikaler Richtung fortbewegt. In beiden Fällen befindet sich der Roboter 1 in einer Ruheposition 612.
  • Bewegt sich der Aufzug 700 eine Etage tiefer, so nimmt die ermittelte Beschleunigung in vertikaler Richtung zunächst zu, ist also größer als die Erdbeschleunigung, nimmt dann ab, erreicht das Niveau der Erdbeschleunigung, ggf. auch über einen längeren Zeitpunkt, wenn der Aufzug 700 mit konstanter Geschwindigkeit fährt, und, wenn der Aufzug 700 abbremst, sinkt die ermittelte Geschwindigkeit unter den Wert der Erdbeschleunigung, um diesen dann im Ruhezustand des Aufzugs 700 wieder zu erreichen. Fährt der Aufzug eine Etage höher, sinkt die ermittelte Beschleunigung zunächst unter die Erdbeschleunigung, erreicht diese dann wieder (bspw. beim Zurücklegen einer Wegstrecke mit konstanter Geschwindigkeit), und steigt dann wieder an, wenn der Aufzug 700 seine Geschwindigkeit von der Zieletage reduziert, um dann wieder den Wert der Erdbeschleunigung im Ruhezustand des Aufzugs 700 zu erreichen.
  • Die Aufzugbeschleunigung, die der Roboter 1 ermittelt als Differenz zur Erdbeschleunigung, hängt von der Höhe (d.h. der Anzahl der Etagen) und der Dauer, d.h. dem Verlauf über die Zeit ab, die der Aufzug 700 zurücklegt. So kann die Höhe der Beschleunigungsamplituden bspw. niedriger sein, wenn der Aufzug 700 vom vierten in den fünften Stock fährt, sie kann jedoch höher sein, wenn es vom Erdgeschoss in den zehnten Stock geht. In zweiten Fall ist auch die Wegstrecke (und damit die Zeit), die mit konstanter Geschwindigkeit zurückgelegt wird, größer als im ersten Fall. Daraus ergibt sich, dass für Fahrten zwischen den jeweiligen Etagen charakteristische Kurvenverläufe auftreten, wenn die Beschleunigungen über den Zeitablauf ermittelt werden, d.h. das mittels Inertialsensor 45 aufgezeichnete Muster für eine Fahrt vom zweiten in den fünften Stock unterscheidet sich vom Muster einer Fahrt vom zweiten in den sechsten Stock. Unter der Annahme, dass alle Etagen die gleiche Höhe haben, wäre das Muster einer Fahrt vom dritten in den sechsten Stock das gleiche wie vom zweiten in den fünften Stock. Entsprechendes gilt auch für Fahrten von höheren in niedrigere Stockwerke.
  • Die hierbei getroffenen Annahmen gehen jedoch davon aus, dass die Kurven der Beschleunigungsverläufe stets gleich sind, wenn eine Fahrt von zweiten in den fünften Stock stattfindet. Dies hängt jedoch von der Aufzugsteuerung bzw. der Leistungsfähigkeit des Aufzugs ab, so dass sich die Beschleunigungswerte verändern könnten, wenn die Zuladung des Aufzugs 700 steigt.
  • Der Roboter 1 ist so konfiguriert, dass der Roboter 1 zunächst das Aufzugfahrverhalten erlernt (siehe 12b), d.h. der Roboter 1 ermittelt den Verlauf der Beschleunigung über die Zeit und ordnet diesen Etagenwerte zu, was nachfolgend als etagendifferenzabhängiges Beschleunigungsmuster-Erkennung 620 bezeichnet wird. Konkret bedeutet dies, dem Roboter 1 ist bei Einfahren in den Aufzug 700 über sein Navigationssystem bekannt, auf welcher Etage er sich befindet 625. Der Roboter 1 erfasst über seine Sensorik, z.B. einen LIDAR 34, eine Kamera 35, etc., den Schließvorgang der Aufzugtür 703 (Schritt 630) und startet die Erfassung der Beschleunigungswerte 635 (sofern er diese permanent erfasst, wird eine Marke wie bspw. eine Zeitmarke gesetzt, ab wann die Auswertung erfolgen soll). Auch tastet der Roboter 1, wie in Schritt 355 dargelegt, während der Zeit im Aufzug 700, die Umgebung ab, um zu ermitteln, in welcher Etage der Roboter 1 sich befindet 640 bzw. erfasst in Schritt 440, wenn sich die Aufzugtür 703 öffnet und damit ein Stop in einer Etage eingelegt wird 645. In dem Moment stoppt der Roboter 1 auch die Aufzeichnung des Beschleunigungsverlaufs über die Zeit 650 (oder setzt eine Zeitmarke). Start und Stop der Aufzeichnung kann in einem Aspekt auch heißen, dass ein Sampling über dieses Zeitintervall stattfindet, während die Aufzeichnung der Beschleunigungswerte davor und/oder danach weiter erfolgt. Damit kann der Roboter 1 das Fahrverhalten des Aufzugs 700 kartieren, indem der Roboter 1 zwischen den Etagen, die der Aufzug 700 anfährt, die Beschleunigungsverläufe im Zeitablauf ermittelt und, zusammen mit der Start- und Endetage (und damit auch eine Fahrrichtung), im Roboter-Speicher 820 ablegt 655. Als weiteres Attribut kann der Roboter 1 im Schritt 660 die ermittelte Personenzahl (Schritt 315) einbeziehen oder, sofern vorhanden, das Gewicht des neuen Aufzuginhalts (Schritt 577). Um die Messwerte (d.h. insbesondere die vom Inertialsensor 45 ermittelten Kurvenverläufe) zu glätten 665, kann optional bspw. ein Kalman-Filter eingesetzt werden. Alternativ und/oder ergänzend können optional auch Verfahren des maschinellen Lernens eingesetzt werden, um Messungenauigkeiten auszugleichen/zu glätten, indem bspw. ein Regressionsmodell gerechnet wird, bei dem als Ausgangsgröße die Messwerte dienen und als Eingangsgröße die ermittelten Zeitintervalle, die Etagenzahlen, ggf. auch Gewichtsschätzungen, bspw. die ermittelte Personenzahl bzw. das Gewicht des neuen Aufzuginhalts, der Fahrtrichtung, etc., welche jeweils tabellarisch als korrespondierende Werte vorliegen.
  • In einem optionalen weiteren Schritt errechnet der Roboter 1 die Differenzen zwischen den einzelnen Etagen, zu denen der Roboter 1 Messungen angestellt hat, und vergleicht die ermittelten Kurvenverläufe miteinander, d.h. ermittelt deren Ähnlichkeit. Dabei sind verschiedene Vergleichsverfahren bzw. Verfahren der Ähnlichkeitsermittlung möglich, bspw. die Wurzel aus der Quadratsumme. Weisen die Differenzen jeweils auf eine hohe Ähnlichkeit hin, so haben die Etagen im Wesentlichen einen konstanten Abstand, d.h. der Roboter 1 braucht nicht unbedingt die Etagenzahl zu berücksichtigen, sondern kann mit Etagendifferenzen rechnen (basierend auf einer Etagenzahl, die bspw. die Startetage angibt).
  • Um mittels des Inertialsensors 45 die Etagenzahl zu ermitteln (siehe 12c), in der sich der Roboter 1 beim Öffnen einer Aufzugtür 703 befindet (Schritt 670), nutzt der Roboter 1 die Startetagenzahl im Schritt 625, erfasst das Schließen der Aufzugtür 703 im Schritt 630, beginnt mit der Aufzeichnung der erfassten Beschleunigung im Schritt 635 (oder setzt eine Marke), erfasst das Öffnen der Türen im Schritt 645 und beendet bei Detektion der Türöffnung die Aufzeichnung der Beschleunigungswerte im Schritt 650 (oder setzt wieder eine Marke). Ergänzend kann der Roboter 1 auch die erfasste Personenzahl (siehe Schritt 315) und/oder das Gewicht des neuen Aufzuginhalts (siehe Schritt 577) als weitere Attribute im Schritt 660 einbeziehen und die erfasste Personenzahl und/oder das Gewicht des Aufzuginhalts, zusammen mit der Startetage und dem Verlauf der Beschleunigungswerte, über die Zeit abspeichern 675. Es kann, in einem Aspekt, auch noch ein Glätten der aufgezeichneten Messwerte der Beschleunigungsverläufe im Schritt 665 erfolgen. Es findet anschließend ein Abgleich des Verlaufs der Beschleunigungswerte, ggf. der Start-Etagenzahl, bspw. der Fahrtrichtung, ggf. der Personenzahl und/oder Gewicht des neuen Aufzuginhalts mit den korrespondierenden Attributen der im Schritt 680 im Roboter-Speicher 820 erstellten Datenbank 685 zur Ermittlung der End-Etagenzahl statt.
  • Beispiel 10: Erkennen der Etagenanzahl auf Basis von Türschließintervallen
  • Alternativ und/oder ergänzend zu Beispiel 9 kann der Roboter 1 auf in einem Speicher hinterlegte Zeitintervalle zurückgreifen, bspw. den Roboter-Speicher 820 oder den Cloud-Speicher 860 und die beschreiben, dass bspw. die Fahrt in einem Aufzug 700 zwischen zwei Etagen sechs Sekunden dauert, bspw. gemessen zwischen dem Türschließ- und Türöffnungszeitpunkt, woraus sich die Etage ermitteln lässt, wenn sich die Aufzugtür 703 öffnet. Die im Speicher (820, 860) abgelegten Werte erhalten als weiteres Attribut die Anzahl der ermittelten Personen im Aufzug 700 bzw. das Gewicht des neuen Aufzuginhaltes berücksichtigen, welche der Roboter 1 wie an anderer Stelle beschrieben ermitteln kann. Damit folgt dieses Vorgehen im Wesentlichen dem in 12b und c), mit dem Unterschied, dass anstelle des Beschleunigungsverlaufs über die Zeit lediglich die Zeit erfasst wird. Dies betrifft sowohl den Detektionsvorhang als auch den Lernvorgang und ergänzt oder substituiert damit die in den vorangegangenen Beispielen genannten Verfahren.
  • Die Ermittlung der von einem Aufzug zurückgelegten Etagenzahl über Zeitmessungen wird hier durch folgende Aspekte AEEA1 bis AEEA14 charakterisiert:
    • AFT1: Computer-implementiertes Verfahren zur Ermittlung der Etagennummer, in der sich ein Aufzug (700) befindet, umfassend
      • • Erfassung der Fahrzeit des Aufzugs (700) zwischen Etagen und
      • • Nutzung der Startetagennummer der Startetage.
    • AFT 2: Computer-implementiertes Verfahren nach AFT 1, weiter umfassend
      • • Detektion der Öffnungs- und/oder Schließvorgänge der Aufzugtür (703)
      • • Nutzung des Schließvorgang der Aufzugtür (703) als Startwert für die Erfassung der Fahrzeit und/oder
      • • Nutzung des Öffnungsvorgangs der Aufzugtür (703) als Endwert für die Erfassung der Fahrzeit.
    • AFT 3: Computer-implementiertes Verfahren nach AFT 1, weiter umfassend Erfassung des Öffnungs- und/oder Schließvorgangs der Aufzugtür (703) des Aufzugs (700) im Zeitablauf.
    • AFT 4: Computer-implementiertes Verfahren nach AFT 1, weiter umfassend
      • • Erfassung und Detektion von Personen innerhalb des Aufzugs (700);
      • • Ermittlung des Gewichts des Aufzuginhalts auf Basis der Personen.
    • AFT 5: Computer-implementiertes Verfahren nach AFT 4, wobei die erfassten Personen bzgl. ihrer äußeren Dimensionen klassifiziert und auf Basis der Klassifizierung jeder Person ein Gewicht zugeordnet wird.
    • AFT 6: Computer-implementiertes Verfahren nach AFT 5, wobei die ermittelten Gewichte jeder Person aufaddiert werden und die Summe das Gewicht des Aufzuginhalts darstellt.
    • AFT 7: Computer-implementiertes Verfahren nach AFT 1, weiter umfassend
      • • Erfassung der Fahrzeiten zwischen Etagen im Zeitablauf
      • • Vergleich der erfassten Fahrzeiten mit hinterlegten Fahrzeiten.
    • AFT 8: Computer-implementiertes Verfahren nach AFT 7, wobei das ermittelte Gewicht des Aufzuginhalts bei diesem Vergleich berücksichtigt wird.
    • AFT 9: Computer-implementiertes Verfahren nach AFT 7, weiter umfassend Ermittlung von Etagendifferenzen auf Basis der ermittelten Fahrzeiten.
    • AFT 10: Computer-implementiertes Verfahren nach AFT 7, weiter umfassend Erfassung der Bewegungsrichtung des Aufzugs (700).
    • AFT 11: Computer-implementiertes Verfahren nach AFT 7, weiter umfassend die Ermittlung der Zieletage auf Basis der Nummer der Startetage und der ermittelten Etagendifferenz.
    • AFT 12: Vorrichtung zur Durchführung des Verfahrens nach AFT 1- AFT 11.
  • Beispiel 11: Empfangseinheit zum Triggern eines Tastereignisses
  • In den obigen Beschreibungen ist der Roboter 1, solange keine Person vor dem Aufzug 700 angesprochen werden kann, diese auf die Ansprache reagiert und/oder niemand auf der Etage den Aufzug 700 verlässt, darauf angewiesen, solange zu warten, bis eines dieser drei Ereignisse eintritt. Um die Wartezeit zu beschleunigen, falls keines dieser drei Ereignisse eintritt, ist der Roboter 1 in einem Aspekt so konfiguriert, dass der Roboter 1, wie in 13 dargestellt, über die Drahtlosschnittstelle 38 ein Signal an ein Signalisierungssystem 900 senden kann, welches über eine Schnittstelle 930 und eine Empfangseinheit 920 verfügt. Dieses Signalisierungssystem 900 befindet sich innerhalb des Aufzugs 700 und signalisiert Personen innerhalb des Aufzugs 700, eine bestimmte Etage zu wählen, in der der Aufzug 700 stoppt, nämlich die, in der sich der Roboter 1 befindet. Hierzu ist das Signalisierungssystem 900 mit einer Ausgabeeinheit 910 ausgestattet, über die die Signalisierung mittels optischer und/oder akustischer Signale erfolgen kann, bspw. als Anzeige auf einem Display, eine bestimmte Etage auszuwählen, oder als Sprachausgabe über einen Lautsprecher.
  • Die Kommunikation zwischen Roboter 1 und Signalisierungssystem 900 kann auf mindestens einen der nachfolgend beschriebenen Arten erfolgen: Eine mögliche Art ist eine Kommunikation mittels Funksignale. Diese können jedoch ggf. schwer innerhalb des Aufzugs 700 zu empfangen sein, insbesondere dann, wenn dieser weitestgehend mit Metall ummantelt ist. Aus diesem Grund können alternativ auch Schallsignale zur Kommunikation genutzt werden. Dabei handelt es sich bspw. um Schallsignale im nicht-hörbaren Bereich wie Ultraschall oder Infraschall. Alternativ dazu kann auch eine Übertragung per Licht erfolgen, bspw. bei Aufzügen 700 mit Verglasung.
  • Die Art der Signalübermittlung kann unterschiedlich ausgeprägt sein. Das Signal kann einerseits von der Frequenz abhängen, es kann auf dem Wege einer Paketübermittlung übertragen werden, unterschiedlich gepulst und/oder moduliert sein und/oder eine unterschiedliche Intensität haben.
  • Die Übertragungswege können unterschiedlich ausgestaltet sein, wie ebenfalls in 13 dargestellt ist. Es kann eine direkte Übertragung zwischen Roboter 1 und Signalisierungssystem 900 stattfinden. Alternativ und/oder ergänzend kann anstelle des Roboters 1 als Sender hin zum Signalisierungssystem 900 auch eine separate Einheit fungieren, dargestellt als Repeater 940, der bzw. die in Aufzugnähe angebracht ist und welche drahtlos mit dem Roboter 1 und dem Signalisierungssystem 900 verbunden ist. Alternativ und/oder ergänzend kann auch ein System, bspw. ein Management-System 950, direkt mit dem Signalisierungssystem 900 in Verbindung stehen und die Signalisierung triggern. Alternativ und/oder ergänzend triggert das Management-System 950 den Roboter 1, auf direktem Wege oder über den Repeater das Signalisierungssystem 900 zu triggern und/oder das Management-System 950 triggert den Repeater 940, der wiederum das Signalisierungssystem 900 triggert. Auf Basis des Triggerns erfolgt jeweils eine Signalisierung hin zu Personen, die sich im Aufzug 700 befinden, und welche durch die Ausgabeeinheit 910 angeregt werden, bestimmte Aufzug-Bedienkomponenten 702 zu bedienen
  • Beispiel 12: Wartepositionsermittlung und Flächenbedarfsermittlung
  • Der Roboter 1 verfügt über mindestens einen Umfelderfassungssensor 46, ein Navigationsmodul 10 und eine Ausgabeeinheit wie ein Display 37 und/oder einen Lautsprecher 42. Über diese Vorrichtungen kann der Roboter 1 Personen in seinem Umfeld zwecks Bedienung eines Aufzugs 700 anweisen, was beinhaltet, eine vom Roboter 1 vorgegebene Etage zu wählen und/oder die vom Roboter 1 gewünschte Fahrtrichtung beim Rufen des Aufzugs 700 anzugeben.
  • Der Roboter 1 nimmt eine Warteposition (Roboterposition 750) vor einem Aufzug 700 ein, die sich durch eine geringe Wahrscheinlichkeit auszeichnet, dass sich über diese Position Objekte bewegen. Der Roboter 1 kann derartige Roboterpositionen 750 ermittelt, indem der Roboter 1 das Umfeld vor einem Aufzug 700 im Zeitverlauf auf bewegliche Objekte abtastet und Zeitpunkt sowie Position der Objekte orts- und zeitaufgelöst abspeichert, wie oben schon ausgeführt. Die abgespeicherten Informationen werden orts- und zeitaufgelöst ausgewertet, entweder durch den Roboter 1 oder ein System, an welches der Roboter 1 die Daten überträgt. Die Auswertung umfasst die Ermittlung der Wahrscheinlichkeit für das Auftreten von beweglichen Objekten auf saisonaler Basis, d.h. bspw. im Tages- oder Wochenverlauf. Die Auswertung umfasst aber auch die Auswertung in Abhängigkeit von den Öffnungszeiten der Aufzugtür 703. Die abhängigen Wahrscheinlichkeiten (inkl. der Wahrscheinlichkeiten für die Öffnungszeiten der Aufzugtür 703 und ggf. auch saisonal abhängig) liegen bspw. in einer Karte des Kartenmoduls 11 gespeichert vor.
  • Der Roboter 1 verfügt über einen Bewegungsplaner 16, der auch die Warteposition vor einem Aufzug 700 ermittelt, indem der Roboter 1 verschiedene Kostenfunktionen optimiert. Dazu zählen die Wahrscheinlichkeit, dass sich auf der Position bewegliche Objekte wie bspw. Personen befinden (es sei verwiesen auf das Beispiel Erfassung und Auswertung von Personenströmen, welches bspw. Karten erstellt, die bspw. abhängig von saisonalen Aspekten (z.B. Uhrzeit, Wochentag) die Wahrscheinlichkeit des Vorhandenseins von beweglichen Objekten inkl. Personen wiedergibt); die Position des Roboters 1 relativ zur Distanz zur Aufzugtür 703, welche abhängig von der Geschwindigkeit und/oder Beschleunigung des Roboters 1 ist; den Anteil der erfassbaren Fläche des Aufzuginneren von der Position des Roboters 1 aus; und/oder die Öffnungsdauer, Schließdauer und/oder das Zeitintervall, währenddessen die Aufzugtüren 703 geöffnet sind.
  • Der Roboter 1 kann über mindestens einen Umfelderfassungssensor 46 das Verhalten einer angewiesenen Person erfassen und auswerten, z.B. mit einer Kamera 35, deren Aufnahmen vom Roboter-Rechner 810 derart ausgewertet werden, dass der Roboter 1 ein Skelettmodell der Person erstellt und die Position der Finger innerhalb des Skelettmodells im dreidimensionalen Raum über die Zeit überwacht. Ferner kann der Roboter 1 die Aufzug-Bedienkomponenten 703 für einen Aufzug 700 im dreidimensionalen Raum erfassen und auch im Zeitverlauf tracken. Dabei greift der Roboter 1 für die Erfassung der Aufzug-Bedienkomponenten 703 auf Klassifikationsalgorithmen zurück, die in einem Speicher (820 oder 860) hinterlegt sind. Mittels der ermittelten Position der Aufzug-Bedienkomponenten 703 und der Finger im dreidimensionalen Raum ermittelt der Roboter 1 die Distanz zwischen den Aufzug-Bedienkomponenten 703 und den Fingern der erfassten und überwachten Person. Bei Unterschreiten eines Distanzschwellwerts wird ein Ereignis registriert, wobei das Ereignis als Rufen des Aufzugs 700 und/oder Auswählen einer Etage registriert wird.
  • Der Roboter 1 ist ferner so konfiguriert, dass der Roboter 1 über mindestens einen Umfelderfassungssensor 46 verfügt, der über ein Aufzug-Anzeigeelement 701 eine angezeigte Etage und/oder die Fahrtrichtung des Aufzugs 700 erfasst und dazu das mindestens eine erfasste Aufzug-Anzeigeelement 701 mittels Verfahren der Bildklassifikation ausgewertet und interpretiert wird. Die ermittelte Fahrtrichtung des Aufzugs 700 und/oder die ausgewählte Etagenzahl wird mit den im Roboter 1 hinterlegten Informationen zum Fahrziel des Roboters 1 verglichen. Der Roboter 1 weist eine weitere Person zwecks Bedienung des Aufzugs 700 an, wenn kein Rufen des Aufzugs 700 und/oder Auswählen einer Etage detektiert wurde.
  • Der Roboter 1 kann ferner die Fläche innerhalb des Aufzugs 700 abtasten, einen von Objekten freien Bereich ermittelt und mit in einem Speicher (820 oder 860) hinterlegten Wert vergleichen, um zu ermitteln, ob ausreichend Platz innerhalb des Aufzugs 700 für den Roboter 1 vorhanden ist.
  • Der Roboter 1 verlässt den Aufzug 700 letztendlich, wenn die erfasste Etagenzahl mit der in einem Speicher (820 oder 860) hinterlegten Zieletage übereinstimmt. Die Etagenzahl innerhalb eines Aufzugs 700 kann der Roboter 1 in einem Aspekt auch mittels Inertialsensors 45 ermitteln oder über die Zeit, die vergangen ist, seitdem die Aufzugtür 703 geschlossen wurde.
  • Beispiel 13: Flächenbedarf ermitteln
  • Der Roboter 1 ist mit mindestens einem Roboter-Prozessor 815, mindestens einem Roboter-Speicher 820 und mindestens einem Umfelderfassungssensor 46 ausgestattet, mit dem der Roboter 1 das Innere eines Aufzugs 700 abtastet, Objekte innerhalb des Aufzugs 700 detektiert und die nicht durch diese Objekte belegte Fläche ermittelt und mit einer in einem Speicher (820, 860) hinterlegten Fläche vergleicht. Letztere Fläche entspricht mindestens der Grundfläche des Roboters 1, ggf. jedoch mehr, um Abstand zwischen dem Roboter 1 und den Personen oder Objekten innerhalb des Aufzugs 700 zu halten. Der Roboter 1 ermittelt die Anzahl der Personen innerhalb des Aufzugs 700, indem der Roboter 1 in einem Aspekt die Anzahl der Personen auf Basis von mit dem Umfelderfassungssensor 46 wie bspw. einer Kamera 35 erhobenen Daten Skelettmodelle erstellt, wie sie aus dem Stand der Technik bekannt sind.
  • Ein einem alternativen und/oder ergänzenden Aspekt ermittelt der Roboter 1 die Anzahl der Personen über Triangulation von Daten des LIDAR 34 (der bspw. als Umfelderfassungssensor fungiert 46), wobei der LIDAR 34 bspw. die Position der Beine erfasst. Triangulation an dieser Stelle heißt, dass der Roboter 1 das Innere des Aufzugs 700 von mehreren Positionen aus abtastet, um darüber zu ermitteln, ob es sich um anders geartete Hindernisse oder um Beine handelt, die durch den LIDAR 34 erfasst werden. Die Anzahl der Personen wird bspw. über die Anzahl der Beine und/oder über die Anzahl der Köpfe ermittelt. Der Roboter 1 nutzt ferner in einem Speicher (820, 860) hinterlegte Informationen, die den Flächenbedarf einer Person beschreiben, und ermittelt den Flächenbedarf der Personen im Aufzug 700 durch Multiplikation der Personenzahl mit dem Flächenbedarf pro Person. Damit ermittelt der Roboter 1 die Fläche, die die Personen im Aufzug einnehmen können. Diese Fläche wird mit der Fläche des Aufzugs 700 verglichen, die in einem Speicher (820, 860) hinterlegt ist, und es wird die Differenz aus der Aufzugfläche und dem Ergebnis der Multiplikation gebildet wird, d.h. dem Flächenbedarf der im Aufzug 700 befindlichen Personen. Der Roboter 1 fährt in den Aufzug 700 ein, wenn die Differenz größer ist als die oben erwähnte Fläche, welche der Roboter 1 beansprucht.
  • Der Roboter 1 verfügt ferner über eine Ausgabeeinheit mit einem Display 37 und/oder einem Lautsprecher 42, welche derart konfiguriert sind, dass der Roboter 1 Personen in seinem Umfeld zwecks Bedienung eines Aufzugs 700 über die Ausgabeeinheit anweisen kann. Der Roboter 1 kann zudem die Etagenzahl innerhalb des Aufzugs 700 über eine Erfassung der Aufzug-Bedienkomponente 702 und/oder Aufzug-Anzeigeelemente 701 ermitteln, in einem alternativen und/oder ergänzenden Aspekt mittels des Inertialsensors 45.
  • Beispiel 14: System zum Erlernen etagendifferenzabhängiger Beschleunigungsmuster eines Aufzugs
  • Bei einem System zum Erlernen etagendifferenzabhängiger Beschleunigungsmuster des Aufzugs 700, das seine Beschleunigung im Zeitablauf erfasst, handelt es sich in einem Aspekt um einen Roboter 1. Dabei detektiert das System mittels mindestens einem Sensor (bspw. mittels eines Umfelderfassungssensors 46) die Öffnungs- und Schließvorgänge der Aufzugtür 703, wertet den Schließvorgang der Aufzugtür 703 als Startwert für die Erfassung der Beschleunigung, den Öffnungsvorgang der Aufzugtür 703 als Endwert für die Erfassung der Beschleunigung bzw. erfasst Öffnungs- und Schließvorgang der Aufzugtür 703 als im Zeitablauf. Ferner erfasst das System die Aufzug-Anzeigeelemente 701 und/der Aufzug-Bedienkomponenten 702 innerhalb eines Aufzugs 700, wobei die diesbzgl. erfassten Daten klassifiziert und interpretiert werden, um die Etagennummer zu ermitteln. Diese Etagennummer wird bei den Öffnungs- und/oder Schließvorgängen der Aufzugtür 703 ermittelt. Damit liegen Daten für die Beschleunigung des Roboters 1 im Zeitablauf vor und korrespondierend Daten über die Start- und Endetage, zwischen denen sich der Aufzug im ermittelten Intervall bewegt.
  • Anschließend wird die Etagendifferenz zwischen dem Schließvorgang der Aufzugtür 703 und dem Öffnungsvorgang der Aufzugtür 703 ermittelt. In einem Aspekt kann das System das Gewicht des Aufzuginhalts ermitteln, vornehmlich auf Basis der Personen, die sich im Aufzug 700 befinden. Dazu ermittelt das System die Anzahl der Personen mittels des Umfelderfassungssensors 46 und bspw. auf Basis der erfassten Daten Skelettmodelle der im Aufzug 700 befindlichen Personen erstellt.
  • Alternativ und/oder ergänzend umfasst das System die Anzahl der Personen über Triangulation von Daten eines LIDAR 34 (der z.B. als Umfelderfassungssensor 46 fungiert), z.B. am Roboter 1 oder in dem Aufzug 700 selbst, wobei der LIDAR 34 bspw. die Position der Beine ermittelt. Die Anzahl der Personen wird anschließend über die Anzahl der Beine und/oder über die Anzahl der Köpfe ermittelt. Ferner wird die Anzahl der Personen mit einem Wert multipliziert, der das Durchschnittsgewicht einer Person wiedergibt. Alternativ und/oder ergänzend werden die erfassten Sensordaten, insbesondere solche, die zur Erstellung eines Skelettmodells genutzt werden, klassifiziert und mit Werten verglichen werden, die die Dimensionen einer Person beschreiben. Diese Dimensionen werden dahingehend klassifiziert, dass mittels der Klassifikation jeder Person ein Gewicht zugeordnet wird, wobei dann die ermittelten Gewichte jeder Person addiert werden. Schlussendlich wird zum ermittelten Personengewicht das in einem Speicher (820, 860) hinterlegte Gewicht des Systems zum Personengewicht hinzuaddiert, um das Gewicht des Aufzuginhalts zu ermitteln und das Ergebnis wird in einem Speicher (820, 860) abgelegt.
  • Die soweit erfassten Werte werden ausgewertet und für Etagendifferenzen Beschleunigungsverläufe ermittelt, welche in einem Aspekt von der Startetage abhängig sind, in einem ergänzenden Aspekt vom Gewicht des Aufzuginhalts. Diesen Beschleunigungsverläufen sind zugleich auch Zeitabläufe zugeordnet. Damit ergeben sich für die tabellarisch vorliegenden Werte als Eingangsgrößen der Beschleunigungsverlauf, die Etagendifferenz, ggf. Startetage, Aufzuggewicht und/oder Anzahl Personen im Aufzug 700, wobei die Beschleunigungsverläufe ggf. in weitere Variablen zerlegt werden können wie Dauer, Amplitude, Schiefe, Kurtosis, etc. als Ausgangsgrößen dienen bspw. die Zieletage.
  • Beispiel 15: System zur Ermittlung der Etagenzahl des Aufzugs
  • Ein System, in einem Aspekt der Roboter 1, ist derart konfiguriert, dass es sich, sofern es sich in dem Aufzug 700 befindet, die Etagennummer ermitteln kann, in der der Aufzug 700 stoppt, indem es seine Beschleunigung im Zeitablauf erfasst und auswertet. Dabei nutzt das System Informationen zur Startetage, detektiert mittels eines Umfelderfassungssensors 46 die Öffnungs- und/oder Schließvorgänge der Aufzugtür 703, nutzt den Schließvorgang der Aufzugtür 703 als Startwert für die Erfassung der Beschleunigung, den Öffnungsvorgang der Aufzugtür 703 als Endwert für die Erfassung der Beschleunigung bzw. erfasst den Öffnungs- und Schließvorgang der Aufzugtür 703 im Zeitablauf.
  • In einem Aspekt ermittelt das System das Gewicht des Aufzuginhalts, vornehmlich auf Basis der Personen, die sich im Aufzug 700 befinden. Dazu ermittelt das System die Anzahl der Personen mittels eines Umfelderfassungssensors 46, der das Umfeld des Systems abtastet und auf Basis der erfassten Daten Skelettmodelle der im Aufzug 700 befindlichen Personen erstellt. Alternativ und/oder ergänzend umfasst das System die Anzahl der Personen über Triangulation von Daten eines LIDAR 34 (der bspw. als Umfelderfassungssensor 46 fungiert), wobei der LIDAR 34 bspw. die Position der Beine ermittelt. Die Anzahl der Personen wird anschließend über die Anzahl der Beine und/oder über die Anzahl der Köpfe ermittelt. Ferner wird die Anzahl der Personen mit einem Wert multipliziert, der das Durchschnittsgewicht einer Person wiedergibt. Alternativ und/oder ergänzend werden die erfassten Sensordaten, insbesondere solche, die zur Erstellung eines Skelettmodells genutzt werden, klassifiziert und mit Werten verglichen werden, die die Dimensionen einer Person beschreiben. Diese Dimensionen werden dahingehend klassifiziert, dass mittels der Klassifikation jeder Person ein Gewicht zugeordnet wird, wobei dann die ermittelten Gewichte jeder Person addiert werden. Schlussendlich wird zum ermittelten Personengewicht das in einem Speicher (820, 860) hinterlegte Gewicht des Systems zum Personengewicht hinzuaddiert, um das Gewicht des Aufzuginhalts zu ermitteln und das Ergebnis wird in einem Speicher (820, 860) abgelegt.
  • Das System erfasst die Beschleunigungsverläufe im Zeitablauf und vergleicht diese Beschleunigungsverläufe mit in einem Speicher (820, 860) hinterlegten Beschleunigungsverläufen und/oder Zeitabläufen. Dabei wird, in einem Aspekt, das ermittelte Gewicht des Aufzuginhalts bei diesem Vergleich berücksichtigt. Auf Basis des Vergleichs werden Etagendifferenzen ermittelt. Dabei wird, in einem Aspekt, die Fahrtrichtung des Aufzugs 700 berücksichtigen. Auf Basis der Nummer der Startetage und der ermittelten Etagendifferenz wird die Zieletage ermittelt und mit der sich aus dem Auftrag des Roboters 1 ergebenden Zieletage verglichen.
  • Das System ist ferner so konfiguriert, dass das System mit mindestens einem Umfelderfassungssensor 46 zum Erfassen seines Umfelds, mit einem Navigationsmodul 10 und einer Ausgabeeinheit wie einem Display 37 und/oder einem Lautsprecher 42 ausgestattet ist und Personen in seinem Umfeld zwecks Bedienung des Aufzugs 700 über eine Ausgabeeinheit anweisen kann. Ferner tastet das System das Innere des Aufzugs 700 durch den mindestens einen Umfelderfassungssensor 46 ab, um Objekte innerhalb des Aufzugs 700 zu detektieren und die nicht durch diese Objekte belegte Fläche zu ermittelt und mit einer in einem Speicher (820, 860) hinterlegten Fläche zu vergleichen.
  • Beispiel 16: Verfahren und Vorrichtung zur Positionierung eines Roboters vor einem Aufzug
  • Das Verfahren und Vorrichtung zur Positionierung eines Roboters 1 vor einem Aufzug 700 wird hier durch folgende Aspekte APRA1 bis APRA8 charakterisiert:
    • APRA1. Computer-implementiertes Verfahren zur Positionierung eines Roboters (1) vor einem Aufzug (700), umfassend
      • • Optimierung mindestens einer Kostenfunktionen;
      • • Ermittlung einer Warteposition (Roboterposition 750) für den Roboter (1); und
      • • Positionierung des Roboters (1) auf der Warteposition (Roboterposition 750).
    • APRA2. Computer-implementiertes Verfahren nach APRA1, wobei die Optimierung der Kostenfunktion eine Wahrscheinlichkeit umfasst, dass sich auf der Warteposition (Roboterposition 750) mindestens ein bewegliches Objekt befindet.
    • APRA3. Computer-implementiertes Verfahren nach APRA1, wobei eine Kostenfunktion die Bewertung der Distanz des Roboters (1) zur Aufzugtür (703) umfasst.
    • APRA4. Computer-implementiertes Verfahren nach APRA3, wobei die Distanz abhängig ist von der Geschwindigkeit und/oder Beschleunigung des Roboters (1).
    • APRA5. Computer-implementiertes Verfahren nach APRA1, wobei die Optimierung einer Kostenfunktion die Auswertung eines Anteils der erfassbaren Fläche des Aufzuginneren von der Roboterposition (750) aus umfasst.
    • APRA6. Computer-implementiertes Verfahren nach APRA5, wobei die erfassbare Fläche durch Repositionierung des Roboters (1) maximiert wird.
    • APRA7. Computer-implementiertes Verfahren nach APRA1, wobei die Optimierung einer Kostenfunktion die Optimierung der Öffnungsdauer, Schließdauer und/oder des Zeitintervalls, währenddessen die Aufzugtüren (703) geöffnet sind, umfasst.
    • APRA8. Vorrichtung zur Durchführung des Verfahrens nach APRA1-APRA7.
  • Beispiel 17: Flächenbedarfsermittlung
  • Die Flächenbedarfsermittlung wird hier durch folgende Aspekte AF1 bis AF12 charakterisiert:
    • AF1. Computer-implementiertes Verfahren zur Flächenbedarfsermittlung, umfassend
      • • Abtasten eines Raums;
      • • Detektion von Objekten innerhalb des Raums;
      • • Ermittlung der nicht durch diese Objekte belegten Fläche
      • • Vergleich der ermittelten Fläche mit einer ersten Fläche.
    • AF2. Computer-implementiertes Verfahren nach AF1, wobei es sich beim Raum um das Innere der Kabine eines Aufzugs (700) handelt.
    • AF3. Computer-implementiertes Verfahren nach AF1, wobei die erste Fläche mindestens der Grundfläche eines Roboters 1 entspricht.
    • AF4. Computer-implementiertes Verfahren nach AF1, wobei es sich bei den detektierten Objekten um Personen handelt.
    • AF5. Computer-implementiertes Verfahren nach AF4, weiter umfassend die Ermittlung der Anzahl Personen im Raum.
    • AF6. Computer-implementiertes Verfahren nach AF5, wobei die Ermittlung der Anzahl Personen im Raum auf Basis von Skelettmodellen erfolgt.
    • AF7. Computer-implementiertes Verfahren nach AF5, weiter umfassend Errechnung einer Fläche, welche die Personen im Aufzug (700) einnehmen können, aus der Anzahl an ermittelten Personen und einem Flächenwert, der der erwarteten Fläche einer Person entspricht.
    • AF8. Computer-implementiertes Verfahren nach AF7, wobei die Differenz aus der Fläche des Raums und der errechneten Fläche gebildet wird.
    • AF9. Computer-implementiertes Verfahren nach AF8, weiter umfassend Triggern eines Ereignisses, wenn die Differenz aus der Fläche des Raums und der errechneten Fläche größer ist als die erste Fläche.
    • AF10. Computer-implementiertes Verfahren nach AF9, wobei das Triggern eines Ereignisses das Hineinfahren des Roboters (1) in den Aufzug (700) entspricht.
    • AF11. Computer-implementiertes Verfahren nach AF9, wobei das Triggern eines Ereignisses eine Ausgabe umfasst, welche die Personen auffordert, beiseite zu treten.
    • AF12. Vorrichtung zur Durchführung des Verfahrens nach AF1-AF11.
  • Beispiel 18: Inertialsensor
  • Die Nutzung eines Inertialsensors wird hier durch folgende Aspekte AIN1 bis AIN19 charakterisiert:
    • AIN1. Computer-implementiertes Verfahren zum Erlernen etagendifferenzabhängiger Beschleunigungsmuster eines Aufzugs (700), umfassend die Erfassung der Beschleunigung des Aufzugs (700) im Zeitablauf.
    • AIN2. Computer-implementiertes Verfahren nach AIN1, weiter umfassend die Detektion mindestens eines Öffnungs- und/oder Schließvorgangs einer Aufzugtür (703) des Aufzugs (700).
    • AIN3. Computer-implementiertes Verfahren nach AIN2, wobei der Schließvorgang der Aufzugtür (703) die Erfassung und/oder Auswertung der Beschleunigung auslöst.
    • AIN4. Computer-implementiertes Verfahren nach AIN2, wobei der Öffnungsvorgang der Aufzugtür (703) die Erfassung oder Auswertung der Beschleunigung beendet.
    • AIN5. Computer-implementiertes Verfahren nach AIN2, weiter umfassend die Erfassung von Öffnungs- und/oder Schließvorgängen der Aufzugtür (703) des Aufzugs (700) im Zeitablauf.
    • AIN6. Computer-implementiertes Verfahren nach AIN1, weiter umfassend
      • • Erfassung der Aufzug-Anzeigeelemente 701 und/oder Aufzug-Bedienkomponenten (702) innerhalb des Aufzugs (700);
      • • Interpretation der Aufzug-Anzeigeelemente 701 und/oder Aufzug-Bedienkomponenten (702) innerhalb des Aufzugs (700);
      • • Ermittlung der Etagennummer.
    • AIN7. Computer-implementiertes Verfahren nach AIN6, wobei die Erfassung der Aufzug-Anzeigeelemente (701) und Aufzug-Bedienkomponenten während der Öffnungs- und/oder Schließvorgängen der Aufzugtür (703) erfolgt.
    • AIN8. Computer-implementiertes Verfahren nach AIN2, weiter umfassend Ermittlung der Etagendifferenz zwischen dem Schließvorgang der Aufzugtür (703) und dem Öffnungsvorgang der Aufzugtür (703).
    • AIN9. Computer-implementiertes Verfahren nach AIN1, weiter umfassend Ermittlung des Gewichts des Aufzuginhalts.
    • AIN10. Computer-implementiertes Verfahren nach AIN9, wobei das Gewicht des Aufzuginhalts auf Basis erfasster Personen ermittelt wird, die sich im Aufzug (700) befinden.
    • AIN11. Computer-implementiertes Verfahren nach AIN10, weiter umfassend die Ermittlung der Anzahl der Personen im Aufzug 700 auf Basis einer Erstellung von Skelettmodellen.
    • AIN12. Computer-implementiertes Verfahren nach AIN11, weiter umfassend die Multiplikation der Anzahl der ermittelten Personen mit einem Wert, der das Durchschnittsgewicht einer Person wiedergibt, wobei das so ermittelte Produkt das Gewicht des Aufzuginhalts darstellt.
    • AIN13. Computer-implementiertes Verfahren nach AIN10, weiter umfassend die
      • • Klassifizierung der erfassten Personen bzgl. ihrer äußeren Dimensionen
      • • Zuordnung eines Gewichts zu jeder Person basierend auf der Klassifizierung.
    • AIN14. Computer-implementiertes Verfahren nach AIN13, weiter umfassend Addition der den Personen zugeordneten Gewichte, wobei die Summe das Gewicht des Aufzuginhalts darstellt.
    • AIN15. Computer-implementiertes Verfahren nach AIN8, weiter umfassend die Ermittlung von Beschleunigungsverläufen für Etagendifferenzen.
    • AIN16. Computer-implementiertes Verfahren nach AIN15, wobei bei der Ermittlung der Beschleunigungsverläufe das ermittelte Gewicht des Aufzuginhalts berücksichtigt wird.
    • AIN17. Computer-implementiertes Verfahren nach AIN15, wobei bei der Ermittlung der Beschleunigungsverläufe die Startetage berücksichtigt wird.
    • AIN18. Computer-implementiertes Verfahren nach AIN15, wobei bei der Ermittlung der Beschleunigungsverläufe die Bewegungsrichtung des Aufzugs (700) berücksichtigt wird.
    • AIN19. Vorrichtung zur Durchführung des Verfahrens nach AIN1-AIN18.
  • Beispiel 19: Ermittlung der von einem Aufzug zurückgelegten Etagenzahl
  • Die Ermittlung der von einem Aufzug zurückgelegten Etagenzahl wird hier durch folgende Aspekte AEEA1 bis AEEA14 charakterisiert:
    • AEEA1: Computer-implementiertes Verfahren zur Ermittlung der Etagennummer, in der sich ein Aufzug (700) befindet, umfassend
      • • Erfassung der Beschleunigung des Aufzugs (700) im Zeitablauf und
      • • Nutzung der Startetagennummer der Startetage.
    • AEEA2: Computer-implementiertes Verfahren nach AEEA1, weiter umfassend
      • • Detektion der Öffnungs- und/oder Schließvorgänge der Aufzugtür (703)
      • • Nutzung des Schließvorgang der Aufzugtür (703) als Startwert für die Erfassung der Beschleunigung und/oder
      • • Nutzung des Öffnungsvorgangs der Aufzugtür (703) als Endwert für die Erfassung der Beschleunigung.
    • AEEA3: Computer-implementiertes Verfahren nach AEEA1, weiter umfassend Erfassung des Öffnungs- und/oder Schließvorgangs der Aufzugtür (703) des Aufzugs (700) im Zeitablauf.
    • AEEA4: Computer-implementiertes Verfahren nach AEEA1, weiter umfassend
      • • Erfassung und Detektion von Personen innerhalb des Aufzugs (700);
      • • Ermittlung des Gewichts des Aufzuginhalts auf Basis der Personen.
    • AEEA5: Computer-implementiertes Verfahren nach AEEA4, wobei die erfassten Personen bzgl. ihrer äußeren Dimensionen klassifiziert und auf Basis der Klassifizierung jeder Person ein Gewicht zugeordnet wird.
    • AEEA6: Computer-implementiertes Verfahren nach AEEA5, wobei die ermittelten Gewichte jeder Person aufaddiert werden und die Summe das Gewicht des Aufzuginhalts darstellt.
    • AEEA7: Computer-implementiertes Verfahren nach AEEA1, weiter umfassend
      • • Erfassung der Beschleunigungsverläufe im Zeitablauf
      • • Vergleich der erfassten Beschleunigungsverläufe mit hinterlegten B eschleunigungsverläufen.
    • AEEA8: Computer-implementiertes Verfahren nach AEEA7, wobei das ermittelte Gewicht des Aufzuginhalts bei diesem Vergleich berücksichtigt wird.
    • AEEA9: Computer-implementiertes Verfahren nach AEEA7, weiter umfassend Ermittlung von Etagendifferenzen auf Basis der ermittelten Beschleunigungsverläufe.
    • AEEA10: Computer-implementiertes Verfahren nach AEEA7, weiter umfassend Erfassung der Bewegungsrichtung des Aufzugs (700).
    • AEEA 11: Computer-implementiertes Verfahren nach AEEA7, weiter umfassend die Ermittlung der Zieletage auf Basis der Nummer der Startetage und der ermittelten Etagendifferenz.
    • AEEA12: Vorrichtung zur Durchführung des Verfahrens nach AEEA1-AEEA11.
  • Beispiel 20: Separate Einheit innerhalb des Aufzugs (Signalisierungssystem)
  • Die separate Einheit (Signalisierungssystem 900) innerhalb des Aufzugs wird hier durch folgende Aspekte ASS1 bis ASS9 charakterisiert:
    • ASS1. Signalisierungssystem (900) zum Triggern einer Aufzugbedienung, umfassend eine Schnittstelle (930), eine Ausgabeeinheit (910) zur Übermittlung von Instruktionen an sich im Aufzug (700) befindliche Personen, wobei sich das Signalisierungssystem (900) innerhalb eines Aufzugs (700) befindet.
    • ASS2. Signalisierungssystem (900) nach ASS1, wobei die Instruktionen die Betätigung mindestens einer Aufzug-Bedienkomponenten (702) umfassen.
    • ASS3. Signalisierungssystem (900) nach ASS1, weiter umfassend eine Verbindung des Signalisierungssystem (900) mit mindestens einem Roboter (1) über die mindestens eine Schnittstelle (930).
    • ASS4. Signalisierungssystem (900) nach ASS1, weiter umfassend eine Verbindung des Signalisierungssystem (900) über die mindestens eine Schnittstelle (930) mit einem zweiten System, welches wiederum mit einem Roboter (1) verbunden ist.
    • ASS5. Signalisierungssystem (900) nach ASS4, wobei das zweite System ein Repeater (940) ist, der über mindestens eine Schnittstelle von einem dritten System Instruktionen erhält.
    • ASS6. Signalisierungssystem (900) nach ASS5, wobei das dritte System ein Managementsystem (950) ist, welches dem Roboter (1) Instruktionen übermittelt.
    • ASS7. Signalisierungssystem (900) nach ASS1, wobei über die mindestens eine Schnittstelle (930) des Signalisierungssystem (900) Schallsignale oder Lichtsignale übertragen werden.
    • ASS8. Signalisierungssystem (900) nach ASS1, wobei die mindestens eine Schnittstelle (930) eine unidirektionale Schnittstelle ist.
    • ASS9. Signalisierungssystem (900) nach ASS8, wobei das Signalisierungssystem (900) lediglich Signale über die Schnittstellte (930) empfangen kann.
  • Bezugszeichenliste
  • 1
    Roboter
    5
    Software-Ebene
    10
    Navigationsmodul
    11
    Karten-Modul
    12
    Umfelderfassungsmodul
    13
    Pfadplanungs-Modul (metrische Pfadplanung)
    14
    Modul zur Selbstblockadedetektion
    15
    Lokalisierungs-Modul
    16
    Bewegungsplaner
    17
    Wartepositions-Ermittlungsmodul
    18
    Kartierungs-Modul
    19
    Energieüberwachungs-Modul
    20
    Personenerkennungsmodul
    21
    Personen-Identifizierungsmodul
    22
    visuelles Personen-Trackingmodul
    23
    laserbasiertes Personen-Trackingmodul
    24
    Skelettmodell-Erstellungsmodul
    30
    Hardwareebene
    31
    Odometrie-Einheit
    32
    druckempfindliche Stoßstangen
    33
    Infrarot-ToF-Sensoren
    34
    LIDAR
    35
    Kamera
    36
    Bedienelemente
    37
    Display
    38
    Drahtlosschnittstelle
    39
    Differentialantrieb
    40
    Ladeport und Ladeelektronik
    41
    Steuerung
    42
    Lautsprecher
    43
    Mikrofon
    44
    Motorsteuerung
    45
    Inertialsensor
    46
    Umfelderfassungsensor
    700
    Aufzug
    701
    Aufzug-Anzeigeelement
    702
    Aufzug-Bedienkomponente
    703
    Aufzugtür
    704
    Wand
    710
    Erster Gang
    715
    Breiter Gang
    720
    Wand
    750
    Roboterposition
    805
    Rad
    810
    Roboter-Rechner
    815
    Roboter-Prozessor
    820
    Roboter-Speicher
    825
    Akkumulator
    830
    Steuerung-Prozessoreinheit
    835
    Steuerungsspeicher
    850
    Cloud-Server
    855
    Cloud-Prozessor
    860
    Cloud-Speicher
    900
    Signalisierungssystem
    910
    Ausgabeeinheit
    920
    Empfangseinheit
    930
    Schnittstelle
    940
    Repeater
    950
    Management-System
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • CN 108455393 [0005]
    • CN 108861905 [0005]
    • CN 105600631 [0005]
    • CN 105858383 [0005]
    • CN 105881553 [0005]
    • CN 107055241 [0005]
    • CN 108002151 [0005]
    • CN 108163653 [0005]
    • CN 109205406 [0005]
    • CN 108382933 [0005]
    • KR 20100077920 [0005]
    • KR 20100080278 [0005]
    • JP 2011088721 [0005]
    • JP 2012106866 [0005, 0012]
    • JP H05210414 [0005]
    • JP 2005018382 [0005]
    • JP 2007210801 [0005]
    • JP 2009051617 [0005]
    • JP 2005053671 [0005]
    • JP 2006089262 [0005]
    • CN 105565094 [0006]
    • CN 107538463 [0007]
    • CN 108297061 [0007]
    • JP 2008162758 [0007]
    • CN 108002154 [0008, 0011]
    • EP 3453663 [0009, 0096]
    • CN 107826917 [0010]
    • JP 2009258821 [0012]

Claims (18)

  1. Computer-implementiertes Verfahren zur Beförderung eines Roboters (1) in einem Aufzug (700) zu einer vorbestimmten Etage umfassend: Erfassung von Personen im Umfeld des Roboters (1); Erkennung einer Aufzug-Bedienkomponente (702) für den Aufzug (700); Überwachung der Aufzug-Bedienkomponente (702) zur Erkennung von ausgewählten Etagen; und Aufforderung an zumindest eine der erfassten Personen zum Auswählen der vorbestimmten Etage mittels der Aufzug-Bedienkomponente (702).
  2. Verfahren nach Anspruch 1, wobei die Überwachung der Aufzug-Bedienkomponente (702) umfasst eine Überwachung von Körperteilpositionen von mindestens einer der erfassten Personen bei der Auswahl der Etagen mittels der Aufzug-Bedienkomponente (702).
  3. Verfahren nach Anspruch 1 oder 2, wobei die Erfassung der Personen durch Erstellung eines Skelettmodells erfolgt.
  4. Verfahren nach Anspruch 3, wobei die Überwachung von Körperteilpositionen auf Basis erfasster Gelenkpunkte aus dem Skelettmodell erfolgt.
  5. Verfahren nach einem der vorhergehenden Ansprüche, weiter umfassend die Ermittlung einer Distanz zwischen den Aufzug-Bedienkomponenten (702) und den Körperteilpositionen von mindestens einer der erkannten Personen.
  6. Verfahren nach Anspruch 5, weiter umfassend die Berechnung der Distanz und eine Auslösung eines Ereignisses bei Unterschreiten eines Schwellwerts.
  7. Verfahren nach Anspruch 6, wobei das Ereignis zumindest ein Rufen des Aufzugs (700), ein Auswählen der vorbestimmten Etage oder eine Aufforderung an eine der erkannten Personen zum Auswählen der vorbestimmten Etage mittels der Aufzug-Bedienkomponente (702) umfasst.
  8. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Erkennung der Aufzug-Bedienkomponente (702) durch Aufnahme eines Bildes und Klassifikation des aufgenommenen Bildes erfolgt.
  9. Verfahren nach einem der vorhergehenden Ansprüche, weiter umfassend die Erfassung eines Aufzug-Anzeigeelements (701) zur Erkennung der Etage des Aufzugs (700).
  10. Verfahren nach Anspruch 9, weiter umfassend einen Vergleich der erkannten Etage mit der vorbestimmten Etage.
  11. Verfahren nach einem der vorhergehenden Ansprüche, weiter umfassend ein Verlassen des Roboters (1) von dem Aufzug (700) bei Erreichen der vorbestimmten Etage.
  12. Verfahren nach einem der vorangegangenen Ansprüche, weiter umfassend eine Aufstellung des Roboters (1) in einer Roboterposition (750) vor dem Aufzug (700), wobei die Roboterposition so ausgewählt ist, dass eine Distanz zwischen der Roboterposition (750) und einer Aufzugtür (703) von dem Aufzug (700) von einer vorbestimmten Geschwindigkeit des Roboters (1) und einer Öffnungszeit der Aufzugtür (703) oder von der Wahrscheinlichkeit eines Treffens eines beweglichen Hindernisses abhängt.
  13. Verfahren nach einem der vorangegangenen Ansprüche, weiter umfassend die Ermittlung eines ausreichend großen freien Fläche für den Roboter (1) im Aufzug (700).
  14. Vorrichtung zur Durchführung des Verfahrens nach den Ansprüchen 1-13.
  15. System zur Beförderung eines Roboters (1) in einem Aufzug (700) zu einer vorbestimmten Etage umfassend: mindestens einen Umfelderfassungssensor (46); einer Ausgabeeinheit zur Ausgabe von Aufforderungen an Personen in dem Aufzug (700); und Regeln zur Erkennung einer ausgewählten Etage durch Vergleich der aufgenommenen Bilder mit abgespeicherten Mustern; wobei der Umfelderfassungssensor (46) die Aufnahme von Bildern einer Aufzug-Bedienkomponente (703) im Aufzug (700) ermöglicht.
  16. System nach Anspruch 15 weiter umfassend ein Personenerkennungsmodul (20) zur Erstellung eines Skelettmodells der Personen.
  17. System nach Anspruch 15-16, weiter umfassend mindestens einen Speicher (820, 860), wobei der mindestens eine Speicher mindestens Regeln zur Erfassung der Distanz zwischen einer Aufzug-Bedienkomponente (702) und eines Körperteils, Regeln zur Detektion der Bedienung des Aufzugs (700), Regeln zur Detektion der Bewegungsrichtung des Aufzugs (700), Regeln zur Detektion der Zieletage des Aufzugs (700), Regeln zur Auswahl einer Roboterposition (750) zur Aufstellung des Roboters (1) vor einer Aufzugtür (703), und/oder Regeln zur Ermittlung der freien Fläche innerhalb des Aufzugs (700) aufweist.
  18. System nach einem der Ansprüche 15-17, weiter umfassend einen Inertialsensor (45).
DE102021103038.2A 2020-02-10 2021-02-09 Verfahren und System zur Beförderung eines Roboters in einem Aufzug Pending DE102021103038A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102020103308.7 2020-02-10
DE102020103308 2020-02-10

Publications (1)

Publication Number Publication Date
DE102021103038A1 true DE102021103038A1 (de) 2021-08-12

Family

ID=75497890

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021103038.2A Pending DE102021103038A1 (de) 2020-02-10 2021-02-09 Verfahren und System zur Beförderung eines Roboters in einem Aufzug

Country Status (4)

Country Link
US (1) US20230039466A1 (de)
EP (1) EP4168342A1 (de)
DE (1) DE102021103038A1 (de)
WO (1) WO2021160623A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200024104A1 (en) * 2019-08-16 2020-01-23 Lg Electronics Inc. Robot system and operation method thereof

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112880689A (zh) * 2021-01-29 2021-06-01 北京百度网讯科技有限公司 一种领位方法、装置、电子设备及存储介质
CN113788377B (zh) * 2021-09-16 2023-03-31 北京云迹科技股份有限公司 一种机器人乘梯检测方法及装置
CN113848918A (zh) * 2021-09-27 2021-12-28 上海景吾智能科技有限公司 机器人快速高效低成本的部署方法和系统
CN114419451B (zh) * 2022-03-29 2022-06-03 北京云迹科技股份有限公司 电梯内外识别方法、装置、电子设备及存储介质
CN114578831B (zh) * 2022-04-28 2022-07-26 深圳鹏行智能研究有限公司 机器人的控制方法、控制装置、机器人和存储介质
CN115123897B (zh) * 2022-08-30 2023-01-06 深圳市海清视讯科技有限公司 对象检测方法、装置及设备
CN115432524B (zh) * 2022-10-21 2023-12-26 北京云迹科技股份有限公司 一种机器人楼层定位方法及相关设备
CN116520853A (zh) * 2023-06-08 2023-08-01 江苏商贸职业学院 一种基于人工智能技术的农业巡检机器人

Citations (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05210414A (ja) 1992-01-30 1993-08-20 Sogo Keibi Hoshiyou Kk 移動ロボットの移動方法
JP2005018382A (ja) 2003-06-25 2005-01-20 Matsushita Electric Works Ltd エレベータ乗降自律移動ロボット
JP2005053671A (ja) 2003-08-06 2005-03-03 Matsushita Electric Works Ltd 自律移動ロボット及び自律移動ロボット用のエレベータ乗降システム
JP2006089262A (ja) 2004-09-27 2006-04-06 Matsushita Electric Works Ltd 自律移動ロボット用のエレベータ乗降システム
JP2007210801A (ja) 2007-03-14 2007-08-23 Matsushita Electric Works Ltd 自律移動ロボット及び自律移動ロボット用のエレベータ乗降システム
JP2008162758A (ja) 2006-12-28 2008-07-17 Toshiba Elevator Co Ltd エレベータ誘導用ロボット制御システム
JP2009051617A (ja) 2007-08-27 2009-03-12 Fuji Heavy Ind Ltd エレベータ制御システム
JP2009258821A (ja) 2008-04-14 2009-11-05 Panasonic Corp 自律移動ロボットおよびそのエレベータ乗降方法
KR20100077920A (ko) 2008-12-29 2010-07-08 한국생산기술연구원 로봇, 로봇 제어 방법, 로봇 연동형 엘리베이터 시스템 및 그 제어 방법
KR20100080278A (ko) 2009-03-04 2010-07-08 한국생산기술연구원 로봇, 로봇 제어 방법, 로봇 연동형 엘리베이터 시스템 및 그 제어 방법
JP2011088721A (ja) 2009-10-23 2011-05-06 Fuji Heavy Ind Ltd 自律走行ロボット及び自律走行ロボットの制御システム
JP2012106866A (ja) 2012-02-23 2012-06-07 Panasonic Corp 自律移動ロボットのエレベータ乗降方法
CN105565094A (zh) 2016-02-02 2016-05-11 北京云迹科技有限公司 自动进出电梯的方法及系统
CN105600631A (zh) 2016-02-02 2016-05-25 北京云迹科技有限公司 自动进出电梯的系统及方法
CN105858383A (zh) 2016-05-31 2016-08-17 北京云迹科技有限公司 自动进出电梯的系统及方法
CN105881553A (zh) 2016-05-26 2016-08-24 深圳市神州云海智能科技有限公司 一种楼道清洁机器人实现自主运行的方法、装置及机器人
CN107055241A (zh) 2017-04-18 2017-08-18 上海木爷机器人技术有限公司 机器人乘坐电梯的控制方法和系统
CN107538463A (zh) 2017-10-11 2018-01-05 深圳市普渡科技有限公司 一种可自主进出电梯的机器人
CN107826917A (zh) 2017-09-29 2018-03-23 上海有个机器人有限公司 一种电梯楼层自动识别方法、系统及控制终端
CN108002151A (zh) 2017-12-06 2018-05-08 昆山京都电梯有限公司 一种基于机器人的电梯任务控制方法及电梯
CN108002154A (zh) 2017-11-22 2018-05-08 上海思岚科技有限公司 控制机器人跨楼层移动的方法
CN108163653A (zh) 2017-12-11 2018-06-15 日立楼宇技术(广州)有限公司 电梯及机器人乘梯的方法和装置
CN108297061A (zh) 2018-01-31 2018-07-20 中国科学院合肥物质科学研究院 一种用于高层室内引导的移动机器人及其控制方法
CN108382933A (zh) 2018-02-07 2018-08-10 上海有个机器人有限公司 一种智能移动设备乘梯方法及系统、存储介质及智能网关
CN108455393A (zh) 2018-03-20 2018-08-28 天津大学 一种用于机器人的电梯上下行开门控制装置
CN108861905A (zh) 2018-06-22 2018-11-23 广州思八客科技有限公司 控制机器人乘坐电梯的方法、装置和计算机设备
CN109205406A (zh) 2018-10-18 2019-01-15 日立楼宇技术(广州)有限公司 机器人乘梯方法、装置、计算机设备和可读存储介质
EP3453663A1 (de) 2016-05-05 2019-03-13 Tencent Technology (Shenzhen) Company Limited Bodenüberwachungsverfahren, elektronische vorrichtung und computerspeichermedium zur verwendung, wenn ein roboter einen aufzug nimmt

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4802384B2 (ja) * 2001-04-06 2011-10-26 株式会社安川電機 建造物階層間昇降手段自動呼出システム
DE112016007313B4 (de) * 2016-10-04 2022-04-28 Mitsubishi Electric Corporation Aufzug-Steuervorrichtung und Autonom-Bewegender-Körper-Steuervorrichtung
US11724399B2 (en) * 2017-02-06 2023-08-15 Cobalt Robotics Inc. Mobile robot with arm for elevator interactions

Patent Citations (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05210414A (ja) 1992-01-30 1993-08-20 Sogo Keibi Hoshiyou Kk 移動ロボットの移動方法
JP2005018382A (ja) 2003-06-25 2005-01-20 Matsushita Electric Works Ltd エレベータ乗降自律移動ロボット
JP2005053671A (ja) 2003-08-06 2005-03-03 Matsushita Electric Works Ltd 自律移動ロボット及び自律移動ロボット用のエレベータ乗降システム
JP2006089262A (ja) 2004-09-27 2006-04-06 Matsushita Electric Works Ltd 自律移動ロボット用のエレベータ乗降システム
JP2008162758A (ja) 2006-12-28 2008-07-17 Toshiba Elevator Co Ltd エレベータ誘導用ロボット制御システム
JP2007210801A (ja) 2007-03-14 2007-08-23 Matsushita Electric Works Ltd 自律移動ロボット及び自律移動ロボット用のエレベータ乗降システム
JP2009051617A (ja) 2007-08-27 2009-03-12 Fuji Heavy Ind Ltd エレベータ制御システム
JP2009258821A (ja) 2008-04-14 2009-11-05 Panasonic Corp 自律移動ロボットおよびそのエレベータ乗降方法
KR20100077920A (ko) 2008-12-29 2010-07-08 한국생산기술연구원 로봇, 로봇 제어 방법, 로봇 연동형 엘리베이터 시스템 및 그 제어 방법
KR20100080278A (ko) 2009-03-04 2010-07-08 한국생산기술연구원 로봇, 로봇 제어 방법, 로봇 연동형 엘리베이터 시스템 및 그 제어 방법
JP2011088721A (ja) 2009-10-23 2011-05-06 Fuji Heavy Ind Ltd 自律走行ロボット及び自律走行ロボットの制御システム
JP2012106866A (ja) 2012-02-23 2012-06-07 Panasonic Corp 自律移動ロボットのエレベータ乗降方法
CN105565094A (zh) 2016-02-02 2016-05-11 北京云迹科技有限公司 自动进出电梯的方法及系统
CN105600631A (zh) 2016-02-02 2016-05-25 北京云迹科技有限公司 自动进出电梯的系统及方法
EP3453663A1 (de) 2016-05-05 2019-03-13 Tencent Technology (Shenzhen) Company Limited Bodenüberwachungsverfahren, elektronische vorrichtung und computerspeichermedium zur verwendung, wenn ein roboter einen aufzug nimmt
CN105881553A (zh) 2016-05-26 2016-08-24 深圳市神州云海智能科技有限公司 一种楼道清洁机器人实现自主运行的方法、装置及机器人
CN105858383A (zh) 2016-05-31 2016-08-17 北京云迹科技有限公司 自动进出电梯的系统及方法
CN107055241A (zh) 2017-04-18 2017-08-18 上海木爷机器人技术有限公司 机器人乘坐电梯的控制方法和系统
CN107826917A (zh) 2017-09-29 2018-03-23 上海有个机器人有限公司 一种电梯楼层自动识别方法、系统及控制终端
CN107538463A (zh) 2017-10-11 2018-01-05 深圳市普渡科技有限公司 一种可自主进出电梯的机器人
CN108002154A (zh) 2017-11-22 2018-05-08 上海思岚科技有限公司 控制机器人跨楼层移动的方法
CN108002151A (zh) 2017-12-06 2018-05-08 昆山京都电梯有限公司 一种基于机器人的电梯任务控制方法及电梯
CN108163653A (zh) 2017-12-11 2018-06-15 日立楼宇技术(广州)有限公司 电梯及机器人乘梯的方法和装置
CN108297061A (zh) 2018-01-31 2018-07-20 中国科学院合肥物质科学研究院 一种用于高层室内引导的移动机器人及其控制方法
CN108382933A (zh) 2018-02-07 2018-08-10 上海有个机器人有限公司 一种智能移动设备乘梯方法及系统、存储介质及智能网关
CN108455393A (zh) 2018-03-20 2018-08-28 天津大学 一种用于机器人的电梯上下行开门控制装置
CN108861905A (zh) 2018-06-22 2018-11-23 广州思八客科技有限公司 控制机器人乘坐电梯的方法、装置和计算机设备
CN109205406A (zh) 2018-10-18 2019-01-15 日立楼宇技术(广州)有限公司 机器人乘梯方法、装置、计算机设备和可读存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200024104A1 (en) * 2019-08-16 2020-01-23 Lg Electronics Inc. Robot system and operation method thereof
US11518648B2 (en) * 2019-08-16 2022-12-06 Lg Electronics Inc. Robot system and operation method thereof

Also Published As

Publication number Publication date
US20230039466A1 (en) 2023-02-09
WO2021160623A1 (en) 2021-08-19
EP4168342A1 (de) 2023-04-26

Similar Documents

Publication Publication Date Title
DE102021103038A1 (de) Verfahren und System zur Beförderung eines Roboters in einem Aufzug
EP3494446B1 (de) Verfahren und vorrichtung zur steuerung eines autonomen mobilen roboters
DE102014015073B4 (de) Verfahren zur Aktualisierung und/oder Erweiterung eines Kartendatensatzes einer begrenzten Umgebung
DE102017204404B3 (de) Verfahren und Vorhersagevorrichtung zum Vorhersagen eines Verhaltens eines Objekts in einer Umgebung eines Kraftfahrzeugs und Kraftfahrzeug
EP3974934A1 (de) Verfahren zur steuerung eines autonomen, mobilen roboters
DE112018006578T5 (de) Wegplanung für autonome sich bewegende vorrichtungen
DE102017128543B4 (de) Störbereich-einstellvorrichtung für einen mobilen roboter
DE102016105858A1 (de) Mobiles dreidimensionales Messinstrument
DE102015201317A1 (de) Vermessen einer Abmessung auf einer Oberfläche
DE102016114594A1 (de) Verfahren zur Steuerung eines autonomen mobilen Roboters
CN109202885A (zh) 一种物料搬运移动复合机器人
DE102004047130A1 (de) Umgebungsmodellierung für autonome mobile Systeme
WO2009132696A1 (de) Verfahren zur führung eines passagiers in einem gebäude
DE102020102669A1 (de) Systeme und verfahren zum bereitstellen von navigationsassistenz für einen lieferroboter
DE102016201299A1 (de) Umgebungserkennungssystem
EP3453672A1 (de) Verfahren und vorrichtung zur kollisionsvermeidung beim betrieb eines flurförderzeugs
DE202011004401U1 (de) Steuerung und Überwachung einer Lager- und Kommissionieranlage durch Bewegung und Sprache
DE102021206075A1 (de) Fahrzeuglokalisierung als Mitfahrgelegenheit und Insassenidentifikation für autonome Fahrzeuge
EP3988132B1 (de) Sich selbsttätig fortbewegender desinfektionsroboter zum desinfizieren von oberflächen
EP3526727A2 (de) Stereometrische objektflussinteraktion
WO2019057679A1 (de) Verfahren und robotersystem zum anpassen eines robotereinsatzes an einen arbeitsprozess
EP3929841A1 (de) System und verfahren zur erkennung und vermeidung von bildfehlern
EP3623997A1 (de) Anordnung von tof-sensoren zur erfassung eines passagierraums eines peoplemovers, auswerteeinrichtung zum wahrnehmen eines passagierraums eines peoplemovers und wahrnehmungssystem zum wahrnehmen eines blockierens einer passagiertür eines peoplemovers, einer anzahl von passagieren in dem peoplemover und von positionen, körperposen und aktivitäten der passagiere
DE102018009126A1 (de) Transportanordnung
DE102019112781A1 (de) Verfahren zum Koppeln von Koordinatensystemen und computergestütztes System