DE102020206403A1 - Configuring, executing and / or analyzing an application of a mobile and / or collaborative robot - Google Patents

Configuring, executing and / or analyzing an application of a mobile and / or collaborative robot Download PDF

Info

Publication number
DE102020206403A1
DE102020206403A1 DE102020206403.2A DE102020206403A DE102020206403A1 DE 102020206403 A1 DE102020206403 A1 DE 102020206403A1 DE 102020206403 A DE102020206403 A DE 102020206403A DE 102020206403 A1 DE102020206403 A1 DE 102020206403A1
Authority
DE
Germany
Prior art keywords
robot
user interface
environment
virtual object
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102020206403.2A
Other languages
German (de)
Inventor
Marco Baldini
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KUKA Deutschland GmbH
Original Assignee
KUKA Deutschland GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KUKA Deutschland GmbH filed Critical KUKA Deutschland GmbH
Priority to DE102020206403.2A priority Critical patent/DE102020206403A1/en
Priority to PCT/EP2021/061627 priority patent/WO2021233670A1/en
Publication of DE102020206403A1 publication Critical patent/DE102020206403A1/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39443Portable, adapted to handpalm, with joystick, function keys, display
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39449Pendant, pda displaying camera images overlayed with graphics, augmented reality
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39451Augmented reality for robot programming

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

Ein erfindungsgemäßes Verfahren zum Konfigurieren, Durchführen und/oder Analysieren einer Applikation einer Roboteranordnung (1, 1.1) mit wenigstens einem mobilen und/oder kollaborativen Roboter (1), mithilfe einer Benutzerschnittstelle (2; 2') zum Ein- und/oder Ausgeben von Daten weist den Schritt auf: Überlagern (S20) einer Ansicht, insbesondere Darstellung (10; 20; 30), einer Umgebung mit wenigstens einem virtuellen Objekt (110-210); wobei diese Überlagerung zum Konfigurieren, Durchführen und/oder Analysieren der Applikation durch die, insbesondere an der, Benutzerschnittstelle zur Verfügung gestellt wird, insbesondere die Ansicht der Umgebung und das virtuelle Objekt durch die, insbesondere an der, Benutzerschnittstelle überlagert werden und/oder die Applikation auf Basis dieser Überlagerung, insbesondere mithilfe der Benutzerschnittstelle, konfiguriert, durchgeführt und/oder analysiert wird (S30).A method according to the invention for configuring, performing and / or analyzing an application of a robot arrangement (1, 1.1) with at least one mobile and / or collaborative robot (1), with the aid of a user interface (2; 2 ') for inputting and / or outputting Data has the step: superimposing (S20) a view, in particular a representation (10; 20; 30), of an environment with at least one virtual object (110-210); this overlay for configuring, executing and / or analyzing the application is made available by the, in particular on the, user interface, in particular the view of the environment and the virtual object by which, in particular on the, user interface is overlaid and / or the application is configured, performed and / or analyzed on the basis of this superimposition, in particular with the aid of the user interface (S30).

Description

Die vorliegende Erfindung betrifft ein Verfahren und ein System zum Konfigurieren, Durchführen und/oder Analysieren einer Applikation einer Roboteranordnung mit wenigstens einem mobilen und/oder kollaborativen Roboter mithilfe einer Benutzerschnittstelle zum Ein- und/oder Ausgeben von Daten sowie ein Computerprogrammprodukt zur Durchführung des Verfahrens.The present invention relates to a method and a system for configuring, executing and / or analyzing an application of a robot arrangement with at least one mobile and / or collaborative robot using a user interface for inputting and / or outputting data and a computer program product for executing the method.

Die sogenannte gemischte Realität („Mixed Reality“, MR) umfasst insbesondere die sogenannte erweiterte Realität („Augmented Reality“, AR) und die erweiterte Virtualität („Augmented Virtuality“, AR). In einer Ausführung interagieren in der gemischten Realität reale und virtuelle Objekte.The so-called mixed reality ("Mixed Reality", MR) includes in particular the so-called augmented reality ("Augmented Reality", AR) and the extended virtuality ("Augmented Virtuality", AR). In one embodiment, real and virtual objects interact in the mixed reality.

Ein Grundgedanke der vorliegenden Erfindung ist demgegenüber die Verwendung einer gemischten, in einer Ausführung erweiterten, Realität (MR bzw. AR) zum Konfigurieren, Durchführen und/oder Analysieren von Applikationen mobiler und/oder kollaborativer Roboter.In contrast, a basic idea of the present invention is the use of a mixed reality (MR or AR) that is expanded in one embodiment for configuring, executing and / or analyzing applications of mobile and / or collaborative robots.

Eine Aufgabe einer Ausführung der vorliegenden Erfindung ist es entsprechend, den Einsatz von mobilen und/oder kollaborativen Robotern zu verbessern.One object of an embodiment of the present invention is accordingly to improve the use of mobile and / or collaborative robots.

Diese Aufgabe wird durch ein Verfahren mit den Merkmalen des Anspruchs 1 gelöst. Ansprüche 13, 14 stellen ein System bzw. Computerprogrammprodukt zur Durchführung eines hier beschriebenen Verfahrens unter Schutz. Die Unteransprüche betreffen vorteilhafte Weiterbildungen.This object is achieved by a method with the features of claim 1. Claims 13, 14 provide a system or computer program product for performing a method described here under protection. The subclaims relate to advantageous developments.

Nach einer Ausführung der vorliegenden Erfindung weist eine Roboteranordnung einen oder mehrere mobile und/oder kollaborative Roboter auf. In einer Ausführung weisen der bzw. einer oder mehrere der mobile(n), in einer Ausführung kollaborative(n), Roboter (jeweils) eine mobile Basis, insbesondere ein, in einer Ausführung nicht schienengebundenes, Fahrwerk, insbesondere ein oder mehrere, insbesondere gelenkte und/oder angetriebene, Räder, und/oder wenigstens einen Roboterarm, welcher in einer Ausführung wenigstens sechs Gelenke bzw. Achsen, insbesondere Drehgelenke bzw. -achsen, aufweist und/oder an, insbesondere auf der mobilen Basis angeordnet ist, und/oder eine roboterseitige Energieversorgung, insbesondere einen elektrischen Energiespeicher, für wenigstens einen Antrieb der mobilen Basis und/oder des Roboterarms auf. In einer Ausführung sind der bzw. einer oder mehrere der mobile(n) Roboter AGVs und/oder kollaborative Roboter. Die Roboteranordnung kann zusätzlich oder alternativ einen oder mehrere stationäre Roboter, insbesondere einen oder mehrere (stationäre) Roboterarme, welche in einer Ausführung jeweils wenigstens sechs Gelenke bzw. Achsen, insbesondere Drehgelenke bzw. -achsen, aufweisen, und/oder eine roboterexterne, in einer Ausführung zentrale, Roboteranordnungssteuerung aufweisen, die einen oder mehrere der mobilen und/oder einen oder mehrere der stationären Roboter steuert bzw. hierzu vorgesehen, insbesondere eingerichtet ist bzw. verwendet wird, insbesondere ein Flottenmanagement(system).According to one embodiment of the present invention, a robot arrangement has one or more mobile and / or collaborative robots. In one embodiment, the or one or more of the mobile robots, in one embodiment collaborative robots (each) have a mobile base, in particular a chassis, in one embodiment not rail-bound, in particular one or more, in particular steered and / or driven wheels and / or at least one robot arm, which in one embodiment has at least six joints or axes, in particular swivel joints or axes, and / or is arranged on, in particular on the mobile base, and / or one Robot-side energy supply, in particular an electrical energy store, for at least one drive of the mobile base and / or the robot arm. In one embodiment, the or one or more of the mobile robots are AGVs and / or collaborative robots. The robot arrangement can additionally or alternatively have one or more stationary robots, in particular one or more (stationary) robot arms, which in one embodiment each have at least six joints or axes, in particular swivel joints or axes, and / or one external to the robot in one Execution have central, robot arrangement control, which controls one or more of the mobile and / or one or more of the stationary robots or is provided for this purpose, in particular is set up or is used, in particular a fleet management (system).

In einer Ausführung kollaboriert, in einer Ausführung humankollaboriert, der bzw. wenigstens einer der kollaborative(n) Roboter wenigstens temporär („Mensch-Roboter-Kollaboration“), in einer Ausführung arbeitet er, wenigstens temporär, (auch) (voll)automatisiert bzw. ohne (Human- bzw. Mensch-Roboter-)Kollaboration, wechselt in einer Ausführung zwischen (human)kollaborierendem Betrieb und (voll)automatisiertem Betrieb bzw. Betrieb ohne (Human- bzw. Mensch-Roboter-)Kollaboration, bzw. ist der Roboter bzw. die Roboteranordnung hierzu fähig, insbesondere vorgesehen, in einer Ausführung eingerichtet, bzw. wird hierzu verwendet. In einer Ausführung sind der bzw. einer oder mehrere der kollaborativen Roboter Cobots und/oder umfasst die Roboteranordnung wenigstens eine hybride Zelle. In einer Ausführung ist der bzw. wenigstens einer der kollaborativen Roboter ein mobiler oder stationärer Roboter und/oder weist einen Roboterarm auf, welcher in einer Ausführung wenigstens sechs Gelenke bzw. Achsen, insbesondere Drehgelenke bzw. -achsen, aufweist. In einer Ausführung umfasst die Applikation eine oder keine Mensch-Roboter-Kollaboration, in einer Ausführung einen Wechsel zwischen (human)kollaborierendem Betrieb und (voll)automatisiertem Betrieb bzw. Betrieb ohne (Human- bzw. Mensch-Roboter-)Kollaboration. Entsprechend ist ein kollaborativer Roboter in einer Ausführung ein Roboter, der dazu fähig, in einer Ausführung vorgesehen, insbesondere eingerichtet, ist bzw. verwendet wird, wenigstens temporär eine Mensch-Roboter-Kollaboration durchzuführen bzw. die Roboteranordnung in einer Ausführung eine Roboteranordnung, die dazu fähig, in einer Ausführung vorgesehen, insbesondere eingerichtet, ist bzw. verwendet wird, das (wenigstens einer) ihr(er) Roboter wenigstens temporär eine Mensch-Roboter-Kollaboration durchführt, in einer Ausführung führt der kollaborative Roboter wenigstens temporär eine Mensch-Roboter-Kollaboration durch.Collaborated in one embodiment, human-collaborated in one embodiment, the or at least one of the collaborative robots at least temporarily ("human-robot collaboration"), in one embodiment it works, at least temporarily, (also) (fully) automated or . without (human or human-robot) collaboration, alternates in one version between (human) collaborative operation and (fully) automated operation or operation without (human or human-robot) collaboration, or is the Robot or the robot arrangement capable of this, in particular provided, set up in one embodiment, or is used for this purpose. In one embodiment, the or one or more of the collaborative robots are cobots and / or the robot arrangement comprises at least one hybrid cell. In one embodiment, the or at least one of the collaborative robots is a mobile or stationary robot and / or has a robot arm, which in one embodiment has at least six joints or axes, in particular swivel joints or axes. In one embodiment, the application comprises one or no human-robot collaboration, in one embodiment a change between (human) collaborative operation and (fully) automated operation or operation without (human or human-robot) collaboration. Correspondingly, a collaborative robot in one embodiment is a robot which, in one embodiment, is provided, in particular set up, or is used, at least temporarily to carry out a human-robot collaboration or, in one embodiment, the robot arrangement is a robot arrangement that is capable of doing this capable of being provided, in particular set up, or used in an embodiment that (at least one) of your robot (s) carries out a human-robot collaboration at least temporarily, in one embodiment the collaborative robot at least temporarily carries out a human-robot Collaboration through.

Die vorliegende Erfindung kann für solche Roboter(anordnungen), insbesondere aufgrund von deren Einsatzfeldern, Komplexität und/oder Variabilität, mit besonderem Vorteil verwendet werden, ohne hierauf beschränkt zu sein.The present invention can be used with particular advantage for such robots (arrangements), in particular because of their fields of application, complexity and / or variability, without being restricted thereto.

Nach einer Ausführung der vorliegenden Erfindung weist ein Verfahren zum Konfigurieren, Durchführen und/oder Analysieren einer Applikation der Roboteranordnung mithilfe einer ein- oder mehrteiligen Benutzerschnittstelle, über die ein, insbesondere menschlicher, Benutzer Daten eingibt und/oder die Daten an einen bzw. den Benutzer ausgibt bzw. hierzu vorgesehen, insbesondere eingerichtet ist und/oder verwendet wird, die Schritte auf:

  1. A) Überlagern
    1. a) einer Ansicht einer Umgebung, in einer Ausführung einer Umgebung der Benutzerschnittstelle und/oder der Roboteranordnung, insbesondere des bzw. eines oder mehrerer der mobilen und/oder kollaborativen Roboter(s), mit
    2. b) einem oder mehreren virtuellen Objekten, in einer Ausführung durch die, in einer Ausführung an, insbesondere auf oder in, der, Benutzerschnittstelle, in einer Ausführung Überlagern in der Ansicht der Umgebung; und
  2. B) zur Verfügung stellen dieser Überlagerung durch die, in einer Ausführung an, insbesondere auf oder in, der, Benutzerschnittstelle, insbesondere dem Benutzer, zum Konfigurieren, Durchführen und/oder Analysieren der Applikation, in einer Ausführung Konfigurieren, Durchführen und/oder Analysieren der Applikation auf Basis, insbesondere mithilfe, dieser Überlagerung, in einer Ausführung mithilfe der, insbesondere durch, die Benutzerschnittstelle.
According to one embodiment of the present invention, a method for configuring, performing and / or analyzing an application of the robot arrangement with the aid of a single or Multipart user interface via which a, in particular human, user inputs data and / or outputs the data to a user or is provided for this purpose, in particular is set up and / or used, the steps of:
  1. A) Overlay
    1. a) a view of an environment, in one embodiment of an environment of the user interface and / or the robot arrangement, in particular of the or one or more of the mobile and / or collaborative robot (s)
    2. b) one or more virtual objects, in one embodiment by, in one embodiment on, in particular on or in, the user interface, in one embodiment overlaying in the view of the environment; and
  2. B) make this overlay available through the, in one embodiment at, in particular on or in the, user interface, in particular the user, for configuring, performing and / or analyzing the application, in one embodiment configuring, performing and / or analyzing the Application based on, in particular with the aid of, this overlay, in one embodiment with the aid of, in particular through, the user interface.

Hierdurch kann in einer Ausführung die benötigte Zeit und/oder der Aufwand zum Konfigurieren, Durchführen bzw. Analysieren der Applikation reduziert und/oder die dabei erreichte Zuverlässigkeit und/oder Präzision erhöht werden.As a result, the time required and / or the effort required for configuring, performing or analyzing the application can be reduced in one embodiment and / or the reliability and / or precision achieved thereby can be increased.

Das Konfigurieren umfasst in einer Ausführung ein Planen bzw. Vorgeben von Bewegungen und/oder Tätigkeiten bzw. Arbeiten der Roboteranordnung und/oder einer damit interagierenden Umgebung, insbesondere Lagern, Be- und/oder Entladestationen, Förder-, Be- bzw. Verarbeitungs-, Prüf- und/oder Betankungs- und/oder Elektro-(Auf)Ladestationen oder dergleichen und/oder ein Gestalten, insbesondere Parametrieren und/oder Verändern der Roboteranordnung und/oder damit interagierenden Umgebung. In einer Ausführung erfolgt das Konfigurieren vor dem Durchführen der Applikation.In one embodiment, the configuration includes planning or specifying movements and / or activities or work of the robot arrangement and / or an environment interacting with it, in particular storage, loading and / or unloading stations, conveying, loading or processing, Testing and / or refueling and / or electrical (charging) charging stations or the like and / or design, in particular parameterization and / or changing of the robot arrangement and / or the environment interacting with it. In one embodiment, the configuration takes place before the application is carried out.

Das Durchführen einer Applikation der Roboteranordnung umfasst in einer Ausführung ein Kommandieren, insbesondere Steuern bzw. Regeln, und/oder Überwachen von Bewegungen und/oder Tätigkeiten der Roboteranordnung und/oder einer damit interagierenden Umgebung, insbesondere Lagern, Be- und/oder Entladestationen, Förder-, Be- bzw. Verarbeitungs-, Prüf- und/oder Betankungs- und/oder Elektro-(Auf)Ladestationen oder dergleichen. In einer Ausführung erfolgt das erfindungsgemäße Durchführen online. In einer Ausführung umfasst, insbesondere ist, das Durchführen einer Applikation der Roboteranordnung das Steuern des bzw. eines oder mehrerer der mobilen und/oder kollaborativen Roboter(s), in einer Ausführung online und/oder remote durch einen Benutzer der Benutzerschnittstelle.In one embodiment, performing an application of the robot arrangement includes commanding, in particular controlling or regulating, and / or monitoring movements and / or activities of the robot arrangement and / or an environment interacting with it, in particular storage, loading and / or unloading stations, conveyors -, processing, testing and / or refueling and / or electrical (charging) charging stations or the like. In one embodiment, the implementation according to the invention takes place online. In one embodiment, the implementation of an application of the robot arrangement includes, in particular, the control of the or one or more of the mobile and / or collaborative robot (s), in one embodiment online and / or remotely by a user of the user interface.

Das Analysieren umfasst in einer Ausführung ein Sammeln, insbesondere Speichern, und/oder Auswerten von Daten von der Roboteranordnung und/oder einer damit interagierenden Umgebung, insbesondere Lagern, Be- und/oder Entladestationen, Förder-, Be- bzw. Verarbeitungs-, Prüf- und/oder Betankungs- und/oder Elektro-(Auf)Ladestationen oder dergleichen, insbesondere ein Auswerten während und/oder nach Durchführen der Applikation.In one embodiment, the analyzing includes collecting, in particular storing, and / or evaluating data from the robot arrangement and / or an environment interacting with it, in particular storage, loading and / or unloading stations, conveying, handling or processing, testing and / or refueling and / or electrical (charging) charging stations or the like, in particular an evaluation during and / or after the application has been carried out.

Die Ansicht der Umgebung umfasst in einer Ausführung

  • - wenigstens eine, in einer Ausführung zwei- oder dreidimensionale, Darstellung, der Umgebung und/oder
  • - einen Blick bzw. ein Sichtfeld eines Benutzers der Benutzerschnittstelle.
The view of the environment includes in one implementation
  • - At least one, in one embodiment two- or three-dimensional, representation of the environment and / or
  • a view or a field of view of a user of the user interface.

Diese Darstellung der Umgebung umfasst in einer Ausführung ihrerseits

  • - wenigstens ein aufgenommenes, insbesondere aktuelles, in einer Ausführung aktualisiertes, oder gespeichertes, Bild, insbesondere Kamerabild, der Umgebung und/oder
  • - eine künstliche Rekonstruktion der Umgebung, in einer Ausführung an, insbesondere auf bzw. in, der Benutzerschnittstelle.
This representation of the environment in turn includes in one embodiment
  • - At least one recorded, in particular current, updated or stored in an execution, image, in particular camera image, of the environment and / or
  • an artificial reconstruction of the environment, in one embodiment on, in particular on or in, the user interface.

Das Kamerabild ist bzw. wird in einer Ausführung

  • - mithilfe der, insbesondere durch die, Benutzerschnittstelle bzw. wenigstens eine(r) benutzerschnittstellenseitige(n) Kamera,
  • - mithilfe der, insbesondere durch die, Roboteranordnung, insbesondere des bzw. den mobilen und/oder kollaborativen Roboter(s), bzw. wenigstens eine(r) roboter(anordnungs)seitige(n) Kamera und/oder
  • - mithilfe, insbesondere durch, wenigstens eine(r) benutzerschnittstellen- und roboteranordnungsexterne(n) Kamera aufgenommen, insbesondere aktualisiert.
The camera image is or will be in one version
  • - with the help of, in particular through the, user interface or at least one camera (s) on the user interface,
  • - with the aid of the, in particular through the, robot arrangement, in particular the mobile and / or collaborative robot (s), or at least one robot (arrangement) camera and / or
  • - Recorded, in particular updated, with the aid of, in particular by, at least one camera external to the user interface and robot arrangement.

Somit umfasst das Überlagern insbesondere die folgenden, nicht abschließenden Varianten:

  • - Überlagern eines aufgenommenen (Ab-, insbesondere Kamera)Bildes der Umgebung und des wenigstens einen virtuellen Objekts, in einer Ausführung auf einem Bildschirm der Benutzerschnittstelle oder durch Projektion;
  • - Überlagern einer künstlichen Rekonstruktion der Umgebung, beispielsweise einer Darstellung der Umgebung in Form von Gittern, vereinfachten geometrischen Flächen und/oder Körpern, virtuellen Wänden, Böden, Decken, Körpern und dergleichen, und des wenigstens einen virtuellen Objekts, in einer Ausführung auf einem Bildschirm der Benutzerschnittstelle oder durch Projektion;
  • - Überlagern des wenigstens einen virtuellen Objekts mit einem Blick bzw. Sichtfeld bzw. einer Sicht des Benutzers auf die Umgebung, insbesondere auf einem Brillen-, Linsen- oder Maskenglas der Benutzerschnittstelle oder durch Projektion.
Thus, the superimposition includes in particular the following, non-exhaustive variants:
  • - Superimposing a recorded (image, in particular camera) image of the environment and the at least one virtual object, in one embodiment on a screen of the user interface or by projection;
  • - Superimposing an artificial reconstruction of the environment, for example a representation of the environment in the form of grids, simplified geometric surfaces and / or bodies, virtual walls, floors, ceilings, bodies and the like, and the at least one virtual object, in one embodiment on a screen the user interface or by projection;
  • - Overlaying the at least one virtual object with a view or field of view or a view of the user on the surroundings, in particular on a spectacle, lens or mask lens of the user interface or by projection.

In einer Ausführung werden die Ansicht der Umgebung und das bzw. die virtuelle(n) Objekt(e)

  • - auf Basis bzw. in Abhängigkeit von einer ermittelten, in einer Ausführung aktuellen, in einer Ausführung aktualisierten, Perspektive der Ansicht;
  • - auf Basis bzw. in Abhängigkeit von (einer) ermittelten, in einer Ausführung aktuellen, in einer Ausführung aktualisierten, Pose(n)
    • - der Benutzerschnittstelle,
    • - der Roboteranordnung, insbesondere des bzw. eines oder mehrerer der mobilen und/oder kollaborativen Roboter(s), und/oder
    • - wenigstens eines, in einer Ausführung statischen oder bewegten, Umgebungsobjekts, in einer Ausführung wenigstens eines mit dem bzw. einem der virtuellen Objekt(e) verknüpften Umgebungsobjekts,
    relativ zu der Umgebung; und/oder
  • - auf Basis bzw. in Abhängigkeit von (einer) ermittelten, in einer Ausführung aktuellen, in einer Ausführung aktualisierten, Blickrichtung eines Trägers der Benutzerschnittstelle, insbesondere relativ zu der Umgebung und/oder Benutzerschnittstelle
überlagert.In one embodiment, the view of the environment and the virtual object (s) are
  • - on the basis of or as a function of a determined perspective of the view that is current in one version and updated in one version;
  • - on the basis of or as a function of (a) determined pose (s) that are current in one version and updated in one version
    • - the user interface,
    • - The robot arrangement, in particular the or one or more of the mobile and / or collaborative robot (s), and / or
    • - At least one, in one embodiment static or moving, surrounding object, in one embodiment at least one surrounding object linked to the or one of the virtual object (s),
    relative to the environment; and or
  • - on the basis of or as a function of (a) determined, current in an embodiment, updated in an embodiment, viewing direction of a wearer of the user interface, in particular relative to the environment and / or user interface
superimposed.

Entsprechend umfasst das Verfahren in einer Ausführung das Ermitteln, insbesondere Erfassen und/oder Aktualisieren, dieser Perspektive, dieser Pose(n) und/oder Blickrichtung. Eine ermittelte Pose bzw. Blickrichtung ist in einer Ausführung eine erfasste und/oder aktualisierte Pose bzw. Blickrichtung.Correspondingly, in one embodiment, the method includes determining, in particular recording and / or updating, this perspective, this pose (s) and / or viewing direction. In one embodiment, a determined pose or viewing direction is a captured and / or updated pose or viewing direction.

Eine Pose umfasst in einer Ausführung wenigstens eine ein-, zwei- oder dreidimensionale Position und/oder wenigstens eine ein-, zwei- oder dreidimensionale Orientierung, insbesondere eine Position und/oder Orientierung relativ zu bzw. in der Umgebung.In one embodiment, a pose comprises at least one one, two or three-dimensional position and / or at least one one, two or three-dimensional orientation, in particular a position and / or orientation relative to or in the environment.

In einer Ausführung wird die Ansicht der Umwelt auf Basis der ermittelten Pose der Benutzerschnittstelle aktualisiert, in einer Ausführung in Echtzeit und/oder derart, dass sich eine Blickrichtung der Ansicht mit bzw. bei einer Änderung der Pose der Benutzerschnittstelle (entsprechend) (mit)ändert, in einer Ausführung entsprechend einer Änderung einer benutzerschnittstellenfesten Blickrichtung (relativ zur Umgebung).In one embodiment, the view of the environment is updated on the basis of the determined pose of the user interface, in one embodiment in real time and / or in such a way that a viewing direction of the view changes (accordingly) with or when the pose of the user interface changes , in one embodiment corresponding to a change in a user interface-fixed viewing direction (relative to the environment).

Wird beispielsweise die Benutzerschnittstelle um eine Achse gedreht, dreht sich, gegebenenfalls (nur) bei relativ zur Benutzerschnittstelle konstanter Blickrichtung des Benutzers oder auch unabhängig hiervon, in einer Ausführung auch die Blickrichtung der Ansicht der Umwelt (entsprechend mit).If, for example, the user interface is rotated around an axis, the viewing direction of the view of the environment also rotates in one embodiment (only) if the viewing direction of the user is constant relative to the user interface or also independently of this.

In einer Ausführung wird die Ansicht der Umwelt auf Basis der ermittelten Pose der Roboteranordnung, in einer Ausführung des mobilen und/oder kollaborativen Roboters, aktualisiert, in einer Ausführung in Echtzeit und/oder derart, dass sich eine Blickrichtung der Ansicht mit bzw. bei einer Änderung der Pose des Roboters (entsprechend) (mit)ändert, in einer Ausführung entsprechend einer Änderung einer roboterfesten Blickrichtung (relativ zur Umgebung).In one embodiment, the view of the environment is updated on the basis of the determined pose of the robot arrangement, in one embodiment of the mobile and / or collaborative robot, in one embodiment in real time and / or in such a way that a viewing direction of the view with or in a Changing the pose of the robot (correspondingly) (with) changes, in one embodiment corresponding to a change in a robot-fixed viewing direction (relative to the environment).

Dreht sich beispielsweise der Roboter um eine Achse, dreht sich in einer Ausführung auch die Blickrichtung der Ansicht der Umwelt (entsprechend mit).For example, if the robot rotates around an axis, in one version the direction of view of the view of the environment also rotates (accordingly with).

Somit kann zusätzlich oder alternativ zu einer Ansicht der Umgebung der Benutzerschnittstelle auch eine Ansicht der Umgebung der Roboteranordnung, in einer Ausführung des mobilen und/oder kollaborativen Roboters, mit einem oder mehreren virtuellen Objekten überlagert werden, um so beispielsweise Fernsteuerungen, Fernerkundungen oder andere Applikationen der Roboteranordnung, beispielsweise Tätigkeiten in Fabrikationsstätten, Lagern oder dergleichen, zu konfigurieren, durchzuführen und/oder zu analysieren.Thus, in addition to or as an alternative to a view of the environment of the user interface, a view of the environment of the robot arrangement, in an embodiment of the mobile and / or collaborative robot, can be overlaid with one or more virtual objects, for example remote controls, remote sensing or other applications of the To configure, perform and / or analyze robot assembly, for example activities in manufacturing facilities, warehouses or the like.

In einer Ausführung wird eine Pose, insbesondere Position und/oder Orientierung, des bzw. wenigstens eines der virtuelle(n) Objekt(e) in der Überlagerung, in einer Ausführung in der Ansicht der Umgebung, insbesondere in der Darstellung der Umgebung bzw. dem Sichtfeld des Benutzers, auf Basis der ermittelten Pose der Roboteranordnung, in einer Ausführung des mobilen und/oder kollaborativen Roboters, aktualisiert, in einer Ausführung in Echtzeit und/oder derart, dass sich eine Pose, insbesondere Position und/oder Orientierung, des, insbesondere mit der Roboteranordnung, in einer Ausführung dem mobilen und/oder kollaborativen Roboter, verknüpften, virtuellen Objekts in der Überlagerung bzw. Ansicht der Umgebung mit bzw. bei einer Änderung der Pose der Roboteranordnung bzw. des Roboters relativ zu der Umgebung (entsprechend) (mit)ändert, in einer Ausführung entspricht die Änderung der Pose, insbesondere Position und/oder Orientierung, des virtuellen Objekts in der Überlagerung bzw. Ansicht der Änderung der Pose, insbesondere Position und/oder Orientierung, der Roboteranordnung bzw. des Roboters relativ zu der Umgebung in Richtung und Größe.In one embodiment, a pose, in particular position and / or orientation, of the or at least one of the virtual object (s) in the overlay, in one embodiment in the view of the surroundings, in particular in the representation of the surroundings or the Field of view of the user Based on the determined pose of the robot arrangement, updated in an embodiment of the mobile and / or collaborative robot, in an embodiment in real time and / or in such a way that a pose, in particular position and / or orientation, of the, in particular with the robot arrangement, is in an embodiment of the mobile and / or collaborative robot, linked, virtual object in the overlay or view of the environment with or when the pose of the robot arrangement or the robot is changed relative to the environment (accordingly) (with) changes in a Execution corresponds to the change in the pose, in particular position and / or orientation, of the virtual object in the superimposition or view of the change in pose, in particular position and / or orientation, of the robot arrangement or the robot relative to the environment in terms of direction and size.

Verfährt beispielsweise der Roboter, verschiebt sich in einer Ausführung auch das damit verknüpfte virtuelle Objekt in der Überlagerung bzw. Ansicht der Umwelt (entsprechend mit).If, for example, the robot moves, the virtual object linked to it also shifts in the overlay or view of the environment (accordingly with) in one embodiment.

Gleichermaßen kann die Roboteranordnung auch nicht mit virtuellen Objekten verknüpft und/oder in der (Ansicht der) Umgebung nicht (real) präsent und/oder (nur) durch virtuelle Objekte symbolisiert, sein.Likewise, the robot arrangement can also not be linked to virtual objects and / or not (real) present in the (view of) the environment and / or (only) symbolized by virtual objects.

In einer Ausführung wird eine Pose, insbesondere Position und/oder Orientierung, des bzw. wenigstens eines der virtuelle(n) Objekt(e) in der Überlagerung, in einer Ausführung in der Ansicht der Umgebung, insbesondere in der Darstellung der Umgebung bzw. dem Sichtfeld des Benutzers, auf Basis einer prognostizierten oder nur geplanten, aber (noch) nicht angefahrenen bzw. Planungs-Pose der Roboteranordnung, in einer Ausführung des mobilen und/oder kollaborativen Roboters, aktualisiert, in einer Ausführung in Echtzeit und/oder während einer Planung(sphase) der Applikation und/oder derart, dass sich eine Pose, insbesondere Position und/oder Orientierung, des, insbesondere mit der Roboteranordnung, in einer Ausführung dem mobilen und/oder kollaborativen Roboter, verknüpften, virtuellen Objekts in der Überlagerung bzw. Ansicht der Umgebung mit bzw. bei einer Änderung der prognostizierten bzw. Planungs-Pose der Roboteranordnung bzw. des Roboters relativ zu der Umgebung (entsprechend) (mit)ändert, in einer Ausführung entspricht die Änderung der Pose, insbesondere Position und/oder Orientierung, dieses virtuellen Objekts in der Überlagerung bzw. Ansicht der Änderung der prognostizierten bzw. Planungs-Pose, insbesondere Position und/oder Orientierung, der Roboteranordnung bzw. des Roboters relativ zu der Umgebung in Richtung und Größe.In one embodiment, a pose, in particular position and / or orientation, of the or at least one of the virtual object (s) in the overlay, in one embodiment in the view of the surroundings, in particular in the representation of the surroundings or the Field of view of the user, based on a forecast or only planned but not (yet) approached or planning pose of the robot arrangement, in an embodiment of the mobile and / or collaborative robot, updated, in an execution in real time and / or during planning (phase) of the application and / or such that a pose, in particular position and / or orientation, of the, in particular with the robot arrangement, in one embodiment the mobile and / or collaborative robot, linked, virtual object is in the overlay or view the environment with or in the event of a change in the predicted or planning pose of the robot arrangement or the robot relative to the environment (accordingly) (with) changes rt, in one embodiment, the change in the pose, in particular position and / or orientation, of this virtual object in the overlay or view corresponds to the change in the forecast or planning pose, in particular position and / or orientation, of the robot arrangement or the robot relative to the environment in direction and size.

Verschiebt sich beispielsweise eine Planungs-Pose, etwa ein Knoten eines Navigationspfades oder dergleichen, insbesondere infolge einer Benutzereingabe, verschiebt sich in einer Ausführung auch das damit verknüpfte virtuelle Objekt in der Überlagerung bzw. Ansicht der Umwelt (entsprechend mit).If, for example, a planning pose, for example a node of a navigation path or the like, is shifted, in particular as a result of a user input, in one embodiment the virtual object linked to it is also shifted in the overlay or view of the environment (correspondingly with).

Hierdurch kann ein Benutzer in einer Ausführung vorteilhaft Auswirkungen geplanter bzw. zukünftiger Roboter(anordnugs)posen, insbesondere potentielle Verletzungen von Schutzräumen, Kollisionen mit Hindernissen oder dergleichen, vorteilhaft erkennen.In one embodiment, a user can thereby advantageously identify the effects of planned or future robots (arrangements), in particular potential injuries to protective spaces, collisions with obstacles or the like.

In einer Ausführung wird eine Pose, insbesondere Position und/oder Orientierung, des bzw. eines oder mehrerer der virtuellen Objekte in der Überlagerung, in einer Ausführung in der Ansicht der Umgebung, insbesondere in der Darstellung der Umgebung bzw. dem Sichtfeld des Benutzers, auf Basis der ermittelten Pose eines mit dem (jeweiligen) virtuellen Objekt verknüpften Umgebungsobjekts aktualisiert, in einer Ausführung in Echtzeit und/oder derart, dass sich eine Pose, insbesondere Position und/oder Orientierung, des (jeweiligen) virtuellen Objekts in der Überlagerung bzw. Ansicht der Umgebung mit bzw. bei einer Änderung der Pose des damit verknüpften Umgebungsobjekts relativ zu der Umgebung (entsprechend) (mit)ändert, in einer Ausführung entspricht die Änderung der Pose, insbesondere Position und/oder Orientierung, des virtuellen Objekts in der Überlagerung bzw. Ansicht der Änderung der Pose, insbesondere Position und/oder Orientierung, des Umgebungsobjekts relativ zu der Umgebung in Richtung und Größe.In one embodiment, a pose, in particular the position and / or orientation, of the or one or more of the virtual objects in the overlay is displayed, in one embodiment in the view of the surroundings, in particular in the representation of the surroundings or the field of view of the user Based on the determined pose of a surrounding object linked to the (respective) virtual object updated, in an execution in real time and / or in such a way that a pose, in particular position and / or orientation, of the (respective) virtual object is in the overlay or view the environment with or when the pose of the associated environment object changes relative to the environment (accordingly) (with), in one embodiment the change corresponds to the pose, in particular the position and / or orientation, of the virtual object in the overlay or View of the change in pose, in particular position and / or orientation, of the surrounding object relative to the surroundings in Ric respect and size.

Verschiebt sich beispielsweise ein Werkstück, Transportgut, Werkzeug- oder Fördertisch oder ein anderes Umgebungsobjekt, verschiebt sich in einer Ausführung auch das damit verknüpfte virtuelle Objekt in der Überlagerung bzw. Ansicht der Umwelt (entsprechend mit).If, for example, a workpiece, transported goods, tool or conveyor table or another surrounding object is shifted, in one embodiment the virtual object linked to it is also shifted in the overlay or view of the environment (accordingly with).

Gleichermaßen kann eine Pose, insbesondere Position und/oder Orientierung, des bzw. eines oder mehrerer der virtuellen Objekte relativ zu einer Außenkontur der Ansicht der Umgebung, insbesondere relativ zu einer Außenkontur der Darstellung der Umgebung bzw. einer Außenkontur des Sichtfelds des Benutzers auch konstant bzw. relativ zur Außenkontur ortsfest sein.Likewise, a pose, in particular the position and / or orientation, of the or one or more of the virtual objects relative to an outer contour of the view of the surroundings, in particular relative to an outer contour of the representation of the surroundings or an outer contour of the user's field of vision, can also be constant or . be stationary relative to the outer contour.

Schwenkt beispielsweise eine Perspektive der Ansicht um eine Vertikalachse, kann ein solches virtuelles Objekt relativ zu einer Außenkontur eines (Ab-, insbesondere Kamera)Bildes der Umgebung, einer Außenkontur einer künstlichen Rekonstruktion der Umgebung bzw. einer Außenkontur eines Blick(feld)s des Benutzers bzw. einer Außenkontur eines Brillen-, Linsen- oder Maskenglases der Benutzerschnittstelle ortsfest bleiben.For example, if a perspective of the view pivots around a vertical axis, such a virtual object can be relative to an outer contour of a (image, especially camera) image of the surroundings, an outer contour of an artificial reconstruction of the surroundings or an outer contour of a view (field) of the user or an outer contour of a Spectacles, lenses or mask glasses of the user interface remain stationary.

Die Perspektive der Ansicht ist, insbesondere wird, in einer Ausführung auf Basis einer ermittelten, insbesondere aktuellen, Pose der Benutzerschnittstelle oder Roboteranordnung, insbesondere des mobilen und/oder kollaborativen Roboters, relativ zur Umgebung ermittelt, in einer Ausführung aktualisiert.The perspective of the view is, in particular, is determined in one embodiment on the basis of a determined, in particular current, pose of the user interface or robot arrangement, in particular of the mobile and / or collaborative robot, relative to the environment, and is updated in one embodiment.

Zusätzlich oder alternativ ist, insbesondere wird, die Perspektive der Ansicht in einer Ausführung auf Basis einer ermittelten, insbesondere aktuellen, Blickrichtung eines Benutzers, insbesondere Trägers, der Benutzerschnittstelle ermittelt, in einer Ausführung aktualisiert, in einer Ausführung auf Basis einer ermittelten Blickrichtung des Benutzers relativ zur Benutzerschnittstelle und einer ermittelten Pose der Benutzerschnittstelle relativ zur Umgebung oder auf Basis einer ermittelten Blickrichtung des Benutzers relativ zur Umgebung.Additionally or alternatively, in one embodiment the perspective of the view is determined on the basis of a determined, in particular current, viewing direction of a user, in particular wearer, of the user interface, updated in one embodiment, and relative in one embodiment on the basis of a determined viewing direction of the user for the user interface and a determined pose of the user interface relative to the environment or on the basis of a determined viewing direction of the user relative to the environment.

Diese Perspektive der Ansicht wird in einer Ausführung bei der Überlagerung der Ansicht der Umgebung mit dem bzw. den virtuellen Objekt(en) verwendet, insbesondere die Ansicht in bzw. mit dieser Perspektive visualisiert und/oder das bzw. eines oder mehrere der virtuellen Objekt(e) unter Berücksichtigung dieser Perspektive mit der Ansicht der Umgebung überlagert, insbesondere in hier bzw. vorstehend und nachfolgend beschriebener Weise.This perspective of the view is used in one embodiment when the view of the surroundings is superimposed with the virtual object (s), in particular the view is visualized in or with this perspective and / or the or one or more of the virtual object ( e) overlaying this perspective with the view of the surroundings, in particular in the manner described here or above and below.

Trägt beispielsweise ein Benutzer eine Benutzerschnittstelle in Form eines Handgeräts und dreht sich mit dem Handgerät um eine Achse, wird in einer Ausführung auch die Perspektive der Ansicht entsprechend (mit)gedreht.For example, if a user wears a user interface in the form of a hand-held device and rotates around an axis with the hand-held device, in one embodiment the perspective of the view is (also) rotated accordingly.

Trägt ein Benutzer beispielsweise eine Benutzerschnittstelle in Form einer MR-Maske, MR-Linse, MR-Brille oder dergleichen und dreht sich ohne Augenbewegung um eine Achse, wird in einer Ausführung auch die Perspektive der Ansicht entsprechend (mit)gedreht. Bewegt er ohne Kopfbewegung die Augen, beispielsweise horizontal von links nach rechts, wandert in einer Ausführung auch die Perspektive der Ansicht entsprechend (mit). Bei einer Kombination von Augen- und Benutzerschnittstellenbewegung bzw. einer Änderung der Blickrichtung des Benutzers und der Pose der Benutzerschnittstelle wird in einer Ausführung auch die Perspektive der Ansicht entsprechend geändert (ermittelt) bzw. aktualisiert. Dreht der Benutzer beispielsweise seinen Kopf horizontal von links nach rechts und seine Augen gleichschnell von rechts nach links, bleibt die Perspektive der Ansicht in einer Ausführung konstant, dreht der Benutzer beispielsweise seinen Kopf horizontal von links nach rechts und seine Augen ebenfalls von links nach rechts, wandert in einer Ausführung auch die Perspektive der Ansicht mit der superponierten Geschwindigkeit von Kopf- und Augenbewegung.For example, if a user wears a user interface in the form of an MR mask, MR lens, MR glasses or the like and rotates around an axis without eye movement, in one embodiment the perspective of the view is also rotated accordingly. If he moves his eyes without moving his head, for example horizontally from left to right, in one embodiment the perspective of the view also moves (with). With a combination of eye and user interface movement or a change in the viewing direction of the user and the pose of the user interface, the perspective of the view is also changed (determined) or updated accordingly in one embodiment. For example, if the user turns his head horizontally from left to right and his eyes from right to left at the same speed, the perspective of the view remains constant in one embodiment; for example, the user turns his head horizontally from left to right and his eyes also from left to right, In one embodiment, the perspective of the view moves with the superimposed speed of head and eye movement.

Somit werden in einer Ausführung die Ansicht der Umgebung und das bzw. die virtuelle(n) Objekt(e) augmentiert.Thus, in one embodiment, the view of the environment and the virtual object (s) are augmented.

Hierdurch kann in einer Ausführung die benötigte Zeit und/oder der Aufwand zum Konfigurieren, Durchführen bzw. Analysieren von Applikationen mobiler und/oder kollaborativen Roboter, insbesondere aufgrund von deren Komplexität und/oder Variabilität, besonders vorteilhaft reduziert und/oder die dabei erreichte Zuverlässigkeit besonders vorteilhaft erhöht werden.As a result, the required time and / or the effort for configuring, executing or analyzing applications of mobile and / or collaborative robots, in particular due to their complexity and / or variability, can be reduced particularly advantageously in one embodiment and / or the reliability achieved in particular can be advantageously increased.

In einer Ausführung werden die Ansicht der Umgebung und das bzw. die virtuelle(n) Objekt(e) auf Basis eines, in einer Ausführung dreidimensionalen, insbesondere mathematischen bzw. datentechnischen, Modells der Umgebung überlagert. In einer Ausführung entspricht eine Pose des (jeweiligen) virtuellen Objekts relativ zu bzw. in dem Modell einer ermittelten Pose des mit diesem virtuellen Objekt verknüpften Umgebungsobjekts relativ zur Umgebung. Das Modell kann insbesondere eine(n) oder mehrere Punkte, insbesondere Punktewolke(n), Gruppen relativ zueinander lokalisierter Merkmale, 3D-Gitter oder dergleichen aufweisen.In one embodiment, the view of the environment and the virtual object (s) are superimposed on the basis of a, in one embodiment, three-dimensional, in particular mathematical or data-technical, model of the environment. In one embodiment, a pose of the (respective) virtual object relative to or in the model corresponds to a determined pose of the surrounding object linked to this virtual object relative to the surroundings. The model can in particular have one or more points, in particular point cloud (s), groups of features localized relative to one another, 3D grids or the like.

Hierdurch kann in einer Ausführung das Überlagern verbessert, in einer Ausführung die Präzision und/oder Stabilität erhöht werden. Beispielsweise kann so eine 2D-Abbildung, die eine Navigation des mobilen, in einer Ausführung kollaborativen, Roboters repräsentiert, insbesondere visualisiert, der Ansicht der Umgebung präzise(r) und/oder stabil(er) überlagert werden.In this way, the superimposition can be improved in one embodiment, and the precision and / or stability can be increased in one embodiment. For example, a 2D image that represents navigation of the mobile, in one embodiment collaborative, robot, in particular visualized, can be precisely (r) and / or stably (er) superimposed on the view of the surroundings.

Zusätzlich oder alternativ wird das Modell in einer Ausführung auch zur Navigation der Roboteranordnung verwendet, wodurch in einer Ausführung das Modell synergetisch genutzt und/oder die Navigation verbessert, in einer Ausführung die Präzision und/oder Stabilität erhöht werden kann.Additionally or alternatively, in one embodiment the model is also used to navigate the robot arrangement, whereby in one embodiment the model can be used synergistically and / or the navigation can be improved, in one embodiment the precision and / or stability can be increased.

In einer Ausführung weist die Benutzerschnittstelle wenigstens eine, in einer Ausführung am Kopf, tragbare Mixed-Reality-spezifische, in einer Ausführung ARspezifische, Vorrichtung wie beispielsweise Microsoft Hololens2, Magic Leap One oder dergleichen, in einer Ausführung eine MR-Brille, MR-Linse oder MR-Maske, in einer Ausführung eines (MR-)Helms oder (MR-)Kopfgurtes, auf.In one embodiment, the user interface has at least one, in one embodiment on the head, portable mixed reality-specific, in one embodiment AR-specific device such as Microsoft Hololens2, Magic Leap One or the like, in one embodiment MR glasses, MR lens or MR mask, in one version of an (MR) helmet or (MR) head strap.

Hierdurch kann in einer Ausführung die Ergonomie und/oder Präzision verbessert werden.As a result, the ergonomics and / or precision can be improved in one embodiment.

In einer Ausführung weist die Benutzerschnittstelle wenigstens eine tragbare Mehrzweckvorrichtung, insbesondere ein Mobiltelefon, Tablet oder dergleichen, auf, die neben der Benutzerschnittstellenfunktionalität in einer Ausführung noch eine oder mehrere andere Funktionalitäten, insbesondere Kommunikation mit dem Internet und/oder Telefonie, insbesondere Bildtelefonie wie Skype oder dergleichen aufweist bzw. zur Verfügung stellt.In one embodiment, the user interface has at least one portable multi-purpose device, in particular a mobile phone, tablet or the like, which in addition to the user interface functionality in one embodiment also has one or more other functionalities, in particular communication with the Internet and / or telephony, in particular video telephony such as Skype or the like has or provides.

Hierdurch kann in einer Ausführung eine bereits vorhandene Benutzerschnittstelle mehrere Funktionen übernehmen.As a result, an already existing user interface can take on several functions in one embodiment.

In einer Ausführung weist die Benutzerschnittstelle wenigstens ein transparentes Display, wenigstens einen Bildschirm, insbesondere Touchscreen, wenigstens ein Trackpad, wenigstens eine Tastatur, wenigstens einen Joystick und/oder wenigstens eine Computermaus auf.In one embodiment, the user interface has at least one transparent display, at least one screen, in particular a touchscreen, at least one trackpad, at least one keyboard, at least one joystick and / or at least one computer mouse.

Hierdurch kann in einer Ausführung die Ergonomie und/oder Präzision verbessert werden.As a result, the ergonomics and / or precision can be improved in one embodiment.

In einer Ausführung erfasst die Benutzerschnittstelle mithilfe eines oder mehrerer, in einer Ausführung benutzerschnittstellenseitiger bzw. -fester, Sensoren die Umgebung bzw. ist hierzu eingerichtet bzw. wird hierzu verwendet.In one embodiment, the user interface detects the environment or is set up for this purpose or is used for this purpose with the aid of one or more sensors, which in one embodiment are on the user interface side or fixed.

Hierdurch kann in einer Ausführung die Darstellung der Umgebung und/oder die Selbstlokalisation der Benutzerschnittstelle verbessert werden.In one embodiment, this can improve the representation of the environment and / or the self-localization of the user interface.

In einer Ausführung erfasst die Benutzerschnittstelle mithilfe eines oder mehrerer, in einer Ausführung benutzerschnittstellenseitiger bzw. -fester, Sensoren die Blickrichtung eines Trägers der Benutzerschnittstelle bzw. ist hierzu eingerichtet bzw. wird hierzu verwendet.In one embodiment, the user interface detects the viewing direction of a wearer of the user interface with the aid of one or more sensors, which in one embodiment are on the user interface side or fixed, or is set up for this purpose or is used for this purpose.

Hierdurch kann in einer Ausführung die Überlagerung verbessert werden.In this way, the superimposition can be improved in one embodiment.

In einer Ausführung sendet die Benutzerschnittstelle, in einer Ausführung drahtlos, Daten an die Roboteranordnung, Umgebung, ein lokales Netzwerk und/oder eine Computercloud und/oder erhält von der Roboteranordnung, Umgebung, dem lokalen Netzwerk und/oder der Computercloud, in einer Ausführung drahtlos, Daten bzw. ist hierzu eingerichtet bzw. wird hierzu verwendet.In one embodiment, the user interface sends, in one embodiment wirelessly, data to the robot arrangement, environment, a local network and / or a computer cloud and / or receives data wirelessly from the robot arrangement, environment, the local network and / or the computer cloud, in one embodiment , Data or is set up for this purpose or is used for this purpose.

Hierdurch kann in einer Ausführung benutzerschnittstellenexterne Sensor- und/oder Rechenkapazität genutzt und damit insbesondere eine Sensor- bzw. Rechenkapazität der Benutzerschnittstelle geschont bzw. reduziert werden und/oder die Benutzerschnittstelle als Sensor fungieren.As a result, in one embodiment, sensor and / or computing capacity external to the user interface can be used and thus in particular a sensor or computing capacity of the user interface can be spared or reduced and / or the user interface can function as a sensor.

In einer Ausführung aktualisiert die Benutzerschnittstelle die Überlagerung, insbesondere die Ansicht der Umgebung und/oder das bzw. eines oder mehrerer virtuelle(n/r) Objekt(e/s), in Echtzeit bzw. ist hierzu eingerichtet bzw. wird hierzu verwendet.In one embodiment, the user interface updates the overlay, in particular the view of the environment and / or the or one or more virtual object (s), in real time or is set up for this purpose or is used for this purpose.

Hierdurch kann in einer Ausführung das Durchführen der Applikation verbessert, insbesondere eine Präzision erhöht werden.As a result, in one embodiment, the implementation of the application can be improved, in particular the precision can be increased.

In einer Ausführung ist, insbesondere wird, die Pose der Benutzerschnittstelle und/oder die Pose der Roboteranordnung, insbesondere des mobilen und/oder kollaborativen Roboters, und/oder die Pose des bzw. eines oder mehrerer der Umgebungsobjekte, mit dem das bzw. mit denen jeweils eines der virtuelle(n) Objekt(e) verknüpft ist, mittels Selbstlokalisation und/oder mithilfe einer Umgebungskarte, insbesondere mittels SLAM (Simultaneous Localization and Mapping) ermittelt.In one embodiment, the pose of the user interface and / or the pose of the robot arrangement, in particular of the mobile and / or collaborative robot, and / or the pose of the or one or more of the surrounding objects with which the or with which in each case one of the virtual object (s) is linked, determined by means of self-localization and / or with the help of an environment map, in particular by means of SLAM (Simultaneous Localization and Mapping).

Hierdurch kann das Überlagern auf Basis der ermittelten Pose verbessert, insbesondere eine Präzision erhöht werden.In this way, the superimposition can be improved on the basis of the determined pose, in particular a precision can be increased.

In einer Ausführung ist, insbesondere wird, die Pose der Benutzerschnittstelle und/oder die Pose der Roboteranordnung, insbesondere des mobilen und/oder kollaborativen Roboters, und/oder die Pose des bzw. eines oder mehrerer der Umgebungsobjekte, mit dem das bzw. mit denen jeweils eines der virtuelle(n) Objekt(e) verknüpft ist, mithilfe wenigstens eines benutzerschnittstellenseitigen und/oder wenigstens eines roboteranordnungs-, insbesondere roboterseitigen und/oder wenigstens eines umgebungsseitigen Sensors ermittelt. In einer Ausführung ist, insbesondere wird, die Pose der Roboteranordnung, insbesondere des mobilen und/oder kollaborativen Roboters, und/oder die Pose des bzw. eines oder mehrerer der Umgebungsobjekte zusätzlich oder alternativ auf Basis einer vorgegebenen, insbesondere geplanten oder gesteuerten, Positionierung, insbesondere Bewegung, der Roboteranordnung bzw. des (jeweiligen) Umgebungsobjekts ermittelt.In one embodiment, the pose of the user interface and / or the pose of the robot arrangement, in particular of the mobile and / or collaborative robot, and / or the pose of the or one or more of the surrounding objects with which the or with which in each case one of the virtual object (s) is linked, determined with the aid of at least one user interface-side and / or at least one robot arrangement-side, in particular robot-side and / or at least one environmental-side sensor. In one embodiment, the pose of the robot arrangement, in particular the mobile and / or collaborative robot, and / or the pose of the or one or more of the surrounding objects is, in addition or alternatively, based on a predetermined, in particular planned or controlled, positioning, in particular movement, the robot arrangement or the (respective) surrounding object is determined.

Durch umgebungsseitige Sensoren kann in einer Ausführung die Belastung der Benutzerschnittstelle bzw. Roboteranordnung bzw. des mobilen und/oder kollaborativen Roboters reduziert werden, durch benutzerschnittstellen- bzw. roboter(anordnungs)seitige Sensoren in einer Ausführung die Benutzerschnittstelle bzw. Roboteranordnung flexibler, insbesondere in beliebigen Umgebungen eingesetzt werden.In one embodiment, the load on the user interface or robot arrangement or the mobile and / or collaborative robot can be reduced by means of sensors on the environment side; Environments are used.

Als Sensor zur Ermittlung der Pose der Benutzerschnittstelle, Roboteranordnung, insbesondere des mobilen und/oder kollaborativen Roboters, bzw. des Umgebungsobjekts werden bevorzugt eine oder mehrere Kameras, insbesondere 2D- und/oder 3D-Kameras, eine oder mehrere LIDAR-Vorrichtungen („Light Detection And Ranging“), ein oder mehrere Sonarsensoren, ein oder mehrere Tiefenwahrnehmungssensoren („depth sensing devices“), ein oder mehrere Funksensoren, insbesondere Empfänger von, in einer Ausführung umgebungsseitigen und/oder benutzerschnittstellen- bzw. roboter(anordnungs)seitigen, Funkfeuern („radio beacon“), und/oder eine oder mehrere inertiale Messeinheiten („Inertial Measurement Units“, IMUs), in einer Ausführung räumliche Kombinationen mehrerer Inertialsensoren wie Beschleunigungssensoren und Drehratensensoren, verwendet. As a sensor for determining the pose of the user interface, robot arrangement, in particular the mobile and / or collaborative robot, or the surrounding object, one or more cameras, in particular 2D and / or 3D cameras, one or more LIDAR devices (“Light Detection And Ranging”), one or more sonar sensors, one or more depth sensing devices, one or more radio sensors, in particular receivers of, in one embodiment, environmental-side and / or user interface or robot (arrangement) side, radio beacon, and / or one or more inertial measurement units (“Inertial Measurement Units”, IMUs), in one embodiment spatial combinations of several inertial sensors such as acceleration sensors and rotation rate sensors , used.

Hierdurch kann in einer Ausführung die Selbstlokalisation der Benutzerschnittstelle verbessert, insbesondere eine Präzision erhöht werden.As a result, in one embodiment, the self-localization of the user interface can be improved, in particular a precision can be increased.

In einer Ausführung ist, insbesondere wird, die Pose der Benutzerschnittstelle und/oder die Pose der Roboteranordnung, insbesondere des mobilen und/oder kollaborativen Roboters, und/oder die Pose des bzw. eines oder mehrerer der Umgebungsobjekte, mit dem das bzw. mit denen jeweils eines der virtuelle(n) Objekt(e) verknüpft ist, in Echtzeit ermittelt, insbesondere aktualisiert.In one embodiment, the pose of the user interface and / or the pose of the robot arrangement, in particular of the mobile and / or collaborative robot, and / or the pose of the or one or more of the surrounding objects with which the or with which in each case one of the virtual object (s) is linked, determined in real time, in particular updated.

Hierdurch kann das Überlagern auf Basis der ermittelten Pose verbessert, insbesondere eine Präzision erhöht, und dadurch insbesondere das Durchführen und/oder die Analyse verbessert werden.As a result, the superimposition on the basis of the determined pose can be improved, in particular a precision can be increased, and as a result in particular the execution and / or the analysis can be improved.

In einer Ausführung ist, insbesondere wird, die (aktuelle) Pose der Benutzerschnittstelle und/oder die Pose der Roboteranordnung, insbesondere des mobilen und/oder kollaborativen Roboters, und/oder die Pose des bzw. eines oder mehrerer der Umgebungsobjekte, mit dem das bzw. mit denen jeweils eines der virtuelle(n) Objekt(e) verknüpft ist, auf Basis einer ermittelten Anfangspose der Benutzerschnittstelle, Roboteranordnung bzw. des mobilen und/oder kollaborativen Roboters, bzw. (jeweiligen) Umgebungsobjekts ermittelt.In one embodiment, the (current) pose of the user interface and / or the pose of the robot arrangement, in particular the mobile and / or collaborative robot, and / or the pose of the or one or more of the surrounding objects with which the or with each of which one of the virtual object (s) is linked, determined on the basis of a determined initial pose of the user interface, robot arrangement or the mobile and / or collaborative robot or (respective) surrounding object.

Diese Anfangspose ist, insbesondere wird, in einer Ausführung auf Basis eines Umgebungsmerkmals, das in einer Ausführung hierzu angeordnet und/oder codiert und/oder mittels Bildverarbeitung erfasst wird bzw. ist, und/oder mithilfe von (Koordinaten)Triangulation und/oder wenigstens einer, insbesondere mit der Benutzerschnittstelle und/oder Roboteranordnung kommunizierenden, externen Messvorrichtung ermittelt.In one embodiment, this initial pose is, in particular, is based on an environmental feature, which in one embodiment is or is arranged and / or coded and / or detected by means of image processing, and / or with the aid of (coordinate) triangulation and / or at least one , in particular determined with the user interface and / or robot arrangement communicating, external measuring device.

Beispielsweise kann die Anfangspose mithilfe eines QR-Codes oder eines anderen erkennbaren Merkmals der Umgebung erfasst werden, welches mittels wenigstens eines benutzerschnittstellen- bzw. roboter(anordnungs)seitigen Sensors erfasst wird, wobei aus der bekannten Pose des Umgebungsmerkmals relativ zur Umgebung und der sensorisch erfassten Pose des Umgebungsmerkmals relativ zur Benutzerschnittstelle bzw. Roboteranordnung die (Anfangs)Pose der Benutzerschnittstelle bzw. Roboteranordnung relativ zur Umgebung ermittelt werden kann.For example, the initial pose can be detected using a QR code or another recognizable feature of the environment, which is detected by means of at least one user interface or robot (arrangement) -side sensor, with the known pose of the environmental feature relative to the environment and the sensed sensor Pose of the environmental feature relative to the user interface or robot arrangement, the (initial) pose of the user interface or robot arrangement relative to the surroundings can be determined.

Hierdurch kann in einer Ausführung die Selbstlokalisation der Benutzerschnittstelle verbessert, insbesondere eine Präzision erhöht werden.As a result, in one embodiment, the self-localization of the user interface can be improved, in particular a precision can be increased.

In einer Ausführung sendet die Benutzerschnittstelle Anweisungen an die Roboteranordnung, insbesondere den mobilen und/oder kollaborativen Roboter und/oder eine, insbesondere roboterexterne und/oder zentrale, Roboteranordnungssteuerung, in einer Ausführung ein Flottenmanagement(system), das mehrere mobile Roboter der Roboteranordnung steuert bzw. hierzu eingerichtet ist bzw. verwendet wird, in einer Ausführung sendet die Benutzerschnittstelle Bewegungsanweisungen, Anweisungen zur Änderung einer Konfiguration der Roboteranordnung, insbesondere des mobilen und/oder kollaborativen Roboters, und/oder Anforderungen von bzw. Nachfragen nach Daten.In one embodiment, the user interface sends instructions to the robot arrangement, in particular the mobile and / or collaborative robot and / or a, in particular robot-external and / or central, robot arrangement controller, in one embodiment a fleet management system that controls or controls multiple mobile robots of the robot arrangement is set up or used for this purpose, in one embodiment the user interface sends movement instructions, instructions for changing a configuration of the robot arrangement, in particular of the mobile and / or collaborative robot, and / or requests for or requests for data.

Hierdurch kann in einer Ausführung benutzerschnittstellenexterne Sensor- und/oder Rechenkapazität genutzt und damit insbesondere eine Sensor- bzw. Rechenkapazität der Benutzerschnittstelle geschont bzw. reduziert werden und/oder die Benutzerschnittstelle als Sensor fungieren und/oder den bzw. einen oder mehrere der mobilen und/oder kollaborativen Roboter steuern.As a result, in one embodiment, sensor and / or computing capacity external to the user interface can be used and thus in particular a sensor or computing capacity of the user interface can be spared or reduced and / or the user interface can function as a sensor and / or one or more of the mobile and / or control collaborative robots.

In einer Ausführung empfängt die Benutzerschnittstelle Daten, in einer Ausführung Navigations-, insbesondere Karten- und/oder Pfaddaten, Sicherheitsdaten, Konfigurationsdaten und/oder Posendaten, der Roboteranordnung, insbesondere des mobilen und/oder kollaborativen Roboters. In einer Ausführung empfängt sie die Daten von der Roboteranordnung, insbesondere von dem mobilen und/oder kollaborativen Roboter und/oder einer bzw. der Roboteranordnungssteuerung, und/oder speichert solche, insbesondere empfangenen, Daten. In einer Ausführung ermittelt, in einer Ausführung aktualisiert, die Benutzerschnittstelle die Überlagerung auf Basis der gespeicherten bzw. empfangenen Daten.In one embodiment, the user interface receives data, in one embodiment navigation data, in particular map and / or path data, security data, configuration data and / or pose data, of the robot arrangement, in particular of the mobile and / or collaborative robot. In one embodiment, it receives the data from the robot arrangement, in particular from the mobile and / or collaborative robot and / or a robot arrangement controller, and / or stores such, in particular received, data. In one embodiment, and updated in one embodiment, the user interface determines the overlay on the basis of the stored or received data.

Hierdurch kann in einer Ausführung benutzerschnittstellenexterne Sensor- und/oder Rechenkapazität genutzt und damit insbesondere eine Sensor- bzw. Rechenkapazität der Benutzerschnittstelle geschont bzw. reduziert werden.As a result, in one embodiment, sensor and / or computing capacity external to the user interface can be used and thus in particular a sensor or computing capacity of the user interface can be spared or reduced.

In einer Ausführung ist wenigstens ein überlagertes virtuelles Objekt mit Kartendaten eines Navigationsmittels der Roboteranordnung, insbesondere des mobilen, in einer Ausführung kollaborativen, Roboters verknüpft, in einer Weiterbildung repräsentiert, insbesondere visualisiert, dieses virtuelle Objekt die Kartendaten, beispielsweise einer Occupancy Grid Map oder dergleichen.In one embodiment, at least one superimposed virtual object with map data of a navigation means of the robot arrangement, in particular the mobile, in one embodiment collaborative, Robot linked, represented in a development, in particular visualized, this virtual object the map data, for example an occupancy grid map or the like.

In einer Ausführung ist wenigstens ein überlagertes virtuelles Objekt mit einem Sensorbereich, insbesondere einer Sensorerfassungsrichtung, verknüpft, in einer Weiterbildung repräsentiert, insbesondere visualisiert, dieses virtuelle Objekt den Sensorbereich bzw. die Sensorerfassungsrichtung, beispielsweise einen oder mehrere Strahlen eines oder mehrerer Scanner, insbesondere Laserscanner, oder dergleichen.In one embodiment, at least one superimposed virtual object is linked to a sensor area, in particular a sensor detection direction, represented in a development, in particular visualized, this virtual object is the sensor area or the sensor detection direction, for example one or more beams from one or more scanners, in particular laser scanners, or similar.

In einer Ausführung ist wenigstens ein überlagertes virtuelles Objekt mit einem, in einer Ausführung geplanten und/oder abgefahrenen, Pfad oder zulässigen Pfadbereich der Roboteranordnung, insbesondere des mobilen und/oder kollaborativen Roboters, verknüpft, in einer Weiterbildung repräsentiert, insbesondere visualisiert, dieses virtuelle Objekt den Pfad(bereich), beispielsweise in Form eines topometrischen bzw. topologischen Graphen, Voronoi-Diagramms, Abstandskarten oder dergleichen.In one embodiment, at least one superimposed virtual object is linked to a path or permitted path area of the robot arrangement, in particular the mobile and / or collaborative robot, which is planned and / or followed in an embodiment, this virtual object is represented in a further development, in particular visualized the path (area), for example in the form of a topometric or topological graph, Voronoi diagram, distance maps or the like.

In einer Ausführung ist wenigstens ein überlagertes virtuelles Objekt mit einem, in einer Ausführung vorgegebenen und/oder zwei- oder dreidimensionalen ein- oder mehrteiligen, Sicherheitsbereich der Umgebung und/oder der Roboteranordnung, insbesondere des mobilen und/oder kollaborativen Roboters, verknüpft, in einer Weiterbildung repräsentiert, insbesondere visualisiert, dieses virtuelle Objekt diesen Sicherheitsbereich, beispielsweise in Form einer ein- oder mehrteiligen Bodenfläche oder einer ein- oder mehrteiligen Hüllkontur.In one embodiment, at least one superimposed virtual object is linked to a security area of the environment and / or the robot arrangement, in particular the mobile and / or collaborative robot, specified in one embodiment and / or two- or three-dimensional, one-part or multi-part, in a Further development represents, in particular visualized, this virtual object this security area, for example in the form of a one-part or multi-part floor area or a one-part or multi-part envelope contour.

In einer Ausführung wird ein mit dem roboterseitigen Sicherheitsbereich kollidierender Umgebungsbereich und/oder ein mit dem umgebungsseitigen Sicherheitsbereich kollidierender Roboterbereich erfasst und auf Basis der Erfassung ein Merkmal des mit diesem Sicherheitsbereich verknüpften virtuellen Objekts verändert, beispielsweise (anders) eingefärbt oder dergleichen, und/oder ein eigenes virtuelles Objekt mit diesem kollidierenden bzw. Schnittbereich verknüpft, das ihn in einer Weiterbildung repräsentiert, insbesondere visualisiert.In one embodiment, a surrounding area colliding with the robot-side safety area and / or a robot area colliding with the surrounding safety area is detected and, on the basis of the detection, a feature of the virtual object linked to this safety area is changed, for example (differently) colored or the like, and / or a own virtual object linked to this colliding or intersecting area, which represents it in a further development, in particular visualizes it.

Ein roboterseitiger Sicherheitsbereich ist, insbesondere wird, in einer Ausführung in Abhängigkeit von einer Abmessung, aktuellen oder Planungs-Pose und/oder aktuellen, geplanten oder extremalen Stellung der Roboteranordnung, insbesondere des mobilen und/oder kollaborativen Roboters, vorgegeben bzw. ermittelt, in einer Ausführung aktualisiert.A robot-side safety area is, in particular, is predefined or determined in one embodiment as a function of a dimension, current or planning pose and / or current, planned or extreme position of the robot arrangement, in particular of the mobile and / or collaborative robot Version updated.

In einer Ausführung ist wenigstens ein überlagertes virtuelles Objekt mit einem, in einer Ausführung vorgegebenen und/oder zwei- oder dreidimensionalen ein- oder mehrteiligen, Auswertungsbereich der Umgebung und/oder der Roboteranordnung, insbesondere des mobilen und/oder kollaborativen Roboters, verknüpft, in einer Weiterbildung repräsentiert, insbesondere visualisiert, dieses virtuelle Objekt diesen Auswertungsbereich, beispielsweise in Form einer ein- oder mehrteiligen Fläche, Hüllkontur oder dergleichen.In one embodiment, at least one superimposed virtual object is linked to an evaluation area of the environment and / or the robot arrangement, in particular the mobile and / or collaborative robot, specified in one embodiment and / or two- or three-dimensional, one-part or multi-part evaluation area, in one Further development represents, in particular visualized, this virtual object this evaluation area, for example in the form of a one-part or multi-part area, envelope contour or the like.

Ein solcher Auswertungsbereich ist, insbesondere wird, in einer Ausführung über die Benutzerschnittstelle vorgegeben und/oder entspricht einem ein- oder mehrteiligen Bereich der Umgebung, der zur (Selbst)Lokalisation ausgeschlossen oder primär, in einer Ausführung exklusiv, verwendet werden soll bzw. wird bzw. ist. Entsprechend wird insbesondere auch ein ein- oder mehrteiliger, über die Benutzerschnittstelle vorgegebener Umgebungsbereich, der nicht zur (Selbst)Lokalisation verwendet werden soll, als ein Auswertungsbereich bezeichnet.Such an evaluation area is, in particular, is specified in one version via the user interface and / or corresponds to a one-part or multi-part area of the environment that is or is or is primarily used for (self) localization, exclusively in one version . is. Correspondingly, in particular, a one-part or multi-part surrounding area specified via the user interface that is not intended to be used for (self) localization is also referred to as an evaluation area.

In einer Ausführung ist wenigstens ein überlagertes virtuelles Objekt mit einem, in einer Ausführung vorgegebenen und/oder zwei- oder dreidimensionalen ein- oder mehrteiligen, Erreichbarkeitsbereich der Umgebung und/oder der Roboteranordnung, insbesondere des mobilen und/oder kollaborativen Roboters, verknüpft, in einer Weiterbildung repräsentiert, insbesondere visualisiert, dieses virtuelle Objekt diesen Erreichbarkeitsbereich, beispielsweise in Form einer ein- oder mehrteiligen Fläche, Hüllkontur oder dergleichen.In one embodiment, at least one superimposed virtual object is linked in one embodiment to a predetermined and / or two- or three-dimensional one-part or multi-part reachability area of the environment and / or the robot arrangement, in particular the mobile and / or collaborative robot Further development represents, in particular visualized, this virtual object this accessibility area, for example in the form of a one-part or multi-part area, envelope contour or the like.

Ein solcher Erreichbarkeitsbereich ist, insbesondere wird, in einer Ausführung mittels wenigstens teilweise automatisierter Umgebungs-, insbesondere Hinderniserfassung ermittelt, in einer Ausführung aktualisiert, und/oder entspricht einem ein- oder mehrteiligen Bereich der Umgebung, der von der Roboteranordnung, insbesondere dem mobilen und/oder kollaborativen Roboter erreichbar ist.Such an accessibility area is, in particular, is determined in one embodiment by means of at least partially automated detection of the surroundings, in particular obstacles, is updated in one embodiment, and / or corresponds to a one-part or multi-part area of the environment that is controlled by the robot arrangement, in particular the mobile and / or collaborative robots.

In einer Ausführung ist wenigstens ein überlagertes virtuelles Objekt mit einem, in einer Ausführung vorgegebenen und/oder zwei- oder dreidimensionalen ein- oder mehrteiligen, Reservierungsbereich der Umgebung und/oder der Roboteranordnung, insbesondere des mobilen und/oder kollaborativen Roboters, verknüpft, in einer Weiterbildung repräsentiert, insbesondere visualisiert, dieses virtuelle Objekt diesen Reservierungsbereich, beispielsweise in Form einer ein- oder mehrteiligen Bodenfläche oder einer ein- oder mehrteiligen Hüllkontur.In one embodiment, at least one superimposed virtual object is linked in one embodiment with a reservation area of the environment and / or the robot arrangement, in particular the mobile and / or collaborative robot, predetermined and / or two- or three-dimensional, one-part or multi-part Further development represents, in particular visualized, this virtual object this reservation area, for example in the form of a one-part or multi-part floor area or a one-part or multi-part envelope contour.

Ein solcher Reservierungsbereich ist, insbesondere wird, in einer Ausführung in Abhängigkeit von einer Abmessung, aktuellen oder Planungs-Pose und/oder aktuellen, geplanten oder extremalen Stellung der Roboteranordnung, insbesondere des mobilen und/oder kollaborativen Roboters, vorgegeben bzw. ermittelt, in einer Ausführung aktualisiert, und/oder repräsentiert bzw. visualisiert einen ein- oder mehrteiligen Bereich, den die Roboteranordnung, insbesondere der mobile und/oder kollaborative Roboter, potentiell, insbesondere beim Abfahren einer geplanten Bahn und/oder Durchführen einer geplanten Aufgabe und/oder in einer extremalen Auslage, einnimmt.In one embodiment, such a reservation area is, in particular, depending on a dimension, current or planning pose and / or current, planned or extreme position of the robot arrangement, in particular the mobile and / or collaborative robot, specified or determined, updated in an embodiment, and / or represents or visualizes a one-part or multi-part area that the robot arrangement, in particular the mobile and / or collaborative robot, potentially, in particular when traveling through a planned path and / or performing a planned task and / or in an extreme display.

Ein roboterseitiger Sicherheits- bzw. Reservierungsbereich überragt in einer Ausführung eine Außenkontur des mobilen und/oder kollaborativen Roboters. Hierdurch kann in einer Ausführung dessen Ermittlung vereinfacht und/oder eine Sicherheit erhöht werden. Ein umgebungsseitiger Sicherheitsbereich ist in einer Ausführung ein Bereich, in den der Roboter nicht eindringen darf bzw. soll, ein roboterseitiger Sicherheitsbereich entsprechend in einer Ausführung ein Bereich, in den kein Hindernis eindringen darf bzw. soll. Ein (roboterseitiger) Reservierungsbereich ist in einer Ausführung ein Bereich, der für den Roboter reserviert ist bzw. werden soll und/oder in dem der Roboter sich aufhalten und/oder bewegen darf.In one embodiment, a robot-side security or reservation area projects beyond an outer contour of the mobile and / or collaborative robot. As a result, in one embodiment, its determination can be simplified and / or security can be increased. In one embodiment, a safety area on the surrounding area is an area into which the robot must not or should not penetrate; In one embodiment, a (robot-side) reservation area is an area that is or should be reserved for the robot and / or in which the robot is allowed to stay and / or move.

In einer Ausführung ist wenigstens ein überlagertes virtuelles Objekt mit einem Zielort bzw. einer Zielpose, insbesondere der Roboteranordnung, in einer Ausführung des mobilen und/oder kollaborativen Roboters, verknüpft, in einer Weiterbildung repräsentiert, insbesondere visualisiert, dieses virtuelle Objekt einen solchen Zielort bzw. eine solche Zielpose, beispielsweise eine (aktuell und/oder geplante) anzufahrende Be- und/oder Entladestation, Förder-, Be- bzw. Verarbeitungs-, Prüf- und/oder Betankungs- und/oder Elektro-(Auf)Ladestation oder dergleichen.In one embodiment, at least one superimposed virtual object is linked to a target location or a target pose, in particular the robot arrangement, in an embodiment of the mobile and / or collaborative robot, represented in a further development, in particular visualized, this virtual object is such a target location or such a target position, for example a (current and / or planned) loading and / or unloading station, conveying, loading or processing, testing and / or refueling and / or electrical (charging) charging station or the like.

In einer Ausführung ist wenigstens ein überlagertes virtuelles Objekt mit einem Warteort bzw. einer Wartepose, insbesondere der Roboteranordnung, in einer Ausführung des mobilen und/oder kollaborativen Roboters, verknüpft, in einer Weiterbildung repräsentiert, insbesondere visualisiert, dieses virtuelle Objekt einen solchen Warteort bzw. eine solche Wartepose, beispielsweise eine (aktuell und/oder geplante) anzufahrende Position, an der vorgesehen ist, dass der Roboter für eine bestimmte Zeit und/oder auf ein bestimmtes Ergebnis, beispielsweise eine Freigabe oder dergleichen, wartet.In one embodiment, at least one superimposed virtual object is linked to a waiting location or a waiting pose, in particular the robot arrangement, in an embodiment of the mobile and / or collaborative robot, and in a further development is represented, in particular visualized, this virtual object is such a waiting location or a waiting position. Such a waiting position, for example a (current and / or planned) position to be approached, at which it is provided that the robot waits for a certain time and / or for a certain result, for example a release or the like.

In einer Ausführung ist wenigstens ein überlagertes virtuelles Objekt mit einer, in einer Ausführung geplanten oder verbleibenden, Wartezeit, für einen bzw. den mobilen und/oder kollaborativen Roboter, in einer Ausführung an einem Warteort bzw. einer Wartepose des Roboters, verknüpft, in einer Weiterbildung repräsentiert, insbesondere visualisiert, dieses virtuelle Objekt diese Wartezeit.In one embodiment, at least one superimposed virtual object is linked to a waiting time, planned or remaining in an embodiment, for a mobile and / or collaborative robot, in an embodiment at a waiting location or a waiting position of the robot, in a Further development represents, in particular visualized, this virtual object this waiting time.

In einer Ausführung ist wenigstens ein überlagertes virtuelles Objekt mit einer, in einer Ausführung geplanten oder prognostizierten, Ankunftszeit, der Roboteranordnung, in einer Ausführung des mobilen und/oder kollaborativen Roboters, in einer Ausführung an einem Warte- oder Zielort bzw. einer Warte- oder Zielpose der Roboteranordnung bzw. des Roboters, verknüpft, in einer Weiterbildung repräsentiert, insbesondere visualisiert, dieses virtuelle Objekt diese Ankunftszeit.In one embodiment there is at least one superimposed virtual object with an arrival time planned or forecast in one embodiment, the robot arrangement, in one embodiment the mobile and / or collaborative robot, in one embodiment at a waiting or destination location or a waiting or Target pose of the robot arrangement or the robot, linked, represented in a further development, in particular visualized, this virtual object this arrival time.

In einer Ausführung ist wenigstens ein überlagertes virtuelles Objekt mit dem mobilen und/oder kollaborativen Roboter, in einer Ausführung mit einem Energie-, Navigations-, Fehler-, Kommunikations- und/oder Logistikzustand, des Roboters verknüpft, in einer Weiterbildung repräsentiert, insbesondere visualisiert, dieses virtuelle Objekt den Roboter bzw. Zustand, beispielsweise einen Ladezustand einer Batterie, eine Genauigkeit einer (Selbst)Lokalisierung, aktuelle Fehler am Roboter, eine Zuverlässigkeit einer Kommunikationsverbindung oder seine aktuelle Stelle in einer Flottenmanagementverwaltung.In one embodiment, at least one superimposed virtual object is linked to the mobile and / or collaborative robot, in one embodiment with an energy, navigation, error, communication and / or logistics status of the robot, represented in a development, in particular visualized , this virtual object the robot or state, for example a charge level of a battery, an accuracy of a (self) localization, current errors on the robot, a reliability of a communication link or its current position in a fleet management administration.

In einer Ausführung ist wenigstens ein überlagertes virtuelles Objekt mit einem, insbesondere stationären oder bewegten, Umgebungsobjekt oder -punkt, insbesondere einem Zustand und/oder einer potentiellen, insbesondere geplanten, Interaktion (des Umgebungsobjekts bzw. (an dem) Umgebungspunkt(s)) mit der Roboteranordnung, verknüpft, in einer Weiterbildung repräsentiert, insbesondere visualisiert, dieses virtuelle Objekt dieses Umgebungsobjekt bzw. diesen Umgebungspunkt, insbesondere dessen Zustand und/oder die potentielle, insbesondere geplante, Interaktion mit der Roboteranordnung, beispielsweise einen Füllgrad und/oder Ausrüstungs- und/oder Bereitschaftszustand einer Be- und/oder Entladestation, Förder-, Be- bzw. Verarbeitungs-, Prüf- und/oder Betankungs- und/oder Elektro-(Auf)Ladestation - oder Parkstation, eine Aufgabe, die der mobile und/oder kollaborativen Roboter an einer Station durchführen kann oder soll oder dergleichen.In one embodiment, at least one superimposed virtual object with an, in particular stationary or moving, surrounding object or point, in particular a state and / or a potential, in particular planned, interaction (of the surrounding object or (at the) surrounding point (s)) is included the robot arrangement, linked, represented in a further development, in particular visualized, this virtual object this environmental object or this environmental point, in particular its state and / or the potential, in particular planned, interaction with the robot arrangement, for example a degree of filling and / or equipment and / or readiness state of a loading and / or unloading station, conveying, loading or processing, testing and / or refueling and / or electric (charging) charging station - or parking station, a task that the mobile and / or collaborative Robots can or should perform at a station or the like.

In einer Ausführung ist wenigstens ein überlagertes virtuelles Objekt mit einer Navigationshilfe zu einer vorgegebenen Stelle verknüpft, in einer Weiterbildung repräsentiert, insbesondere visualisiert, dieses virtuelle Objekt diese Navigationshilfe. In einer Ausführung weist das virtuelle Objekt hierzu einen oder mehrere (Richtungs)Pfeile, Distanzangaben, Bahnen, insbesondere aktuell abgefahrene, bereits abgefahrene und/oder mögliche, insbesondere geplante Bahnen, und/oder Ortsidentifikationen auf.In one embodiment, at least one superimposed virtual object is linked with a navigation aid to a predetermined point, in a further development this virtual object is represented, in particular visualized, this navigation aid. In one embodiment, the virtual object has one or more (directional) arrows, distance information, paths, in particular currently traveled, already traveled and / or possible, in particular planned paths, and / or location identifications.

In einer Ausführung sind bzw. werden ein oder mehrere der hier bzw. vor- und nachstehend genannten virtuellen Objekte (jeweils) mit einem, insbesondere stationären oder bewegten, Umgebungsobjekt oder -punkt, verknüpft, insbesondere derart, dass ihre Pose, insbesondere Position, relativ zu einer Ansicht dieses Umgebungsobjekts bzw. -punkts in der Ansicht der Umgebung konstant bleibt. In einer Ausführung bleibt zusätzlich ihre Orientierung relativ zur Blickrichtung der Ansicht konstant, insbesondere kann ein virtuelles Objekt in Form einer ebenen Fläche stets so orientiert sein, dass die Blickrichtung der Ansicht parallel zur Flächennormale dieser Fläche ist.In one embodiment, one or more of the virtual objects mentioned here or above and below are (in each case) with a, in particular stationary or moving, surrounding object or point, in particular in such a way that their pose, in particular position, remains constant relative to a view of this surrounding object or point in the view of the surroundings. In one embodiment, its orientation also remains constant relative to the viewing direction of the view; in particular, a virtual object in the form of a flat surface can always be oriented such that the viewing direction of the view is parallel to the surface normal of this surface.

Hierdurch kann in einer Ausführung die Ergonomie, Zuverlässigkeit, Schnelligkeit und/oder Präzision des Konfigurierens, Durchführens bzw. Analysierens der Applikation verbessert werden.As a result, the ergonomics, reliability, speed and / or precision of the configuration, implementation or analysis of the application can be improved in one embodiment.

In einer Ausführung bleibt eine Position wenigstens eines überlagerten virtuellen Objekts relativ zu einer Außenkontur der Ansicht der Umwelt bei einer Bewegung der Benutzerschnittstelle (relativ zur Umgebung) und/oder Änderung der Perspektive der Ansicht der Umgebung konstant, insbesondere an einer vorgegebenen, in einer Ausführung durch Benutzereingabe wähl-, insbesondere veränderbaren, Position, beispielsweise an einem Bildrand oder dergleichen.In one embodiment, a position of at least one superimposed virtual object relative to an outer contour of the view of the environment remains constant when the user interface is moved (relative to the environment) and / or the perspective of the view of the environment changes, in particular on a predetermined one in an embodiment User input selectable, in particular changeable, position, for example at an image edge or the like.

Zusätzlich oder alternativ bleibt in einer Ausführung eine Orientierung wenigstens eines überlagerten virtuellen Objekts relativ zu einer Außenkontur der Ansicht der Umwelt bei einer Bewegung der Benutzerschnittstelle (relativ zur Umgebung) und/oder Änderung der Perspektive der Ansicht der Umgebung konstant, insbesondere in einer vorgegebenen, in einer Ausführung durch Benutzereingabe wähl-, insbesondere veränderbaren, Orientierung, beispielsweise parallel zu einer Bildebene oder dergleichen.Additionally or alternatively, in one embodiment an orientation of at least one superimposed virtual object relative to an outer contour of the view of the environment remains constant when the user interface is moved (relative to the environment) and / or the perspective of the view of the environment changes, in particular in a predetermined, in an execution by user input selectable, in particular changeable, orientation, for example parallel to an image plane or the like.

In einer Ausführung bleibt eine Position und/oder Orientierung wenigstens eines überlagerten virtuellen Objekts relativ zu einer Ansicht, insbesondere einem Bild, eines mit diesem virtuellen Objekt verknüpften Umgebungsobjekts oder Umgebungspunkts oder Pfadpunkts oder Pfadabschnitts der Roboteranordnung in der Überlagerung, in einer Ausführung in der Ansicht der Umgebung, insbesondere in der Darstellung der Umgebung bzw. dem Sichtfeld des Benutzers, bei einer Bewegung der Benutzerschnittstelle und/oder Änderung der Perspektive der Ansicht der Umgebung konstant. In einer Ausführung wird dabei eine Änderung der Perspektive der Ansicht der Umgebung, insbesondere infolge einer Bewegung der Benutzerschnittstelle, kompensiert bzw. die Position und/oder Orientierung des virtuellen Objekts relativ zu einer Außenkontur der Ansicht der Umgebung entsprechend angepasst.In one embodiment, a position and / or orientation of at least one superimposed virtual object relative to a view, in particular an image, of a surrounding object or surrounding point or path point or path section of the robot arrangement linked to this virtual object remains in the overlay, in one embodiment in the view of the Environment, in particular in the representation of the environment or the user's field of vision, constant when the user interface moves and / or the perspective of the view of the environment changes. In one embodiment, a change in the perspective of the view of the surroundings, in particular as a result of a movement of the user interface, is compensated for or the position and / or orientation of the virtual object is correspondingly adjusted relative to an outer contour of the view of the surroundings.

In einer Ausführung ist, insbesondere wird, eine Position des bzw. eines oder mehrerer der virtuellen Objekte in der Überlagerung, in einer Ausführung in der Ansicht der Umgebung, insbesondere in der Darstellung der Umgebung bzw. dem Sichtfeld des Benutzers, auf Basis der Position eines mit dem (jeweiligen) virtuellen Objekt verknüpften

  • - Umgebungsobjekts,
  • - Umgebungspunktes oder
  • - Punktes oder Abschnitts eines, insbesondere geplanten oder abgefahrenen, Pfades der Roboteranordnung, insbesondere des mobilen und/oder kollaborativen Roboters,
relativ zur Umgebung ermittelt, insbesondere aktualisiert, in einer Ausführung in Echtzeit und/oder derart ermittelt bzw. aktualisiert, dass
  • - sich die Position des (jeweiligen) virtuellen Objekts in der Überlagerung bzw. Ansicht der Umgebung mit bzw. bei einer Änderung der Position des damit verknüpften Umgebungsobjekts bzw. Pfadpunktes bzw. -abschnitts relativ zu der Umgebung (entsprechend) (mit)ändert bzw.
  • - die Position des (jeweiligen) virtuellen Objekts relativ zu der Ansicht des Umgebungspunkts in der Überlagerung bzw. Ansicht der Umgebung konstant bleibt bzw.
  • - die Position des (jeweiligen) virtuellen Objekts relativ zu der Ansicht des Pfadpunkts bzw. -abschnitts in der Überlagerung bzw. Ansicht der Umgebung konstant bleibt.
In one embodiment is, in particular, a position of the or one or more of the virtual objects in the overlay, in one embodiment in the view of the surroundings, in particular in the representation of the surroundings or the field of view of the user, based on the position of a linked to the (respective) virtual object
  • - surrounding object,
  • - Surrounding point or
  • - Point or section of a, in particular planned or traveled, path of the robot arrangement, in particular of the mobile and / or collaborative robot,
determined relative to the environment, in particular updated, determined or updated in an execution in real time and / or in such a way that
  • - the position of the (respective) virtual object in the overlay or view of the environment changes with or when the position of the associated environment object or path point or section relative to the environment (correspondingly) changes or
  • - the position of the (respective) virtual object relative to the view of the environment point in the overlay or view of the environment remains constant or
  • - the position of the (respective) virtual object relative to the view of the path point or section in the superimposition or view of the surroundings remains constant.

In einer Ausführung bleibt zusätzlich eine Orientierung dieses virtuellen Objekts relativ zu einer Außenkontur der Ansicht der Umwelt bei einer Bewegung der Benutzerschnittstelle (relativ zur Umgebung) und/oder Änderung der Perspektive der Ansicht der Umgebung konstant.In one embodiment, an orientation of this virtual object relative to an outer contour of the view of the environment remains constant when the user interface is moved (relative to the environment) and / or the perspective of the view of the environment changes.

Hierdurch kann in einer Ausführung die Ergonomie verbessert werden.As a result, the ergonomics can be improved in one embodiment.

In einer Ausführung erfasst die Benutzerschnittstelle eine Benutzereingabe mithilfe von Blickerfassung, Gestenerkennung, Spracherkennung, Erkennung von virtuellem Kontakt, insbesondere virtuellem Kontakt, in einer Ausführung Handkontakt, eines Benutzers mit einem virtuellen Objekt.In one embodiment, the user interface records a user input with the aid of eye recording, gesture recognition, speech recognition, recognition of virtual contact, in particular virtual contact, in one embodiment hand contact, of a user with a virtual object.

Hierdurch kann in einer Ausführung die Ergonomie, Zuverlässigkeit, Schnelligkeit und/oder Präzision des Konfigurierens, Durchführens bzw. Analysierens der Applikation verbessert werden.As a result, the ergonomics, reliability, speed and / or precision of the configuration, implementation or analysis of the application can be improved in one embodiment.

In einer Ausführung wird wenigstens ein überlagertes virtuelles Objekt und/oder wenigstens ein Merkmal wenigstens eines überlagerten virtuellen Objekts auf Basis einer Benutzereingabe eingeblendet und/oder ausgeblendet und/oder verändert, in einer Ausführung eine Pose, insbesondere Position und/oder Orientierung, des virtuellen Objekts bzw. Merkmals relativ zu einer Außenkontur der Ansicht der Umwelt und/oder wenigstens ein Parameter des virtuellen Objekts bzw. Merkmals.In one embodiment, at least one superimposed virtual object and / or at least one feature of at least one superimposed virtual object is faded in and / or faded out and / or changed on the basis of a user input, in one embodiment a pose, in particular a position and / or orientation of the virtual object or feature relative to an outer contour of the view of the environment and / or at least one parameter of the virtual object or feature.

Insbesondere werden in einer Ausführung durch entsprechende Benutzereingaben zusätzliche Merkmale, in einer Ausführung (Unter)Menüs, ein- und/oder ausgeblendet.In particular, in an embodiment, additional features are shown and / or hidden in an embodiment by means of corresponding user inputs, in (sub) menus.

In einer Ausführung sind, insbesondere werden, durch eine Benutzereingabe über die Benutzerschnittstelle Navigationsdaten, insbesondere Karten, Graphen oder dergleichen, und/oder das bzw. eines oder mehrere der virtuellen Objekte, insbesondere dessen Pose in der Überlagerung, veränder-, insbesondere editierbar bzw. verändert, insbesondere editiert. In einer Ausführung sind, insbesondere werden, durch eine Benutzereingabe über die Benutzerschnittstelle ein oder mehr geplante Aufgaben und/oder Punkte, insbesondere Abschnitte, einer geplanten Bahn der Roboteranordnung, insbesondere des mobilen und/oder kollaborativen Roboters, generier- und/oder veränder-, insbesondere editierbar bzw. generiert und/oder verändert, insbesondere editiert.In one embodiment, navigation data, in particular maps, graphs or the like, and / or the or one or more of the virtual objects, in particular their pose in the overlay, can be changed, in particular edited or changed by a user input via the user interface. changed, especially edited. In one embodiment, one or more planned tasks and / or points, in particular sections, of a planned path of the robot arrangement, in particular of the mobile and / or collaborative robot, are generated and / or changed by a user input via the user interface. in particular editable or generated and / or changed, in particular edited.

Beispielsweise kann ein Benutzer durch entsprechende Benutzereingabe ein Hindernis, welches nicht (mehr) vorhanden ist, aus einer (Navigations)Karte entfernen, einen potentiellen, insbesondere möglichen oder geplanten, Pfad für den mobilen und/oder kollaborativen Roboter umändern oder hinzufügen, oder ein virtuelles Objekt in der Überlagerung verschieben und/oder mit einem (anderen) Umgebungsobjekt verknüpfen und/oder (um)parametrieren.For example, a user can remove an obstacle that no longer exists from a (navigation) map by means of appropriate user input, change or add a potential, in particular possible or planned, path for the mobile and / or collaborative robot, or a virtual one Move the object in the overlay and / or link it to a (different) surrounding object and / or (re) parameterize it.

Wie bereits erwähnt, ist in einer Ausführung die Roboteranordnung, insbesondere der mobile und/oder kollaborativen Roboter, durch eine Benutzereingabe über die Benutzerschnittstelle steuer- und/oder (um)konfigurierbar.As already mentioned, in one embodiment the robot arrangement, in particular the mobile and / or collaborative robot, can be controlled and / or (re) configured by a user input via the user interface.

Nach einer Ausführung der vorliegenden Erfindung ist ein System zum Konfigurieren, Durchführen und/oder Analysieren einer Applikation einer Roboteranordnung mit wenigstens einem mobilen und/oder kollaborativen Roboter mithilfe einer Benutzerschnittstelle zum Ein- und/oder Ausgeben von Daten, insbesondere hard- und/oder software-, insbesondere programmtechnisch, zur Durchführung eines hier beschriebenen Verfahrens eingerichtet ist und/oder weist auf:

  • Mittel zum Überlagern einer Ansicht, insbesondere Darstellung, einer Umgebung mit wenigstens einem virtuellen Objekt, wobei die Benutzerschnittstelle dazu eingerichtet ist, diese Überlagerung zum Konfigurieren, Durchführen und/oder Analysieren der Applikation, in einer Ausführung an der Benutzerschnittstelle, zur Verfügung zu stellen, in einer Ausführung die Ansicht der Umgebung und das virtuelle Objekt zu überlagern und/oder die Applikation auf Basis dieser Überlagerung zu konfigurieren, durchzuführen und/oder zu analysieren.
According to one embodiment of the present invention, a system for configuring, performing and / or analyzing an application of a robot arrangement with at least one mobile and / or collaborative robot using a user interface for inputting and / or outputting data, in particular hardware and / or software - is set up, in particular in terms of programming, to carry out a method described here and / or has:
  • Means for overlaying a view, in particular a representation, of an environment with at least one virtual object, the user interface being set up to provide this overlay for configuring, executing and / or analyzing the application, in one embodiment at the user interface, in one execution to superimpose the view of the environment and the virtual object and / or to configure, carry out and / or analyze the application on the basis of this superimposition.

In einer Ausführung weist das System bzw. sein(e) Mittel auf:

  • Mittel zum Überlagern der Ansicht der Umgebung und des virtuellen Objekts auf Basis einer ermittelten, insbesondere aktuellen, Perspektive der Ansicht; auf Basis einer ermittelten, insbesondere aktuellen, Pose der Benutzerschnittstelle, der Roboteranordnung, insbesondere des mobilen und/oder kollaborativen Roboters, und/oder wenigstens eines, insbesondere statischen oder bewegten, Umgebungsobjekts, insbesondere eines mit dem virtuellen Objekt verknüpften Umgebungsobjekts, relativ zu der Umgebung; auf Basis einer ermittelten, insbesondere aktuellen, Blickrichtung eines Trägers der Benutzerschnittstelle und/oder auf Basis eines, insbesondere dreidimensionalen, Modells der Umgebung; und/oder
  • Mittel zum Erfassen der Umgebung und/oder Blickrichtung, insbesondere mithilfe wenigstens eines, insbesondere benutzerschnittstellenseitigen, Sensors; und/oder
  • Mittel zum Senden von Daten an die Roboteranordnung, Umgebung, ein lokales Netzwerk und/oder eine Computercloud (S30) und/oder Erhalten von Daten der Roboteranordnung, Umgebung, dem lokalen Netzwerk und/oder der Computercloud und/oder zum Aktualisieren der Überlagerung, insbesondere der Ansicht der Umgebung und/oder des virtuellen Objekts, in Echtzeit; und/oder
  • Mittel zum Ermitteln der Pose der Benutzerschnittstelle, der Roboteranordnung, insbesondere des mobilen und/oder kollaborativen Roboters, und/oder des Umgebungsobjekts mittels Selbstlokalisation und/oder mithilfe einer Umgebungskarte, insbesondere mittels SLAM, und/oder mithilfe wenigstens eines benutzerschnittstellen-, roboteranordnungs- oder umgebungsseitigen Sensors, insbesondere wenigstens einer inertialen Messeinheit, wenigstens einer Kamera, wenigstens einer LIDAR-Vorrichtung, wenigstens eines Sonarsensors, wenigstens eines Tiefenwahrnehmungssensors und/oder wenigstens eines Funksensors, und/oder in Echtzeit und/oder auf Basis einer ermittelten Anfangspose; und/oder
  • Mittel zum Ermitteln der Anfangspose auf Basis eines, insbesondere mittels Bildverarbeitung, erfassten, insbesondere codierten und/oder hierzu angeordneten, Umgebungsmerkmals und/oder mithilfe von Triangulation und/oder wenigstens einer, insbesondere mit der Benutzerschnittstelle und/oder Roboteranordnung kommunizierenden, externen Messvorrichtung; und/oder
  • Mittel zum Senden von Anweisungen von der Benutzerschnittstelle an die Roboteranordnung, insbesondere den mobilen und/oder kollaborativen Roboter und/oder eine Roboteranordnungssteuerung, und/oder Speichern und/oder Empfangen von Daten, insbesondere Navigations-, Sicherheits-, Konfigurations- und/oder Posendaten, der Roboteranordnung, insbesondere von dem mobilen und/oder kollaborativen Roboter und/oder einer Roboteranordnungssteuerung, und Ermitteln, insbesondere Aktualisieren der Überlagerung auf Basis der gespeicherten bzw. empfangenen Daten; und/oder Mittel zum Verknüpfen wenigstens eines überlagerten virtuellen Objekts mit Kartendaten eines Navigationsmittels der Roboteranordnung, insbesondere des mobilen und/oder kollaborativen Roboters, mit einem Sensorbereich, insbesondere einer Sensorerfassungsrichtung, mit einem, insbesondere geplanten und/oder abgefahrenen, Pfad oder zulässigen Pfadbereich der Roboteranordnung, insbesondere des mobilen und/oder kollaborativen Roboters, mit einem, insbesondere vorgegebenen und/oder zwei- oder dreidimensionalen, Sicherheits-, Auswertungs-, Erreichbarkeits- und/oder Reservierungsbereich der Umgebung und/oder der Roboteranordnung, insbesondere des mobilen und/oder kollaborativen Roboters, mit einem Warte- oder Zielort, mit einer Warte- oder Zielpose, mit einer Warte- oder Ankunftszeit, mit dem mobilen und/oder kollaborativen Roboter, insbesondere einem Energie-, Navigations-, Fehler-, Kommunikations- und/oder Logistikzustand, mit einem Umgebungsobjekt oder -punkt, insbesondere einem Zustand und/oder einer potentiellen, insbesondere geplanten, Interaktion mit der Roboteranordnung, und/oder mit einer Navigationshilfe zu einer vorgegebenen Stelle; und/oder
  • Mittel zum Erfassen einer Benutzereingabe mit der Benutzerschnittstelle mithilfe von Blickerfassung, Gestenerkennung, Spracherkennung, Erkennung von virtuellem Kontakt; und/oder
  • Mittel zum Verändern von Navigationsdaten und/oder dem virtuellen Objekt, insbesondere dessen Pose in der Überlagerung, durch eine Benutzereingabe über die Benutzerschnittstelle; und/oder
  • Mittel zum Ein- und/oder Ausblenden und/oder Verändern wenigstens eines überlagerten virtuellen Objekts und/oder wenigstens eines Merkmals wenigstens eines überlagerten virtuellen Objekts auf Basis einer Benutzereingabe, insbesondere seiner Pose relativ zu einer Außenkontur der Ansicht der Umwelt und/oder wenigstens eines Parameters des virtuellen Objekts bzw. Merkmals.
In one embodiment, the system or its means has:
  • Means for superimposing the view of the surroundings and the virtual object on the basis of a determined, in particular current, perspective of the view; based on a determined, in particular current, pose of the user interface, the robot arrangement, in particular the mobile and / or collaborative robot, and / or at least one, in particular static or moving, environmental object, in particular an environmental object linked to the virtual object, relative to the environment ; on the basis of a determined, in particular current, viewing direction of a wearer of the user interface and / or on the basis of a, in particular three-dimensional, model of the environment; and or
  • Means for detecting the surroundings and / or viewing direction, in particular with the aid of at least one sensor, in particular on the user interface side; and or
  • Means for sending data to the robot arrangement, environment, a local network and / or a computer cloud (S30) and / or receiving data from the robot arrangement, environment, the local network and / or the computer cloud and / or for updating the overlay, in particular the view of the environment and / or the virtual object, in real time; and or
  • Means for determining the pose of the user interface, the robot arrangement, in particular the mobile and / or collaborative robot, and / or the surrounding object by means of self-localization and / or with the aid of an environment map, in particular by means of SLAM, and / or with the aid of at least one user interface, robot arrangement or environmental sensor, in particular at least one inertial measuring unit, at least one camera, at least one LIDAR device, at least one sonar sensor, at least one depth perception sensor and / or at least one radio sensor, and / or in real time and / or on the basis of a determined initial pose; and or
  • Means for determining the initial pose on the basis of an environmental feature that is detected, in particular encoded and / or arranged for this purpose, in particular by means of image processing, and / or with the aid of triangulation and / or at least an external measuring device communicating in particular with the user interface and / or robot arrangement; and or
  • Means for sending instructions from the user interface to the robot arrangement, in particular the mobile and / or collaborative robot and / or a robot arrangement controller, and / or storing and / or receiving data, in particular navigation, safety, configuration and / or pose data , the robot arrangement, in particular from the mobile and / or collaborative robot and / or a robot arrangement controller, and determining, in particular updating, the overlay on the basis of the stored or received data; and / or means for linking at least one superimposed virtual object with map data of a navigation means of the robot arrangement, in particular of the mobile and / or collaborative robot, with a sensor area, in particular a sensor detection direction, with a, in particular planned and / or traveled, path or permissible path area of the Robot arrangement, in particular the mobile and / or collaborative robot, with a, in particular predetermined and / or two- or three-dimensional, security, evaluation, accessibility and / or reservation area of the environment and / or the robot arrangement, in particular the mobile and / or collaborative robot, with a waiting or destination, with a waiting or target pose, with a waiting or arrival time, with the mobile and / or collaborative robot, in particular an energy, navigation, error, communication and / or logistics status , with a surrounding object or point, in particular an add situation and / or a potential, in particular planned, interaction with the robot arrangement and / or with a navigation aid to a predetermined point; and or
  • Means for capturing user input with the user interface using eye tracking, gesture recognition, speech recognition, virtual contact recognition; and or
  • Means for changing navigation data and / or the virtual object, in particular its pose in the overlay, by a user input via the user interface; and or
  • Means for showing and / or hiding and / or changing at least one superimposed virtual object and / or at least one feature of at least one superimposed virtual object based on a user input, in particular its pose relative to an outer contour of the view of the environment and / or at least one parameter of the virtual object or feature.

Ein Mittel im Sinne der vorliegenden Erfindung kann hard- und/oder softwaretechnisch ausgebildet sein, insbesondere eine, vorzugsweise mit einem Speicher- und/oder Bussystem daten- bzw. signalverbundene, insbesondere digitale, Verarbeitungs-, insbesondere Mikroprozessoreinheit (CPU), Graphikkarte (GPU) oder dergleichen, und/oder ein oder mehrere Programme oder Programmmodule aufweisen. Die Verarbeitungseinheit kann dazu ausgebildet sein, Befehle, die als ein in einem Speichersystem abgelegtes Programm implementiert sind, abzuarbeiten, Eingangssignale von einem Datenbus zu erfassen und/oder Ausgangssignale an einen Datenbus abzugeben. Ein Speichersystem kann ein oder mehrere, insbesondere verschiedene, Speichermedien, insbesondere optische, magnetische, Festkörper- und/oder andere nicht-flüchtige Medien aufweisen. Das Programm kann derart beschaffen sein, dass es die hier beschriebenen Verfahren verkörpert bzw. auszuführen imstande ist, sodass die Verarbeitungseinheit die Schritte solcher Verfahren ausführen kann und damit insbesondere die Applikation der Roboteranordnung konfigurieren, durchführen und/oder analysieren kann. Ein Computerprogrammprodukt kann in einer Ausführung ein, insbesondere nichtflüchtiges, Speichermedium zum Speichern eines Programms bzw. mit einem darauf gespeicherten Programm aufweisen, insbesondere sein, wobei ein Ausführen dieses Programms ein System bzw. eine Steuerung, insbesondere einen Computer, dazu veranlasst, ein hier beschriebenes Verfahren bzw. einen oder mehrere seiner Schritte auszuführen.A means within the meaning of the present invention can be designed in terms of hardware and / or software, in particular a data or signal-connected, in particular digital, processing, in particular microprocessor unit (CPU), graphics card (GPU), preferably with a memory and / or bus system ) or the like, and / or one or more programs or program modules. The processing unit can be designed to process commands that are implemented as a program stored in a memory system, to acquire input signals from a data bus and / or to output output signals to a data bus. A storage system can have one or more, in particular different, storage media, in particular optical, magnetic, solid-state and / or other non-volatile media. The program can be designed in such a way that it embodies or is able to execute the methods described here, so that the processing unit can execute the steps of such methods and thus in particular configure, execute and / or analyze the application of the robot arrangement. In one embodiment, a computer program product can have, in particular, a non-volatile storage medium for storing a program or with a program stored on it To carry out a process or one or more of its steps.

In einer Ausführung werden ein oder mehrere, insbesondere alle, Schritte des Verfahrens vollständig oder teilweise automatisiert durchgeführt, insbesondere durch das System bzw. sein(e) Mittel.In one embodiment, one or more, in particular all, steps of the method are carried out completely or partially in an automated manner, in particular by the system or its means.

In einer Ausführung weist das System die Roboteranordnung auf. Sofern vorliegend von einem bzw. dem mobilen und/oder kollaborativen Roboter die Rede ist, ist dabei insbesondere ein mobiler, gegegebenfalls kollaborativer, Roboter oder ein kollaborativer, gegebenenfalls stationärer, Roboter oder ein mobiler, gegegebenfalls kollaborativer, Roboter und zusätzlich ein kollaborativer, gegebenenfalls stationärer, Roboter gemeint bzw. umfasst der Ausdruck „mobiler und/oder kollaborativer Roboter“ „mobiler Roboter“, „kollaborativer Roboter“ und „(wenigstens) ein mobiler und (wenigstens) ein (zusätzlicher) kollaborativer Roboter“.In one embodiment, the system has the robot arrangement. If we are talking about a mobile and / or collaborative robot, in particular a mobile, possibly collaborative, robot or a collaborative, possibly stationary, robot or a mobile, possibly collaborative, robot and additionally a collaborative, possibly stationary one , Robot means or includes the expression “mobile and / or collaborative robot” “mobile robot”, “collaborative robot” and “(at least) one mobile and (at least) one (additional) collaborative robot”.

Eine Umgebung im Sinne der vorliegenden Erfindung ist in einer Ausführung eine reale bzw. physikalische Umgebung, ein Umgebungsobjekt entsprechend ein reales bzw. physikalisches, insbesondere roboteranordnungsexternes, materielles ein- oder mehrteiliges Objekt (dieser Umgebung), insbesondere also kein mobiler und/oder kollaborativer Roboter.In one embodiment, an environment within the meaning of the present invention is a real one or physical environment, an environmental object corresponding to a real or physical, in particular a material one-part or multi-part object (this environment), in particular external to the robot arrangement, so in particular not a mobile and / or collaborative robot.

Ein Pfad bzw. eine Bahn im Sinne der vorliegenden Erfindung kann insbesondere eine Route, insbesondere Fahr(t)route, und/oder eine Trajektorie umfassen, insbesondere sein.A path or a path in the sense of the present invention can in particular comprise, in particular be, a route, in particular a driving (t) route, and / or a trajectory.

Ein Benutzer der Benutzerschnittstelle ist in einer Ausführung ein menschlicher Benutzer bzw. eine natürliche Person.In one embodiment, a user of the user interface is a human user or a natural person.

„Geplant“ kann insbesondere „erst geplant“ bzw. „nur geplant“ bedeuten. Beispielsweise kann „geplanter Pfad“ insbesondere „geplanter, noch nicht abgefahrener Pfad“ und „geplante Pose“ „geplante, nicht aktuelle Pose“ bedeuten.“Planned” can mean “first planned” or “only planned”. For example, “planned path” can mean in particular “planned, not yet traveled path” and “planned pose” can mean “planned, not current pose”.

In einer Ausführung ermittelt die Benutzerschnittstelle die Überlagerung, insbesondere rechnerisch. Zusätzlich oder alternativ visualisiert die Benutzerschnittstelle in einer Ausführung die Überlagerung, insbesondere auf wenigstens einem Bildschirm und/oder durch Projektion. Dabei kann die Überlagerung auch ganz oder teilweise benutzerschnittstellenextern ermittelt und durch die Benutzerschnittstelle (nur) visualisiert werden. Beides, d. h. sowohl die Ermittlung als auch die Visualisierung, wird vorliegend als Überlagern der Ansicht der Umgebung und des virtuellen Objekts durch die, insbesondere an der, Benutzerschnittstelle bezeichnet.In one embodiment, the user interface determines the superimposition, in particular arithmetically. Additionally or alternatively, the user interface visualizes the superimposition in one embodiment, in particular on at least one screen and / or by projection. The overlay can also be determined wholly or partially external to the user interface and (only) visualized by the user interface. Both d. H. Both the determination and the visualization are referred to here as superimposing the view of the environment and the virtual object by the, in particular at the, user interface.

Weitere Vorteile und Merkmale ergeben sich aus den Unteransprüchen und den Ausführungsbeispielen. Hierzu zeigt, teilweise schematisiert:

  • 1: ein System nach einer Ausführung der vorliegenden Erfindung;
  • 2: ein Verfahren nach einer Ausführung der vorliegenden Erfindung;
  • 3: ein Überlagern einer Ansicht einer Umgebung mit mehreren virtuellen Objekten nach einer Ausführung der vorliegenden Erfindung;
  • 4: eine Benutzereingabe über eine Benutzerschnittstelle nach einer Ausführung der vorliegenden Erfindung;
  • 5: ein Überlagern einer Ansicht einer Umgebung mit virtuellen Objekten nach einer Ausführung der vorliegenden Erfindung; und
  • 6: ein Überlagern einer Ansicht einer Umgebung mit virtuellen Objekten nach einer Ausführung der vorliegenden Erfindung.
Further advantages and features emerge from the subclaims and the exemplary embodiments. For this shows, partly schematically:
  • 1 : a system according to an embodiment of the present invention;
  • 2 : a method according to an embodiment of the present invention;
  • 3 : Overlaying a view of an environment with a plurality of virtual objects according to an embodiment of the present invention;
  • 4th : a user input via a user interface according to an embodiment of the present invention;
  • 5 : an overlay of a view of an environment with virtual objects according to an embodiment of the present invention; and
  • 6th Figure 12 is an overlay of a view of a virtual object environment according to an embodiment of the present invention.

1, 2 zeigen ein System bzw. Verfahren zum Konfigurieren, Durchführen und/oder Analysieren einer Applikation einer Roboteranordnung mit wenigstens einem mobilen und/oder kollaborativen Roboter 1 mithilfe einer Benutzerschnittstelle 2, 2' zum Ein- und Ausgeben von Daten nach einer Ausführung der vorliegenden Erfindung. 1 , 2 show a system or method for configuring, performing and / or analyzing an application of a robot arrangement with at least one mobile and / or collaborative robot 1 using a user interface 2 , 2 ' for inputting and outputting data according to an embodiment of the present invention.

Der Roboter kann einen gestrichelt angedeuteten Roboterarm aufweisen.The robot can have a robot arm indicated by dashed lines.

Ein Benutzer 3 trägt die Benutzerschnittstelle, in einer Ausführung eine MR-Maske bzw. -Brille 2, in einer anderen Ausführung ein entsprechend ausgerüstetes und eingerichtetes Mobilfunkgerät oder Tablet 2'. Beide Ausführungen sind zur kompakteren Darstellung gemeinsam gezeigt und können einzeln oder gemeinsam vorgesehen sein bzw. verwendet werden. Der Benutzer kann auch eine MR-Linse oder dergleichen verwenden.One user 3 the user interface, in one embodiment an MR mask or glasses 2, in another embodiment a correspondingly equipped and set up mobile radio device or tablet 2 ' . Both versions are shown together for a more compact representation and can be provided or used individually or together. The user can also use an MR lens or the like.

Die Benutzerschnittstelle 2 bzw. 2' weist einen oder mehrere Sensoren S zur Umwelterfassung, insbesondere Selbstlokalisation, auf und ist zur Eingabe von Benutzereingaben, beispielsweise mittels Blickerfassung, Gestenerkennung, Spracherkennung, Erkennung von virtuellem Kontakt, Touchscreen, Trackpad, Tastatur, Joystick, Computermaus oder dergleichen, sowie zum Senden und Empfangen von Daten an bzw. von dem mobilen und/oder kollaborativen Roboter 1 und/oder eine(r) roboterexternen Roboteranordnungssteuerung 1.1 ausgerüstet und eingerichtet.The user interface 2 respectively. 2 ' has one or more sensors S. for environmental detection, in particular self-localization, and is used for entering user inputs, for example by means of eye tracking, gesture recognition, speech recognition, recognition of virtual contact, touchscreen, trackpad, keyboard, joystick, computer mouse or the like, as well as for sending and receiving data to and from the mobile and / or collaborative robot 1 and / or a robot-external robot arrangement controller 1.1 equipped and furnished.

In einer Umgebung ist exemplarisch ein Umgebungsobjekt 4.1 sowie ein umgebungsfester Sensor 4.2 angedeutet.An environment object is exemplified in an environment 4.1 as well as an environmentally safe sensor 4.2 indicated.

Nach dem in 2 gezeigten Verfahren wird in einem Schritt S10 eine Pose der Benutzerschnittstelle 2 bzw. 2' relativ zur Umgebung und/oder eine Blickrichtung des Benutzers 3 relativ zur Umgebung oder Benutzerschnittstelle ermittelt. Zusätzlich oder alternativ kann in Schritt S10 eine Pose des mobilen und/oder kollaborativen Roboters 1 und/oder eine Pose des, gegebenenfalls bewegten, Umgebungsobjekts 4.1 ermittelt werden.After the in 2 The method shown is a pose of the user interface in a step S10 2 respectively. 2 ' relative to the surroundings and / or a line of sight of the user 3 determined relative to the environment or user interface. Additionally or alternatively, a pose of the mobile and / or collaborative robot can be performed in step S10 1 and / or a pose of the, possibly moving, surrounding object 4.1 be determined.

In einem Schritt S20 überlagert die Benutzerschnittstelle 2 bzw. 2' ein virtuelles Objekt, das in einer Ausführung mit dem Umgebungsobjekt 4.1 bzw. einem Umgebungspunkt verknüpft ist, mit einer Ansicht der Umgebung, beispielsweise einem Kamerabild, einer künstlichen Rekonstruktion der Umgebung oder einer Sicht des Benutzers 3 auf die Umgebung.In a step S20, the user interface is superimposed 2 respectively. 2 ' a virtual object that is in an execution with the environment object 4.1 or a point of the environment is linked to a view of the environment, for example a camera image, an artificial reconstruction of the environment or a view of the user 3 on the environment.

In einem Schritt S30 wird beispielsweise, insbesondere durch bzw. auf Basis entsprechende(r) Benutzereingaben, der mobile und/oder kollaborativen Roboter 1 gesteuert und/oder das virtuelle Objekt verändert, beispielsweise seine Position relativ zu einer Außenkontur der Ansicht und/oder sein Inhalt und/oder eines oder mehrere seiner angezeigten Merkmale. In einer Ausführung werden, insbesondere durch bzw. auf Basis entsprechende(r) Benutzereingaben, ein geplanter Pfad des mobilen und/oder kollaborativen Roboters 1 und/oder Interaktionen des mobilen und/oder kollaborativen Roboters 1 mit der Umgebung, beispielsweise dem Umgebungsobjekt 4.1, generiert oder verändert, insbesondere Pfadpunkte bzw. -abschnitte hinzufügt, verschoben und/oder gelöscht und/oder Aktionen des Roboters 1 und/oder Umgebungsobjekts 4.1 editiert, zum Beispiel eine Anzahl und/oder Identifikation abzuladender bzw. aufzunehmender Transportgüter oder dergleichen.In a step S30, the mobile and / or collaborative robot is activated, for example, in particular by or on the basis of corresponding user input (s) 1 controlled and / or the virtual Object changes, for example its position relative to an outer contour of the view and / or its content and / or one or more of its displayed features. In one embodiment, a planned path of the mobile and / or collaborative robot is established, in particular by or on the basis of corresponding user inputs 1 and / or interactions of the mobile and / or collaborative robot 1 with the environment, for example the surrounding object 4.1 , generated or changed, in particular adding, moving and / or deleting path points or sections and / or actions of the robot 1 and / or surrounding object 4.1 edited, for example a number and / or identification of goods to be unloaded or picked up or the like.

Anschließend kehrt das Verfahren wieder zu Schritt S10 zurück, um die Pose(n) zu aktualisieren.The method then returns to step S10 in order to update the pose (s).

3 zeigt ein solches Überlagern einer Ansicht einer Umgebung mit mehreren virtuellen Objekten nach einer Ausführung der vorliegenden Erfindung. 3 FIG. 12 shows such a superimposition of a view of an environment with a plurality of virtual objects according to an embodiment of the present invention.

In 3 ist eine Ansicht einer Umgebung in Form eines Kamerabildes 10 mit virtuellen Objekten überlagert, im Ausführungsbeispiel einem virtuellen Objekt 110, das einen Navigationsgraph bzw. -pfad für den mobilen und/oder kollaborativen Roboter 1 repräsentiert, einem virtuellen Objekt 120, das einen Knoten des Graphen bzw. einen entsprechenden Umgebungspunkt bzw. eine Ankunftszeit repräsentiert, und einem virtuellen Objekt 130, das einen anderen Knoten des Graphen bzw. einen entsprechenden anderen Umgebungspunkt, insbesondere dessen Identität repräsentiert.In 3 Fig. 3 is a view of an environment in the form of a camera image 10 superimposed with virtual objects, in the exemplary embodiment a virtual object 110, which has a navigation graph or path for the mobile and / or collaborative robot 1 represents, a virtual object 120 , which represents a node of the graph or a corresponding point in the vicinity or an arrival time, and a virtual object 130 , which represents another node of the graph or a corresponding other point in the vicinity, in particular its identity.

4 bzw. die Figurenfolge 34 illustriert eine Benutzereingabe durch Berühren der virtuellen Objekte 120, 130, 140 bzw. entsprechender virtueller Knöpfe wie zum Beispiel „Open details“, „Hide“ etc. So kann etwa durch Berühren des virtuellen Objekts 130 dieses ausgeblendet (vgl. 4) bzw. können durch Berühren seines virtuellen Knopfes „Open details“ zusätzliche Merkmale bzw. Details eingeblendet werden. 4th or the sequence of figures 3 4th illustrates user input by touching the virtual objects 120 , 130 , 140 or corresponding virtual buttons such as "Open details", "Hide" etc. For example, by touching the virtual object 130 this is hidden (cf. 4th ) or additional features or details can be displayed by touching its virtual button "Open details".

Die beiden virtuellen Objekte 120, 130 sind mit dem entsprechenden Umgebungs- bzw. Pfadpunkt verknüpft, so dass ihre Position bei einer Änderung der (Perspektive der) Ansicht 10, beispielsweise durch Drehen der Benutzerschnittstelle 2' bzw. Drehen der am Kopf getragenen Benutzerschnittstelle 2 und/oder Augenbewegung, in der Ansicht relativ zur Umgebung ortsfest, d.h. über dem entsprechenden Knoten, bleiben und sich somit ihre Position relativ zu einer Außenkontur der Ansicht verändert. Ihre Orientierung relativ zur Außenkontur der Ansicht bleibt dabei konstant.The two virtual objects 120 , 130 are linked to the corresponding environment or path point, so that their position when the (perspective of the) view changes 10 , for example by rotating the user interface 2 ' or rotating the head-worn user interface 2 and / or eye movement, in the view relative to the surroundings, remain stationary, ie above the corresponding node, and thus their position changes relative to an outer contour of the view. Their orientation relative to the outer contour of the view remains constant.

Umgekehrt ist das virtuelle Objekt 140 in 4 relativ zur Außenkontur der Ansicht ortsfest in einer oberen rechten Ecke verankert und behält diese Position relativ zur Außenkontur der Ansicht auch bei, wenn sich die (Perspektive der) Ansicht 10 durch die oben beschriebene Drehung des Benutzers 3 ändert.The opposite is the case with the virtual object 140 in 4th anchored in a fixed position relative to the outer contour of the view in an upper right corner and maintains this position relative to the outer contour of the view even if the (perspective of the) view is different 10 by rotating the user as described above 3 changes.

5 zeigt eine Überlagerung eines Kamerabildes 20 mit einem virtuellen Objekt 150, das einen hindernisfreien Erreichbarkeitsbereich bzw. zulässigen Pfadbereich in Form einer einfarbigen virtuellen Bodenfläche repräsentiert, sowie virtuellen Objekten in Form von Laserscannerstrahlen 160. 5 shows an overlay of a camera image 20th with a virtual object 150 , which represents an unobstructed accessibility area or a permissible path area in the form of a monochrome virtual floor area, as well as virtual objects in the form of laser scanner beams 160 .

6 zeigt eine Überlagerung eines Kamerabildes 30 mit einem virtuellen Objekt 170, das einen Reservierungsbereich in Form einer einfarbigen virtuellen Bodenfläche repräsentiert, zwei virtuellen Objekten 180.1, 180.2, die unterschiedlich(groß)e Sicherheitsbereiche in Form einfarbiger virtueller Bodenflächen repräsentieren, einem virtuellen Objekt 190, welches in vorstehend beschriebener Form einen Navigationsgraph bzw. -pfad für den mobilen und/oder kollaborativen Roboter 1 repräsentiert, von dem in 6 ein Knoten mit der Identifikationsnummer („Node ID“) 8 sichtbar ist, und einem virtuellen Objekt 200, das relativ zur Außenkontur der Ansicht ortsfest in einer oberen rechten Ecke verankert ist und Merkmale in Form virtueller Eingabeknöpfe aufweist. 6th shows an overlay of a camera image 30th with a virtual object 170 , which represents a reservation area in the form of a single-colored virtual floor area, two virtual objects 180.1, 180.2, which represent different (large) security areas in the form of single-colored virtual floor areas, a virtual object 190 , which in the form described above is a navigation graph or path for the mobile and / or collaborative robot 1 represented by the in 6th a node with the identification number ("Node ID") 8 is visible, and a virtual object 200 , which is anchored in a stationary manner relative to the outer contour of the view in an upper right corner and has features in the form of virtual input buttons.

Ein mit dem inneren Sicherheitsbereich kollidierender Umgebungsbereich wird automatisiert erfasst und durch ein eigenes virtuelles Objekt 210, welches mit diesem kollidierenden bzw. Schnittbereich verknüpft ist, sowie durch Einfärben des virtuellen Objektes 180.1 visualisiert.A surrounding area that collides with the inner security area is automatically recorded and by its own virtual object 210 , which is linked to this colliding or cutting area, as well as visualized by coloring the virtual object 180.1.

In 6 ist zudem angedeutet, wie der Benutzer 3 den Knoten bzw. Pfad über den Touchscreen editieren, insbesondere seine Pose in der Umgebung verschieben kann. Die Benutzerschnittstelle 2 bzw. 2' übermittelt die entsprechenden (Änderungs)Daten an die Bahnplanung der Roboteranordnungssteuerung 1.1.In 6th is also indicated how the user 3 edit the node or path via the touchscreen, especially move its pose in the area. The user interface 2 respectively. 2 ' transmits the corresponding (change) data to the path planning of the robot arrangement controller 1.1 .

Obwohl in der vorhergehenden Beschreibung exemplarische Ausführungen erläutert wurden, sei darauf hingewiesen, dass eine Vielzahl von Abwandlungen möglich ist. Außerdem sei darauf hingewiesen, dass es sich bei den exemplarischen Ausführungen lediglich um Beispiele handelt, die den Schutzbereich, die Anwendungen und den Aufbau in keiner Weise einschränken sollen. Vielmehr wird dem Fachmann durch die vorausgehende Beschreibung ein Leitfaden für die Umsetzung von mindestens einer exemplarischen Ausführung gegeben, wobei diverse Änderungen, insbesondere in Hinblick auf die Funktion und Anordnung der beschriebenen Bestandteile, vorgenommen werden können, ohne den Schutzbereich zu verlassen, wie er sich aus den Ansprüchen und diesen äquivalenten Merkmalskombinationen ergibt.Although exemplary embodiments have been explained in the preceding description, it should be pointed out that a large number of modifications are possible. It should also be pointed out that the exemplary designs are only examples that are not intended to restrict the scope of protection, the applications and the structure in any way. Rather, the preceding description provides a person skilled in the art with guidelines for the implementation of at least one exemplary embodiment, with various changes, in particular with regard to the function and arrangement of the components described, being able to be made without departing from the scope of protection as it emerges from the claims and these equivalent combinations of features results.

BezugszeichenlisteList of reference symbols

11
mobiler und/oder kollaborativer Robotermobile and / or collaborative robot
1.11.1
RoboteranordnungssteuerungRobot arrangement control
22
MR-Maske/-BrilleMR mask / glasses
2'2 '
TabletTablet
33
Benutzeruser
4.14.1
UmgebungsobjektEnvironment object
4.24.2
Sensorsensor
10-3010-30
Kamerabild (Ansicht der Umgebung)Camera image (view of the surroundings)
110-210110-210
virtuelles Objektvirtual object
SS.
Sensor der BenutzerschnittstelleUser interface sensor

Claims (14)

Verfahren zum Konfigurieren, Durchführen und/oder Analysieren einer Applikation einer Roboteranordnung (1, 1.1) mit wenigstens einem mobilen und/oder kollaborativen Roboter (1), mithilfe einer Benutzerschnittstelle (2; 2') zum Ein- und/oder Ausgeben von Daten, wobei das Verfahren den Schritt aufweist: Überlagern (S20) einer Ansicht, insbesondere Darstellung (10; 20; 30), einer Umgebung mit wenigstens einem virtuellen Objekt (110-210); wobei diese Überlagerung zum Konfigurieren, Durchführen und/oder Analysieren der Applikation durch die, insbesondere an der, Benutzerschnittstelle zur Verfügung gestellt wird, insbesondere die Ansicht der Umgebung und das virtuelle Objekt durch die, insbesondere an der, Benutzerschnittstelle überlagert werden und/oder die Applikation auf Basis dieser Überlagerung, insbesondere mithilfe der Benutzerschnittstelle, konfiguriert, durchgeführt und/oder analysiert wird (S30).Method for configuring, performing and / or analyzing an application of a robot arrangement (1, 1.1) with at least one mobile and / or collaborative robot (1), with the aid of a user interface (2; 2 ') for inputting and / or outputting data, the method comprising the step of: superimposing (S20) a view, in particular a representation (10; 20; 30), of an environment with at least one virtual object (110-210); this overlay for configuring, executing and / or analyzing the application is made available by the, in particular on the, user interface, in particular the view of the environment and the virtual object by which, in particular on the, user interface is overlaid and / or the application is configured, performed and / or analyzed on the basis of this superimposition, in particular with the aid of the user interface (S30). Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Ansicht der Umgebung und das virtuelle Objekt auf Basis einer ermittelten, insbesondere aktuellen, Perspektive der Ansicht, einer ermittelten, insbesondere aktuellen, Pose der Benutzerschnittstelle, der Roboteranordnung, insbesondere des mobilen und/oder kollaborativen Roboters, und/oder wenigstens eines, insbesondere statischen oder bewegten, Umgebungsobjekts, insbesondere eines mit dem virtuellen Objekt verknüpften Umgebungsobjekts, relativ zu der Umgebung, auf Basis einer ermittelten, insbesondere aktuellen, Blickrichtung eines Trägers (3) der Benutzerschnittstelle und/oder auf Basis eines, insbesondere dreidimensionalen, Modells der Umgebung überlagert werden.Procedure according to Claim 1 , characterized in that the view of the environment and the virtual object based on a determined, in particular current, perspective of the view, a determined, in particular current, pose of the user interface, the robot arrangement, in particular the mobile and / or collaborative robot, and / or at least one, in particular static or moving, environmental object, in particular an environmental object linked to the virtual object, relative to the environment, on the basis of a determined, in particular current, viewing direction of a wearer (3) of the user interface and / or on the basis of a, in particular three-dimensional, Model of the environment are superimposed. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Benutzerschnittstelle wenigstens eine tragbare Mixed-Reality-spezifische und/oder wenigstens eine tragbare Mehrzweckvorrichtung und/oder wenigstens ein transparentes Display, wenigstens einen Bildschirm, insbesondere Touchscreen, wenigstens ein Trackpad, wenigstens eine Tastatur, wenigstens einen Joystick und/oder wenigstens eine Computermaus, aufweist und/oder, insbesondere mithilfe wenigstens eines, insbesondere benutzerschnittstellenseitigen, Sensors, die Umgebung und/oder Blickrichtung erfasst und/oder Daten an die Roboteranordnung, Umgebung, ein lokales Netzwerk und/oder eine Computercloud sendet (S30) und/oder von der Roboteranordnung, Umgebung, dem lokalen Netzwerk und/oder der Computercloud erhält und/oder die Überlagerung, insbesondere die Ansicht der Umgebung und/oder das virtuelle Objekt, in Echtzeit aktualisiert.Method according to one of the preceding claims, characterized in that the user interface has at least one portable mixed-reality-specific and / or at least one portable multi-purpose device and / or at least one transparent display, at least one screen, in particular a touchscreen, at least one trackpad, at least one keyboard , at least one joystick and / or at least one computer mouse, and / or, in particular with the help of at least one, in particular user interface-side sensor, captures the environment and / or viewing direction and / or data to the robot arrangement, environment, a local network and / or a Computer cloud sends (S30) and / or receives from the robot arrangement, environment, the local network and / or the computer cloud and / or the overlay, in particular the view of the environment and / or the virtual object, is updated in real time. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Pose der Benutzerschnittstelle, der Roboteranordnung, insbesondere des mobilen und/oder kollaborativen Roboters, und/oder des Umgebungsobjekts mittels Selbstlokalisation und/oder mithilfe einer Umgebungskarte, insbesondere mittels SLAM, und/oder mithilfe wenigstens eines benutzerschnittstellen-, roboteranordnungs- oder umgebungsseitigen Sensors (4.2), insbesondere wenigstens einer inertialen Messeinheit, wenigstens einer Kamera, wenigstens einer LIDAR-Vorrichtung, wenigstens eines Sonarsensors, wenigstens eines Tiefenwahrnehmungssensors und/oder wenigstens eines Funksensors, und/oder in Echtzeit und/oder auf Basis einer ermittelten Anfangspose ermittelt ist.Method according to one of the preceding claims, characterized in that the pose of the user interface, the robot arrangement, in particular the mobile and / or collaborative robot, and / or the surrounding object by means of self-localization and / or with the help of an environment map, in particular by means of SLAM, and / or with the help of at least one user interface, robot arrangement or environment-side sensor (4.2), in particular at least one inertial measuring unit, at least one camera, at least one LIDAR device, at least one sonar sensor, at least one depth perception sensor and / or at least one radio sensor, and / or in real time and / or is determined on the basis of a determined initial pose. Verfahren nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass die Anfangspose auf Basis eines, insbesondere mittels Bildverarbeitung, erfassten, insbesondere codierten und/oder hierzu angeordneten, Umgebungsmerkmals und/oder mithilfe von Triangulation und/oder wenigstens einer, insbesondere mit der Benutzerschnittstelle und/oder Roboteranordnung kommunizierenden, externen Messvorrichtung ermittelt ist.The method according to the preceding claim, characterized in that the initial pose is based on an, in particular by means of image processing, detected, in particular coded and / or arranged for this, environmental feature and / or with the help of triangulation and / or at least one, in particular with the user interface and / or Robot arrangement communicating, external measuring device is determined. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Benutzerschnittstelle Anweisungen an die Roboteranordnung, insbesondere den mobilen und/oder kollaborativen Roboter und/oder eine Roboteranordnungssteuerung, sendet (S30) und/oder Daten, insbesondere Navigations-, Sicherheits-, Konfigurations- und/oder Posendaten, der Roboteranordnung speichert und/oder, insbesondere von dem mobilen und/oder kollaborativen Roboter und/oder einer Roboteranordnungssteuerung, empfängt und die Überlagerung auf Basis der gespeicherten bzw. empfangenen Daten ermittelt, insbesondere aktualisiert.Method according to one of the preceding claims, characterized in that the user interface sends instructions to the robot arrangement, in particular the mobile and / or collaborative robot and / or a robot arrangement controller (S30) and / or data, in particular navigation, safety, configuration and / or pose data that the robot arrangement stores and / or receives, in particular from the mobile and / or collaborative robot and / or a robot arrangement controller, and the overlay is determined, in particular updated, on the basis of the stored or received data. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass wenigstens ein überlagertes virtuelles Objekt mit Kartendaten eines Navigationsmittels der Roboteranordnung, insbesondere des mobilen, in einer Ausführung kollaborativen, Roboters, mit einem Sensorbereich, insbesondere einer Sensorerfassungsrichtung, mit einem, insbesondere geplanten und/oder abgefahrenen, Pfad oder zulässigen Pfadbereich der Roboteranordnung, insbesondere des mobilen und/oder kollaborativen Roboters, mit einem, insbesondere vorgegebenen und/oder zwei- oder dreidimensionalen, Sicherheits-, Auswertungs-, Erreichbarkeits- und/oder Reservierungsbereich der Umgebung und/oder der Roboteranordnung, insbesondere des mobilen und/oder kollaborativen Roboters, mit einem Warte- oder Zielort, mit einer Warte- oder Zielpose, mit einer Warte- oder Ankunftszeit, mit dem mobilen und/oder kollaborativen Roboter, insbesondere einem Energie-, Navigations-, Fehler-, Kommunikations- und/oder Logistikzustand, mit einem Umgebungsobjekt oder -punkt, insbesondere einem Zustand und/oder einer potentiellen, insbesondere geplanten, Interaktion mit der Roboteranordnung, und/oder mit einer Navigationshilfe zu einer vorgegebenen Stelle verknüpft ist.Method according to one of the preceding claims, characterized in that at least one superimposed virtual object with map data of a navigation means of the robot arrangement, in particular the mobile, in one embodiment collaborative, robot, with a sensor area, in particular a sensor detection direction, with a, in particular planned and / or traveled, path or permissible path area of the robot arrangement, in particular of the mobile and / or collaborative robot, with a, in particular predetermined and / or two- or three-dimensional, safety, evaluation, accessibility and / or reservation area of the environment and / or the robot arrangement , in particular the mobile and / or collaborative robot, with a waiting or destination, with a waiting or target pose, with a waiting or arrival time, with the mobile and / or collaborative robot, in particular an energy, navigation, error , Communication and / or logistics status, m it is linked to a surrounding object or point, in particular a state and / or a potential, in particular planned, interaction with the robot arrangement and / or with a navigation aid to a predetermined point. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Position und/oder Orientierung wenigstens eines überlagerten virtuellen Objekts relativ zu einer Außenkontur der Ansicht der Umwelt bei einer Bewegung der Benutzerschnittstelle und/oder Änderung der Perspektive der Ansicht der Umgebung konstant bleibt.Method according to one of the preceding claims, characterized in that a position and / or orientation of at least one superimposed virtual object relative to an outer contour of the view of the environment remains constant when the user interface is moved and / or the perspective of the view of the environment changes. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Position und/oder Orientierung wenigstens eines überlagerten virtuellen Objekts relativ zu einer Ansicht eines mit diesem virtuellen Objekt verknüpften Umgebungsobjekts oder -punkts oder Pfadpunkts oder -abschnitts der Roboteranordnung in der Überlagerung bei einer Bewegung der Benutzerschnittstelle und/oder Änderung der Perspektive der Ansicht der Umgebung konstant bleibt.Method according to one of the preceding claims, characterized in that a position and / or orientation of at least one superimposed virtual object relative to a view of a surrounding object or point or path point or section of the robot arrangement linked to this virtual object in the overlay when the User interface and / or change in perspective of the view of the environment remains constant. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Benutzerschnittstelle eine Benutzereingabe mithilfe von Blickerfassung, Gestenerkennung, Spracherkennung und/oder Erkennung von virtuellem Kontakt, erfasst.Method according to one of the preceding claims, characterized in that the user interface detects a user input with the aid of gaze detection, gesture recognition, speech recognition and / or detection of virtual contact. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass durch eine Benutzereingabe über die Benutzerschnittstelle Navigationsdaten und/oder das virtuelle Objekt, insbesondere dessen Pose in der Überlagerung, veränderbar (S30) sind.Method according to one of the preceding claims, characterized in that navigation data and / or the virtual object, in particular its pose in the overlay, can be changed (S30) by a user input via the user interface. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass wenigstens ein überlagertes virtuelles Objekt und/oder wenigstens ein Merkmal wenigstens eines überlagerten virtuellen Objekts auf Basis einer Benutzereingabe ein- und/oder ausgeblendet und/oder verändert wird, insbesondere seine Pose relativ einer Außenkontur der Ansicht der Umwelt und/oder wenigstens ein Parameter des virtuellen Objekts bzw. Merkmals.Method according to one of the preceding claims, characterized in that at least one superimposed virtual object and / or at least one feature of at least one superimposed virtual object is shown and / or hidden and / or changed on the basis of a user input, in particular its pose relative to an outer contour of the View of the environment and / or at least one parameter of the virtual object or feature. System zum Konfigurieren, Durchführen und/oder Analysieren einer Applikation einer Roboteranordnung (1, 1.1) mit wenigstens einem mobilen und/oder kollaborativen Roboter (1), mithilfe einer Benutzerschnittstelle (2; 2') zum Ein- und/oder Ausgeben von Daten, wobei das System zur Durchführung eines Verfahrens nach einem der vorhergehenden Ansprüche eingerichtet ist und/oder aufweist: Mittel zum Überlagern einer Ansicht, insbesondere Darstellung (10; 20; 30), einer Umgebung mit wenigstens einem virtuellen Objekt (110-210); wobei die Benutzerschnittstelle dazu eingerichtet ist, diese Überlagerung zum Konfigurieren, Durchführen und/oder Analysieren der Applikation, insbesondere an der Benutzerschnittstelle, zur Verfügung zu stellen, insbesondere die Ansicht der Umgebung und das virtuelle Objekt zu überlagern und/oder die Applikation auf Basis dieser Überlagerung zu konfigurieren, durchzuführen und/oder zu analysieren.System for configuring, performing and / or analyzing an application of a robot arrangement (1, 1.1) with at least one mobile and / or collaborative robot (1), with the aid of a user interface (2; 2 ') for inputting and / or outputting data, wherein the system is set up to carry out a method according to one of the preceding claims and / or has: Means for superimposing a view, in particular a representation (10; 20; 30), of an environment with at least one virtual object (110-210); The user interface is set up to provide this overlay for configuring, executing and / or analyzing the application, in particular at the user interface, in particular to overlay the view of the environment and the virtual object and / or the application based on this overlay configure, perform and / or analyze. Computerprogrammprodukt mit einem Programmcode, der auf einem von einem Computer lesbaren Medium gespeichert ist, zur Durchführung eines Verfahrens nach einem der vorhergehenden Ansprüche.Computer program product with a program code, which is stored on a medium readable by a computer, for carrying out a method according to one of the preceding claims.
DE102020206403.2A 2020-05-22 2020-05-22 Configuring, executing and / or analyzing an application of a mobile and / or collaborative robot Ceased DE102020206403A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102020206403.2A DE102020206403A1 (en) 2020-05-22 2020-05-22 Configuring, executing and / or analyzing an application of a mobile and / or collaborative robot
PCT/EP2021/061627 WO2021233670A1 (en) 2020-05-22 2021-05-04 Configuring, running, and/or analyzing an application of a mobile and/or collaborative robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020206403.2A DE102020206403A1 (en) 2020-05-22 2020-05-22 Configuring, executing and / or analyzing an application of a mobile and / or collaborative robot

Publications (1)

Publication Number Publication Date
DE102020206403A1 true DE102020206403A1 (en) 2021-11-25

Family

ID=75870608

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020206403.2A Ceased DE102020206403A1 (en) 2020-05-22 2020-05-22 Configuring, executing and / or analyzing an application of a mobile and / or collaborative robot

Country Status (2)

Country Link
DE (1) DE102020206403A1 (en)
WO (1) WO2021233670A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022202563B3 (en) 2022-03-15 2023-07-06 Kuka Deutschland Gmbh Planning a trajectory of a robot
DE102022202571B3 (en) 2022-03-15 2023-07-06 Kuka Deutschland Gmbh Checking a given path of a robot
DE102022202562A1 (en) 2022-03-15 2023-09-21 Kuka Deutschland Gmbh Determining at least one limit for operating a robot
DE102022202564A1 (en) 2022-03-15 2023-09-21 Kuka Deutschland Gmbh Checking a robot's safety configuration

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10063089C1 (en) 2000-12-18 2002-07-25 Siemens Ag User-controlled linking of information within an augmented reality system
DE102015006664A1 (en) 2015-05-22 2016-11-24 Giesecke & Devrient Gmbh System and method for processing value documents
US20170203438A1 (en) 2015-03-04 2017-07-20 The Johns Hopkins University Robot control, training and collaboration in an immersive virtual reality environment
DE102016224774B3 (en) 2016-12-13 2018-01-25 Audi Ag Method for programming a measuring robot and programming system
US20180267314A1 (en) 2017-03-16 2018-09-20 Denso Wave Incorporated Information display system
DE102019006800A1 (en) 2018-10-02 2020-04-02 Fanuc Corporation Robot controller and display device using augmented reality and mixed reality

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9919427B1 (en) * 2015-07-25 2018-03-20 X Development Llc Visualizing robot trajectory points in augmented reality
DE102018109463C5 (en) * 2018-04-19 2023-10-05 Voraus Robotik Gmbh Method for using a multi-unit actuated kinematics, preferably a robot, particularly preferably an articulated robot, by a user using a mobile display device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10063089C1 (en) 2000-12-18 2002-07-25 Siemens Ag User-controlled linking of information within an augmented reality system
US20170203438A1 (en) 2015-03-04 2017-07-20 The Johns Hopkins University Robot control, training and collaboration in an immersive virtual reality environment
DE102015006664A1 (en) 2015-05-22 2016-11-24 Giesecke & Devrient Gmbh System and method for processing value documents
DE102016224774B3 (en) 2016-12-13 2018-01-25 Audi Ag Method for programming a measuring robot and programming system
US20180267314A1 (en) 2017-03-16 2018-09-20 Denso Wave Incorporated Information display system
DE102019006800A1 (en) 2018-10-02 2020-04-02 Fanuc Corporation Robot controller and display device using augmented reality and mixed reality

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022202563B3 (en) 2022-03-15 2023-07-06 Kuka Deutschland Gmbh Planning a trajectory of a robot
DE102022202571B3 (en) 2022-03-15 2023-07-06 Kuka Deutschland Gmbh Checking a given path of a robot
DE102022202562A1 (en) 2022-03-15 2023-09-21 Kuka Deutschland Gmbh Determining at least one limit for operating a robot
DE102022202564A1 (en) 2022-03-15 2023-09-21 Kuka Deutschland Gmbh Checking a robot's safety configuration

Also Published As

Publication number Publication date
WO2021233670A1 (en) 2021-11-25

Similar Documents

Publication Publication Date Title
DE102019002898B4 (en) robot simulation device
DE102020206403A1 (en) Configuring, executing and / or analyzing an application of a mobile and / or collaborative robot
EP3590014B1 (en) Method for controlling an autonomous, mobile robot
DE102019006800B4 (en) Robot controller and display device using augmented reality and mixed reality
EP3437036B1 (en) Method and device for planning and/or controlling and/or simulating the operation of a construction machine
EP2812766B2 (en) Method for automatically triggering a self-positioning process
EP1447770B1 (en) Method and apparatus for visualization of computer-based information
US7974738B2 (en) Robotics virtual rail system and method
US7801644B2 (en) Generic robot architecture
US8073564B2 (en) Multi-robot control interface
EP3345065B1 (en) Identification and locating of a base station of an autonomous mobile robot
EP2048557B1 (en) Optoelectronic sensor and mobile device and configuration method
US7211980B1 (en) Robotic follow system and method
EP2837985B1 (en) Autonomous transport vehicle and method for operating an autonomous transport vehicle
EP1521211B1 (en) Method and apparatus for determining the position and orientation of an image receiving device
EP3538967B1 (en) Method and system for operating an automatically moving robot
US20080009970A1 (en) Robotic Guarded Motion System and Method
EP3676680A1 (en) Movement planning for autonomous mobile robots
EP3709853B1 (en) Floor processing by means of an autonomous mobile robot
DE102018114892B4 (en) Autonomous mobile robot and method for controlling an autonomous mobile robot
DE112019003204T5 (en) VISUALIZATION AND MODIFICATION OF WORKING EDGE AREAS USING EXTENDED REALITY
DE102017104427A1 (en) Method for controlling an autonomous, mobile robot
EP3575912A1 (en) Robotic mower
DE102023118908A1 (en) COLLABORATIVE SECURITY MONITORING FOR ROBOTIC APPLICATIONS ENABLED BY AUGMENTED REALITY AND OTHER LOCATION-AWARENESS TECHNOLOGIES
DE102022202563B3 (en) Planning a trajectory of a robot

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final