DE202021106457U1 - system - Google Patents

system Download PDF

Info

Publication number
DE202021106457U1
DE202021106457U1 DE202021106457.9U DE202021106457U DE202021106457U1 DE 202021106457 U1 DE202021106457 U1 DE 202021106457U1 DE 202021106457 U DE202021106457 U DE 202021106457U DE 202021106457 U1 DE202021106457 U1 DE 202021106457U1
Authority
DE
Germany
Prior art keywords
virtual
sensor
marking
environment
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202021106457.9U
Other languages
German (de)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sick AG
Original Assignee
Sick AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sick AG filed Critical Sick AG
Priority to DE202021106457.9U priority Critical patent/DE202021106457U1/en
Publication of DE202021106457U1 publication Critical patent/DE202021106457U1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2111/00Details relating to CAD techniques
    • G06F2111/18Details relating to CAD techniques using virtual or augmented reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/12Geometric CAD characterised by design entry means specially adapted for CAD, e.g. graphical user interfaces [GUI] specially adapted for CAD
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06037Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding

Abstract

System (1) zur Planung einer Anwendung mit mindestens einer Markierung (2), mit einer Steuer- und Auswerteeinheit (3), mit einer Datenbank (4), mit einer Anzeigeeinheit (5), und mit mindestens einem räumlichen Modell einer realen Umgebung, und mindestens einer Kamera (7) zur Abbildung der realen Umgebung (8),
wobei die reale Umgebung (8) in dem räumlichen Modell als virtuelle Umgebung (9) auf der Anzeigeeinheit (5) anzeigbar ist,
wobei die Markierung (2) in der realen Umgebung (8) an einer Position und mit einer Orientierung angeordnet ist,
wobei die Position und die Orientierung der Markierung (2) mindestens von der Kamera (7) erfassbar sind,
wobei die Position und Orientierung der Markierung (2) mit einem virtuellen Sensormodell (10) verknüpft ist,
wobei das virtuelle Sensormodell (10) in dem räumlichen Modell der virtuellen Umgebung (9) auf der Anzeigeeinheit an der Position und mit der Orientierung der Markierung (2) anzeigbar ist,
wobei das virtuelle Sensormodell (10) mindestens einen virtuellen Erfassungsbereich (11) aufweist, wobei der virtuelle Erfassungsbereich (11) im dem räumlichen Modell der virtuellen Umgebung (9) auf der Anzeigeeinheit (5) anzeigbar ist.

Figure DE202021106457U1_0000
System (1) for planning an application with at least one marking (2), with a control and evaluation unit (3), with a database (4), with a display unit (5), and with at least one spatial model of a real environment, and at least one camera (7) for imaging the real environment (8),
wherein the real environment (8) in the spatial model can be displayed as a virtual environment (9) on the display unit (5),
wherein the marking (2) is arranged in the real environment (8) at a position and with an orientation,
the position and the orientation of the marking (2) being detectable at least by the camera (7),
the position and orientation of the marking (2) being linked to a virtual sensor model (10),
wherein the virtual sensor model (10) can be displayed in the spatial model of the virtual environment (9) on the display unit at the position and with the orientation of the marking (2),
wherein the virtual sensor model (10) has at least one virtual detection area (11), wherein the virtual detection area (11) can be displayed in the spatial model of the virtual environment (9) on the display unit (5).
Figure DE202021106457U1_0000

Description

Die vorliegende Erfindung betrifft ein System gemäß dem Oberbegriff von Anspruch 1.The present invention relates to a system according to the preamble of claim 1.

Anwendungen bzw. Applikationen, beispielsweise in der Mensch-Roboter-Kollaboration (MRK) sind oft schwer zu planen. Dies betrifft beispielsweise nicht nur die Roboterbahn an sich, sondern insbesondere die Einbindung von Sensoren. Diese Sensoren können sowohl Automatisierungs- als auch Sicherheitssensoren sein. Diese zeichnen sich immer durch ihren Wirkbereich, beispielsweise das FOV einer Kamera oder die Reichweite eines Scanners und durch ihre Funktion, beispielsweise ein gebildetes Schutzfeld aus. Oft ist es in einer MRK Applikation entscheidend, wo ein Sensor angebracht ist und wie er in den Applikationskontext eingebettet ist. Oft ist letzteres ein Trial-and-Error-Vorgehen, was zeit- und damit kostenintensiv ist. Dieser Schritt ist oft nur mit den echten Sensoren also während der Integration der Applikation machbar.Applications or applications, for example in human-robot collaboration (MRK), are often difficult to plan. This applies not only to the robot path itself, but in particular to the integration of sensors. These sensors can be both automation and security sensors. These are always characterized by their effective range, for example the FOV of a camera or the range of a scanner, and by their function, for example a protective field that is formed. In an HRC application, it is often crucial where a sensor is attached and how it is embedded in the application context. The latter is often a trial and error procedure, which is time-consuming and therefore expensive. This step is often only feasible with the real sensors, i.e. during the integration of the application.

Die Aufgabe wird gemäß Anspruch 1 gelöst durch ein System zur Planung einer Anwendung mit mindestens einer Markierung mit einer Steuer- und Auswerteeinheit, mit einer Datenbank, mit einer Anzeigeeinheit, und mit mindestens einem räumlichen Modell einer realen Umgebung, und mindestens einer Kamera zur Abbildung der realen Umgebung, wobei die reale Umgebung in dem räumlichen Modell als virtuelle Umgebung auf der Anzeigeeinheit anzeigbar ist, wobei die Markierung in der realen Umgebung an einer Position und mit einer Orientierung angeordnet ist, wobei die Position und die Orientierung der Markierung mindestens von der Kamera erfassbar sind, wobei die Position und Orientierung der Markierung mit einem virtuellen Sensormodell verknüpft sind, wobei das virtuelle Sensormodell in dem räumlichen Modell der virtuellen Umgebung auf der Anzeigeeinheit an der Position und mit der Orientierung der Markierung anzeigbar ist, wobei das virtuelle Sensormodell mindestens einen virtuellen Erfassungsbereich aufweist, wobei der virtuelle Erfassungsbereich in dem räumlichen Modell der virtuellen Umgebung auf der Anzeigeeinheit anzeigbar ist.The object is achieved according to claim 1 by a system for planning an application with at least one marking with a control and evaluation unit, with a database, with a display unit, and with at least one spatial model of a real environment, and at least one camera for imaging the real environment, wherein the real environment in the spatial model can be displayed as a virtual environment on the display unit, the marking being arranged in a position and with an orientation in the real environment, the position and the orientation of the marking being detectable at least by the camera are, the position and orientation of the marking being linked to a virtual sensor model, the virtual sensor model being able to be displayed in the spatial model of the virtual environment on the display unit at the position and with the orientation of the marking, the virtual sensor model having at least one virtual detection area has, wherein the virtual detection area can be displayed in the spatial model of the virtual environment on the display unit.

Es wird beispielsweise ein Set von N Markierungen bzw. Markern bzw. sog. visuellen Tags vorgesehen. Die Markierung bzw. die Markierungen werden in einer Umgebung einer geplanten Anwendung bzw. Applikation platziert oder angeordnet. Beispielsweise fest an einer Infrastruktur z.B. an einer Wand oder an einem Arbeitsplatz. Beispielsweise ist die Position eine ortsfeste Position und die Orientierung eine ortsfeste Orientierung.For example, a set of N markings or markers or so-called visual tags is provided. The marker or markers are placed or arranged in an environment of a planned use or application. For example, fixed to an infrastructure, e.g. on a wall or at a workplace. For example, the position is a fixed position and the orientation is a fixed orientation.

Beispielsweise sind die Markierungen an Manipulatoren z.B. an einem Roboter oder an mobilen Plattformen angeordnet. Beispielsweise ist die Position dann eine bewegliche veränderliche Position und die Orientierung ist eine bewegliche veränderliche Orientierung.For example, the markings are placed on manipulators, e.g. on a robot or on mobile platforms. For example, the position is then a movable variable position and the orientation is a movable variable orientation.

Jeder Markierung kann nun per Software-Anwendung oder APP-Anwendung, also mittels einer graphischen Bediensoftware mittels der Steuer- und Auswerteeinheit ein virtuelles Sensormodell zugeordnet werden, welches in Augmented Reality also einer erweiterten Realität orientierungsgetreu mit Hilfe der Anzeigeeinheit bzw. eines mobilen Endgeräts dargestellt wird. Insbesondere wird dabei auch der Erfassungsbereich bzw. Wirkbereich des virtuellen Sensors und die Sensorfunktion des virtuellen Sensors in der erweiterten Realität dargestellt. Beispielsweise können die Markierung oder die Markierungen fortlaufend nachverfolgt (tracking) werden so dass das mobile Endgerät und die Markierung bzw. Markierungen beweglich sein können. Bei dem Erfassungsbereich kann es sich beispielsweise um ein Erfassungsfeld, einen Schutzbereich, ein Schutzfeld, ein Warnbereich, ein Warnfeld oder ähnliches handeln.Each marking can now be assigned a virtual sensor model via software application or APP application, i.e. using graphic operating software using the control and evaluation unit, which is displayed in augmented reality, i.e. an extended reality, with the aid of the display unit or a mobile terminal device . In particular, the detection range or effective range of the virtual sensor and the sensor function of the virtual sensor are also shown in the augmented reality. For example, the marker or markers can be tracked continuously, so that the mobile terminal device and the marker or markers can be movable. The detection area can be, for example, a detection field, a protection area, a protection field, a warning area, a warning field or the like.

Die Umgebung bzw. ein Umweltmodell umfasst hier auch beispielsweise Menschen, die sich in der realen Umgebung, beispielsweise einer Industrieszene befinden. Die Markierungen werden nun dazu verwendet einer georteten Markierung die entsprechende Sensorfunktion an Ort und Stelle bzw. der Position in korrekter Orientierung zuzuordnen und zu visualisieren.Here, the environment or an environmental model also includes, for example, people who are in the real environment, for example an industrial scene. The markings are now used to assign and visualize the corresponding sensor function on the spot or the position in the correct orientation to a located marking.

Dabei penetrieren die Wirkbereiche der virtuellen Sensoren keine virtuelle Infrastruktur, d.h. z.B. Wände, Fußböden oder Personen werden in der Augmented Reality Visualisierung nicht durchstrahlt, sondern beispielsweise fotorealistisch getroffen. Ähnlich wie mit „Post-it-Notizen“ kann so eine Applikation interaktiv und/oder immersiv sehr effizient und nachvollziehbar geplant werden.The effective areas of the virtual sensors do not penetrate any virtual infrastructure, i.e. e.g. walls, floors or people are not irradiated in the augmented reality visualization, but are hit photo-realistically, for example. Similar to "Post-it notes", such an application can be planned interactively and/or immersively very efficiently and comprehensibly.

Die erfindungsgemäße Lösung verbessert eine Planungsphase einer Anwendung, in der in der Regel kein realer Sensor verfügbar ist oder noch kein realer Sensor eingesetzt werden soll, um Kosten zu sparen.The solution according to the invention improves a planning phase of an application in which, as a rule, no real sensor is available or no real sensor is yet to be used in order to save costs.

Sensoren werden nur durch die Markierung repräsentiert, der bestimmte Sensoreigenschaften zugewiesen werden können. Die einer Markierung zugewiesenen Sensoreigenschaften werden augmentiert visualisiert und unterstützen die Planung der Applikation, d.h. eine optimale Wahl der Art der Sensoren, einer Anzahl von Sensoren, einer Anordnung der Sensoren und/oder eine Konfiguration bzw. Einstellungen der Sensoren. Beispielsweise ist eine Visualisierung einer Synchronisation oder gegenseitige Störung von Sensoren vorgesehen. So kann beispielsweise ein abwechselndes Pulsen von Sensoren gezeigt werden.Sensors are only represented by the marker, to which certain sensor properties can be assigned. The sensor properties assigned to a marking are visualized augmented and support the planning of the application, ie an optimal choice of the type of sensors, a number of sensors, an arrangement of the sensors and/or a configuration or settings of the sensors. For example, a visualization of a synchronization or mutual interference of sensors is provided. So can at for example an alternating pulsing of sensors can be shown.

Diese augmentierte bzw. virtuelle Planung geht weit über die Möglichkeiten einer rein digitalen Planung am PC hinaus. Insbesondere eröffnet sie gerade für das Thema Sicherheit im Sinne von funktionaler Sicherheit bzw. Maschinensicherheit in komplexen Applikationen z.B. in den Mensch-Roboter-Applikationen neue Möglichkeiten sich in die Applikation hineinzuversetzen und so potenziell gefährliche Situationen zu identifizieren und bereits in der Planung zu eliminieren.This augmented or virtual planning goes far beyond the possibilities of purely digital planning on the PC. In particular, it opens up new possibilities for the topic of safety in the sense of functional safety or machine safety in complex applications, e.g.

Sicherheits-Experten können damit gemeinsam mit Werkern, noch vor Kauf, Installation, Inbetriebnahme und/oder reale Arbeitssituationen durchspielen und sichere und produktive Arbeitsabläufe planen. Hierdurch können beispielsweise Sicherheitslücken bzw. Lücken im kombinierten Schutzfeld aller geplanten Sensoren und damit der gesamten Sicherheitslösung identifiziert werden. Um dies zu visualisieren erfolgt die Ausmessung und die Identifizierung wie die Markierungen bzw. Marker relativ zueinander liegen.Safety experts can use this to play through real work situations together with workers, even before purchase, installation, commissioning and/or real work situations and plan safe and productive work processes. In this way, for example, security gaps or gaps in the combined protective field of all planned sensors and thus the entire security solution can be identified. In order to visualize this, the measurement and identification of how the markings or markers are positioned relative to one another takes place.

Bei einer Veränderung einer Markierungsposition oder dem Hinzufügen einer weiteren Markierung braucht nur der Bereich um die neue Position aufgenommen werden, bis der Algorithmus genügend Referenzen hat, um die Markierung korrekt neu zu platzieren in der virtuellen Umgebung. Dies könnte auch in Echtzeit erfolgen, sofern das zur Visualisierung verwendete Endgerät über die entsprechende Sensorik verfügt. If a marker position is changed or another marker is added, only the area around the new position needs to be recorded until the algorithm has enough references to correctly reposition the marker in the virtual environment. This could also take place in real time if the end device used for the visualization has the appropriate sensors.

Hierdurch könnten versehentliche und absichtliche Positionsänderungen von Markierungen automatisch erkannt, angezeigt und sofern gewünscht im Umgebungsmodell korrigiert werden. Erfolgt die Umgebungserfassung in Echtzeit z.B. über das zur Visualisierung genutzte Endgerät können auch bewegliche Objekte berücksichtigt werden.In this way, accidental and intentional changes in the position of markings could be automatically detected, displayed and, if desired, corrected in the environment model. If the environment is recorded in real time, e.g. via the end device used for visualization, moving objects can also be taken into account.

Nach erfolgreicher Planung können die Ergebnisse mittels Screenshots oder Videos dokumentiert werden und in die Applikationsdokumentation überführt werden, z.B. im Rahmen eines Risiko Assessment.After successful planning, the results can be documented using screenshots or videos and transferred to the application documentation, e.g. as part of a risk assessment.

Die in der Simulation verwendeten virtuellen Sensoren können beispielsweise in einem Werkzeug der Steuer- und Auswerteeinheit in einen Einkaufskorb platziert werden und vom Kunden als reale Sensoren bezogen werden.The virtual sensors used in the simulation can, for example, be placed in a shopping basket in a tool of the control and evaluation unit and can be purchased by the customer as real sensors.

Aus der Simulation gebildete Sensor-Konfigurationen können beispielsweise als Parameterdatei ebenfalls an Kunden geliefert werden. Dadurch wird neben der einfachen und schnellen Planung von Applikationen auch die einfache und schnelle Einrichtung der realen Applikation ermöglicht und gefördert.Sensor configurations formed from the simulation can also be delivered to customers as a parameter file, for example. In addition to the simple and fast planning of applications, this also enables and promotes the simple and fast setup of the real application.

Die in der realen Umgebung angebrachten Markierungen können einem Integratoren-Team auch als Montagehinweis dienen. Beispielsweise können in der virtuellen Umgebung Montagehinweise, insbesondere Textnachrichten eingeblendet werden, beispielsweise mit dem Wortlaut: „Hier bitte einen Sensor X in dieser dargestellten Orientierung Y mit einem Parameterset Z anbringen“.The markings applied in the real environment can also serve as assembly instructions for an integrator team. For example, installation instructions, in particular text messages, can be displayed in the virtual environment, for example with the wording: “Please attach a sensor X here in the orientation Y shown with a parameter set Z”.

Planerische Risiken werden in der künstlichen bzw. erweiterten Realität gelöst. Die eigentliche Integration erfordert in dieser Vorgehensweise einen minimalen Zeitaufwand. Eine Stillstandzeit einer beispielsweise bestehenden Anwendung für einen Umbau ist damit minimiert. Abweichungen zwischen Planungsstand (z.B. Umgebungsmodell aus CAD-Daten) und realer Applikation werden durch das virtuelle Sensorverhalten sichtbar gemacht. Mit dieser Vorgehensweise lassen sich Applikationen sehr einfach und intuitiv umplanen und die beste gefundene Lösung wird anschließend in der Realität mit realen Sensoren umgesetzt.Planning risks are solved in artificial or augmented reality. In this approach, the actual integration requires a minimum of time. A downtime of an existing application for a conversion, for example, is thus minimized. Deviations between the planning status (e.g. environment model from CAD data) and the real application are made visible by the virtual sensor behavior. With this approach, applications can be replanned very easily and intuitively and the best solution found is then implemented in reality with real sensors.

Die erfindungsgemäße Lösung erlaubt eine Unterstützung neuer digitaler Konfigurations- und Bestellprozesse. Ein Kunde kann über beispielsweise eine Hersteller-APP inkl. einer Sensorbibliothek die Applikation virtuell planen, Sensor-Konfiguration speichern und direkt aus der App eine Bestellung inkl. Parameter-Dateien in Auftrag geben. The solution according to the invention allows support for new digital configuration and ordering processes. A customer can, for example, use a manufacturer app including a sensor library to plan the application virtually, save the sensor configuration and place an order including parameter files directly from the app.

Alternativ kann die Konfiguration bereits über den Bestellprozess auf dem gewünschten realen Sensor aufgespielt werden. Es kann ein Angebot von weiteren Services, wie Risiko Assessment basierend auf dem vom Kunden zur Verfügung gestellten Umweltmodell inkl. Sensoranordnung, erfolgen.Alternatively, the configuration can already be loaded onto the desired real sensor during the ordering process. Additional services can be offered, such as risk assessment based on the environmental model provided by the customer, including sensor arrangement.

Die Kosten der Lösung sind anhand der verwendeten Komponenten ebenfalls vor einer konkreten Realisierung genau bekannt, so dass eine sehr fundierte Kosten-Nutzen-Analyse für die Applikation möglich ist, ohne dass eine einzige Komponente bzw. ein Sensor real beschafft und angebracht wurde und darüber hinaus auch nicht in jeder Planung erneut eine spezifische Simulation programmiert werden müsste, da diese aus der augmentierten Lösung erzeugt wird.Based on the components used, the costs of the solution are also precisely known before concrete implementation, so that a very well-founded cost-benefit analysis for the application is possible without actually procuring and installing a single component or sensor and beyond a specific simulation would not have to be programmed again in every plan, as this is generated from the augmented solution.

In Weiterbildung der Erfindung ist das räumliche Modell auf Basis einer realen Umgebung als 3D-CAD-Modell vorhanden. Das räumliche Modell kann aus einem 3D-CAD-Modell abgeleitet werden und z.B. als vernetzte Oberfläche verwendet werden.In a development of the invention, the spatial model is available as a 3D CAD model based on a real environment. The spatial model can be derived from a 3D CAD model and used, for example, as a meshed surface.

Beispielsweise ist ein globaler oder übergeordneter Marker bzw. Markierung vorgesehen, dessen Pose relativ zum 3D-CAD-Modell bekannt ist. Von diesem ausgehend können die Markierungen der virtuellen Sensoren eingemessen werden. Intern wird dabei beispielsweise ein Graph aufgebaut, wobei die Marker die Knoten sind und die Kanten die Transformationen zwischen den Markern repräsentieren. Das ist beispielsweise auch wichtig um die Wirkbereiche mehrerer Sensoren an ihren Schnittstellen zu inspizieren.For example, a global or superordinate marker is provided whose pose is known relative to the 3D CAD model. Starting from this, the markings of the virtual sensors can be measured. For example, a graph is created internally, with the markers being the nodes and the edges representing the transformations between the markers. This is also important, for example, to inspect the effective ranges of several sensors at their interfaces.

Gemäß der Weiterbildung ist eine Applikationsplanung durch den Anwender in der künftigen Produktionsumgebung möglich, beispielsweise eine Mensch-Roboter-Kollaboration (MRK). Ein Anwender erstellt ein 3D-CAD-Modell bzw. ein 3D Umweltmodell in der virtuellen Umgebung. Es erfolgt eine Simulation und Visualisierung der Absicherung der Gefahrenstellen durch Platzieren von Tags in der Umgebung die flexibel über eine SICK Bibliothek mit verschiedenen virtuellen Sensoren und deren Eigenschaften verknüpft werden können. Der Anwender kann so seine Applikation virtuell planen und simulieren, Sensor-Konfigurationen speichern und über die APP eine individualisierte Bestellung aufgeben. Der Kunde erhält, auf Basis seines Umweltmodels, vorkonfigurierte Sensoren inkl. Montagehinweis. Nach Installation der realen Applikation kann eine Validierung vorgenommen werden, wobei die Simulation in der virtuellen Umgebung mit der realen Anwendung verglichen wird. Abweichungen werden erkannt und können nachjustiert werden.According to the development, application planning by the user in the future production environment is possible, for example human-robot collaboration (HRC). A user creates a 3D CAD model or a 3D environmental model in the virtual environment. There is a simulation and visualization of the safeguarding of the danger points by placing tags in the environment, which can be flexibly linked to various virtual sensors and their properties via a SICK library. The user can thus plan and simulate his application virtually, save sensor configurations and place an individualized order via the APP. Based on their environmental model, the customer receives preconfigured sensors including installation instructions. After the real application has been installed, validation can be carried out, whereby the simulation in the virtual environment is compared with the real application. Deviations are detected and can be readjusted.

Wie bei der beschriebenen Mensch-Roboter-Kollaboration (MRK) Anwendung kann beispielsweise bei einer autonomen mobilen Roboteranwendung (AMR) ebenfalls die Applikationsplanung von Workstations durchgeführt werden. Dazu erstellt der Anwender ein 3D-CAD-Modell bzw. ein 3D Umweltmodell in der virtuellen Umgebung. Durch Platzieren von Markierungen oder Markern, die mit virtuellen Sensoren und deren Eigenschaften verknüpft sind, lässt sich die Absicherung der Gefahrenstelle simulieren und visualisieren. Ebenfalls kann der Anwender so seine Applikation in Augmented Reality planen und simulieren, Sensor-Konfigurationen speichern und über die App eine individualisierte Bestellung aufgeben. Darüber hinaus können bei einer autonomen mobilen Roboteranwendung (AMR) nicht nur Workstations simuliert und visualisiert werden, sondern auch Wegabschnitte. Dazu kann ein live 3D Umweltmodell erstellt werden und potenzielle Gefahrenstellen in der Wegplanung simuliert werden.As in the case of the described human-robot collaboration (MRK) application, the application planning of workstations can also be carried out, for example, in the case of an autonomous mobile robot application (AMR). To do this, the user creates a 3D CAD model or a 3D environmental model in the virtual environment. By placing markings or markers that are linked to virtual sensors and their properties, securing the danger zone can be simulated and visualized. The user can also plan and simulate his application in augmented reality, save sensor configurations and place an individualized order via the app. In addition, not only workstations can be simulated and visualized in an autonomous mobile robot application (AMR), but also path sections. For this purpose, a live 3D environmental model can be created and potential danger points can be simulated in the route planning.

In Weiterbildung wird oder wurde das räumliche Modell mittels einem 3D-Sensor gebildet. Beispielsweise kann das räumliche Modell vorab mittels einem 3D-Sensor gebildet werden. Dazu wird beispielsweise eine reale Umgebung räumlich gescannt und das räumliche Modell vorab gebildet. Alternativ kann das räumliche Modell in Echtzeit aktuell mittels dem 3D-Sensor gebildet werden.In a further development, the spatial model is or was formed using a 3D sensor. For example, the spatial model can be formed in advance using a 3D sensor. For this purpose, for example, a real environment is spatially scanned and the spatial model is created in advance. Alternatively, the spatial model can be formed in real time using the 3D sensor.

Ein Umgebungsmodell kann somit vorab zur Verfügung gestellt werden. Es kann mit 3D-Sensoren aufgezeichnet werden mit anschließender 3D-Kartengenerierung. Es kann mit Laserscannern aufgenommen werden mit anschließender Map-Generierung.An environment model can thus be made available in advance. It can be recorded with 3D sensors with subsequent 3D map generation. It can be recorded with laser scanners with subsequent map generation.

In Weiterbildung der Erfindung ist die Position und die Orientierung der Markierung von dem 3D-Sensor und der Kamera (7) erfassbar.In a development of the invention, the position and the orientation of the marking can be detected by the 3D sensor and the camera (7).

Beispielsweise ortet ein digitales Endgerät, hierfür mit dem 3D-Sensor optisch die Position und Orientierung der Markierungen in der Umgebung der Anwendung mit dem 3D-Sensor und der Kamera. Hierbei werden beispielsweise drei unterschiedliche Raumrichtungen und drei unterschiedliche Orientierungen, also sechs Freiheitsgrade der Markierung ermittelt. Der 3D-Sensor erzeugt dabei das dazugehörige virtuelle Umweltmodell bzw. ein situatives Umweltmodell.For example, a digital end device uses the 3D sensor to optically locate the position and orientation of the markings in the vicinity of the application using the 3D sensor and the camera. Here, for example, three different directions in space and three different orientations, ie six degrees of freedom of the marking are determined. The 3D sensor generates the associated virtual environment model or a situational environment model.

Dabei kann eine Kenntnis über die relative Lage der Markierung auch bei einer Ortsveränderung bzw. einer Orientierungsänderung der Markierung aktualisiert werden. Knowledge of the relative position of the marking can also be updated in the event of a change in location or a change in orientation of the marking.

Auch hierzu können die bereits mehrfach erwähnten Endgeräte verwendet werden, die mit der Kamera, dem 3D-Sensor und der Anzeigeeinheit ausgestattet sind.The terminals already mentioned several times, which are equipped with the camera, the 3D sensor and the display unit, can also be used for this.

Aus der Kombination von Bilddaten der Kamera und von erzeugten Tiefenkarten des 3D-Sensors bei der Aufnahme der Umgebung und Erzeugung des Umgebungsmodells, können so die bereits platzierten Markierungen in der Applikation erkannt und auch einem Ort bzw. Koordinaten in der Umgebung zugeordnet werden.From the combination of image data from the camera and depth maps generated by the 3D sensor when recording the environment and generating the environment model, the markings already placed in the application can be recognized and assigned to a location or coordinates in the environment.

In Weiterbildung der Erfindung ist der 3D-Sensor eine Stereokamera oder ein Lichtlaufzeitsensor.In a development of the invention, the 3D sensor is a stereo camera or a time-of-flight sensor.

Beispielsweise ortet ein digitales Endgerät, beispielsweise ein iPhone 12 Pro oder ein iPad Pro hierfür mit dem Lichtlaufzeitsensor optisch die Position und Orientierung der Markierungen in der Umgebung der Anwendung mit dem Lichtlaufzeitsensor und der Kamera. Hierbei werden beispielsweise drei unterschiedliche Raumrichtungen und drei unterschiedliche Orientierungen, also sechs Freiheitsgrade der Markierung ermittelt. Der Lichtlaufzeitsensor, beispielsweise ein LIDAR Scanner erzeugt dabei das dazugehörige virtuelle Umweltmodell bzw. ein situatives Umweltmodell.For example, a digital end device, such as an iPhone 12 Pro or an iPad Pro, uses the time-of-flight sensor to optically locate the position and orientation of the markings in the vicinity of the application with the time-of-flight sensor and the camera. Here, for example, three different directions in space and three different orientations, ie six degrees of freedom of the marking are determined. The time-of-flight sensor, for example a LIDAR scanner generates the associated virtual environmental model or a situational environmental model.

Beispielsweise ortet ein digitales Endgerät, beispielsweise ein Smartphone oder ein Tabletrechner hierfür mit einer integrierten Stereokamera optisch die Position und Orientierung der Markierungen in der Umgebung der Anwendung mit der Stereokamera und der Kamera. Hierbei werden beispielsweise drei unterschiedliche Raumrichtungen und drei unterschiedliche Orientierungen, also sechs Freiheitsgrade der Markierung ermittelt. Die Stereokamera erzeugt dabei das dazugehörige virtuelle Umweltmodell bzw. ein situatives Umweltmodell.For example, a digital end device, for example a smartphone or a tablet computer, uses an integrated stereo camera to optically locate the position and orientation of the markings in the vicinity of the application with the stereo camera and the camera. Here, for example, three different directions in space and three different orientations, ie six degrees of freedom of the marking are determined. The stereo camera generates the associated virtual environmental model or a situational environmental model.

In Weiterbildung der Erfindung ist der Lichtlaufzeitsensor ein Laserscanner oder eine 3D-Lichtlaufzeitkamera.In a development of the invention, the time-of-flight sensor is a laser scanner or a 3D time-of-flight camera.

Die Umgebung kann beispielsweise als Echtzeitumgebungsmodell mit dem Lichtlaufzeitsensor, beispielsweise einer 3D-Lichtlaufzeitkamera bzw. einer Lidar Kamera oder einem Laserscanner aufgenommen werden. Erfindungsgemäß kann das Echtzeitumgebungsmodell mit 2D-Bilddaten aus der Kamera, beispielsweise dem mobilen Endgerät kombiniert werden, so dass basierend auf den Tiefendaten eine Echtzeitsegmentierung vorgenommen wird. Auf diese Weise kann beispielsweise ein Fußboden, eine Wand, ein Arbeitsplatz und/oder eine Person identifiziert werden.The environment can be recorded, for example, as a real-time environment model with the time-of-flight sensor, for example a 3D time-of-flight camera or a lidar camera or a laser scanner. According to the invention, the real-time environment model can be combined with 2D image data from the camera, for example the mobile terminal device, so that real-time segmentation is carried out based on the depth data. In this way, for example, a floor, a wall, a workplace and/or a person can be identified.

Übertragen auf einen industriellen Sicherheitskontext sowie eine Augmented Reality basierte MRK Applikationsplanung könnte dies in einem Beispiel mit drei Markierungen, die jeweils einen virtuellen Laserscanner repräsentieren, folgendermaßen aussehen.Transferred to an industrial safety context and an augmented reality-based HRC application planning, this could look like this in an example with three markings, each representing a virtual laser scanner.

Zwei Markierungen sind beispielsweise an einem Roboter ortsfest angeordnet und sollen einen bestimmten Bereich um den Roboter erfassen und absichern. Es ist vorgesehen, dass man diesen Bereich ebenfalls per mobilem Endgerät in der Applikation eingibt bzw. einzeichnet und somit Bereiche identifiziert, die nicht von den Sicherheitssensoren in ihrer aktuellen Anbringung und Konfiguration erfasst werden. Solche Bereiche entstehen z.B. hinter statischen Objekten, an denen die Schutzfelder aufgrund der eingelernten Umgebungsdaten abgeschnitten werden.For example, two markings are stationarily arranged on a robot and are intended to cover and secure a specific area around the robot. It is intended that this area will also be entered or drawn into the application using a mobile device, thus identifying areas that are not detected by the safety sensors in their current installation and configuration. Such areas arise, for example, behind static objects where the protective fields are cut off due to the taught-in environmental data.

Auch an bewegten Hindernissen, wie z.B. dem Werker oder dem AGC können die Schutzfelder unterbrochen bzw. abgeschnitten werden sofern z.B. ein Augmented Reality Gerät mit 3D-Sensorik oder ein weiteres 3D-Daten lieferndes Gerät verwendet wird. Zur Trennung von eingelernten Umgebungsdaten und dynamischem Objekt wäre beispielsweise eine Segmentierung z.B. der Person im Farbbild und anschließendes Mapping auf 3D Daten vorgesehen. Prinzipiell sind auch Markierungen an beweglichen Maschinenteilen oder Fahrzeugen vorgesehen.The protective fields can also be interrupted or cut off at moving obstacles, such as the worker or the AGC, if, for example, an augmented reality device with 3D sensors or another device supplying 3D data is used. To separate taught-in environmental data and dynamic objects, segmentation, e.g. of the person in the color image, and subsequent mapping to 3D data would be provided. In principle, markings are also provided on moving machine parts or vehicles.

Eine Korrespondenz zwischen den Markierungen und den virtuellen Sensoren kann beispielsweise wie folgt aussehen:

  • Die Datenmodelle von virtuellen Sensoren sind beispielsweise in einer Bibliothek der Datenbank abgelegt. Diese Bibliothek umfasst beispielsweise für jeden Sensor das 3D-CAD-Modell, einen Wirkbereich und ein Set an Funktionen. Zusätzlich werden beispielsweise für jeden Sensor Metadaten abgelegt, diese können beispielsweise einen Sensortyp (z. B. Laserscanner, 3D-Lichtlaufzeitkamera, etc), physikalische Anschlüsse (z. B. Ethernet, IO-Link, etc) oder einen Performance Level umfassen. Die Bibliothek bzw. Sensorbibliothek kann mit Suchfiltern ausgestattet sein, so dass der Anwender entscheiden kann, welche virtuellen Sensoren er für die Zuordnung verwenden möchte (z.B. eine 3D-Lichtlaufzeitkamera mit 940 nm Wellenlänge, 3 m Reichweite, 70° Sichtbereich und Ethernet Anschluss). Einem morphologischen Kasten ähnelnd können den Markierungen unterschiedliche Sensoren zugeordnet werden, die dann zur Planung der Applikation verwendet werden.
A correspondence between the markings and the virtual sensors can look like this, for example:
  • The data models of virtual sensors are stored in a library in the database, for example. For example, this library includes the 3D CAD model for each sensor, an effective range and a set of functions. In addition, metadata is stored for each sensor, for example, which can include a sensor type (e.g. laser scanner, 3D time-of-flight camera, etc.), physical connections (e.g. Ethernet, IO-Link, etc.) or a performance level. The library or sensor library can be equipped with search filters so that the user can decide which virtual sensors he would like to use for the assignment (e.g. a 3D time-of-flight camera with a wavelength of 940 nm, 3 m range, 70° field of view and Ethernet connection). Similar to a morphological box, different sensors can be assigned to the markings, which are then used to plan the application.

Ein Umgebungsmodell kann auch vorab zur Verfügung gestellt werden. Es kann mit 3D-Sensoren aufgezeichnet werden mit anschließender 3D-Kartengenerierung. Es kann mit Laserscannern aufgenommen werden mit anschließender Map-Generierung. Es kann aus einem 3D-CAD-Modell abgeleitet werden und z.B. als vernetzte Oberfläche verwendet werden.An environment model can also be provided in advance. It can be recorded with 3D sensors with subsequent 3D map generation. It can be recorded with laser scanners with subsequent map generation. It can be derived from a 3D CAD model and used e.g. as a meshed surface.

In Weiterbildung der Erfindung sind die Markierungen mindestens zweidimensionale Matrixkodierungen. Dabei ist aus der zweidimensionalen Matrixkodierung die eindeutige Richtung und die eindeutige Orientierung der Markierung erkennbar und ermittelbar. Die Matrixkodierung kann optional die Art des Sensors, sowie weitere Eigenschaften des Sensors, wie beispielsweise eine Schutzfeldgröße, eine Schutzfeldrichtung und eine Schutzfeldorientierung aufweisen. Beispielsweise weist die Markierung eine zweidimensionale Kodierung auf und zusätzlich noch Farbinformationen.In a development of the invention, the markings are at least two-dimensional matrix codes. The unambiguous direction and the unambiguous orientation of the marking can be recognized and determined from the two-dimensional matrix coding. The matrix coding can optionally have the type of sensor and other properties of the sensor, such as a protective field size, a protective field direction and a protective field orientation. For example, the marking has a two-dimensional coding and additional color information.

Die visuellen Markierungen können beispielsweise AprilTags bzw. AprilMarker sein. Diese haben gegenüber einem QR-Code weniger Informationen und sind dennoch orientierungssensitiv. AprilTags Markierungen weisen beispielsweise eine weiße Umrandung auf und beinhalten darin eine beispielsweise 8x8 Matrix von schwarzen und weißen Feldern als Matrix Code.The visual markers can be AprilTags or AprilMarker, for example. These have less information than a QR code and are still orientation-sensitive. For example, AprilTags tags have a white border and contain a at for example 8x8 matrix of black and white fields as matrix code.

Es kommen auch sog. ArUco Tags in Frage. Ein ArUcoTag bzw. ArUco-Marker ist ein synthetischer, quadratischer Marker, der aus einem breiten schwarzen Rand und einer inneren binären Matrix besteht, die seinen Identifikator (id) bestimmt. Der schwarze Rand erleichtert seine schnelle Erkennung im Bild und die binäre Kodierung ermöglicht seine Identifizierung und die Anwendung von Fehlererkennungs- und Korrekturtechniken. Die Größe der Markierung bestimmt die Größe der internen Matrix. Eine Markergröße von 4x4 besteht zum Beispiel aus 16 Bits.So-called ArUco tags are also possible. An ArUcoTag or ArUco marker is a synthetic, square marker consisting of a wide black border and an inner binary matrix that determines its identifier (id). The black border facilitates its rapid identification in the image and the binary coding allows its identification and the application of error detection and correction techniques. The size of the marker determines the size of the internal matrix. For example, a marker size of 4x4 consists of 16 bits.

Es können auch Vuforia-Marker „Vu-Mark“ eingesetzt werden. Vuforia-Marker weisen eine Kontur, einen Grenzbereich, einen freien Abstandsbereich, Kode-Elemente und einen Hintergrundsbereich auf. Es ist möglich und vorgesehen, dass auf dem Tag noch weitere Informationen gespeichert werden. Z.B: Datenblätter, Zertifikate, User Manuals, usw.Vuforia markers "Vu-Mark" can also be used. Vuforia markers have an outline, border area, free space area, code elements, and background area. It is possible and envisaged that further information will be stored on the tag. E.g.: data sheets, certificates, user manuals, etc.

In Weiterbildung der Erfindung sind die Markierungen mindestens reale 3D-Modelle. Dabei kann es sich beispielsweise um kleine räumliche Sensormodelle aus Schaumstoff oder anderen Materialien handeln. Die Markierung wird dabei über die 3D-Kontur des Sensormodells gebildet.In a development of the invention, the markings are at least real 3D models. This can be, for example, small spatial sensor models made of foam or other materials. The marking is formed over the 3D contour of the sensor model.

In Weiterbildung der Erfindung ist die Markierung mittels einer Haltevorrichtung in der realen Umgebung angeordnet.In a development of the invention, the marking is arranged in the real environment by means of a holding device.

Beispielsweise sind universell passende Aufhängungen vorgesehen, um die Markierungen zur Planung möglichst frei in der Applikation platzieren zu können. Beispielsweise ist ein modulares Anbringungskonzept bestehend aus Grundplatte mit der Markierung in Kombination mit wahlweise einer magnetischen Vorrichtung, einer Klebevorrichtung, einer Klemmvorrichtung und/oder einer Schraubvorrichtung vorgesehen.For example, universally suitable suspensions are provided in order to be able to place the markings as freely as possible in the application for planning purposes. For example, a modular attachment concept consisting of a base plate with the marking in combination with either a magnetic device, an adhesive device, a clamping device and/or a screw device is provided.

In Weiterbildung der Erfindung ist die Position und Orientierung einer zweiten Markierung mit einem virtuellen Objekt verknüpft, wobei das virtuelle Objekt in dem räumlichen Modell der Umgebung auf der Anzeigeeinheit an der Position und mit der Orientierung der zweiten Markierung angezeigt wird.In a development of the invention, the position and orientation of a second marking is linked to a virtual object, with the virtual object being displayed in the spatial model of the environment on the display unit at the position and with the orientation of the second marking.

Bei dem virtuellen Objekt kann es sich beispielsweise um eine virtuelle Maschine, eine virtuelle Absperrung, ein virtuelles Lager, um virtuelles Material, um virtuelle Werkstücke oder ähnliches handeln.The virtual object can be, for example, a virtual machine, a virtual barrier, a virtual warehouse, virtual material, virtual workpieces or the like.

Auch die Bewegungen, Laufwege, Eingriffe usw. eines Menschen können mittels ähnlicher Technik in eine Simulation bzw. die virtuelle Umgebung überführt werden. Hierzu können Markierungen bzw. Marker an den Gelenken des Menschen angebracht werden und die Bewegungen aufgenommen und angezeigt werden.The movements, walking routes, interventions, etc. of a person can also be transferred to a simulation or the virtual environment using similar technology. For this purpose markings or markers can be attached to the joints of the person and the movements can be recorded and displayed.

In Weiterbildung der Erfindung ist die Anzeigeeinheit ein Smartphone, ein Tablet-Rechner, eine Augmented-Reality-Brille/Headset oder eine Virtual-Reality-Brille/Headset.In a development of the invention, the display unit is a smartphone, a tablet computer, augmented reality glasses/headset or virtual reality glasses/headset.

Als mobile Endgeräte kommen somit Geräte oder Systeme in Frage, die mit mindestens einer Kamera und einer Möglichkeit zur Visualisierung ausgestattet sind.Devices or systems that are equipped with at least one camera and a visualization option can therefore be considered as mobile end devices.

In Weiterbildung der Erfindung weisen die Markierungen mindestens einen Transponder auf.In a development of the invention, the markings have at least one transponder.

Es ist nach der Weiterbildung vorgesehen, dass die visuellen Markierungen zusätzlich mit Funkortung versehen werden, beispielsweis mit UWB Technik. Beispielsweise können hier Airtags von Apple zum Einsatz kommen. Ein AirTag ist so konzipiert, dass es wie ein Schlüsselfinder funktioniert und dabei hilft, Schlüssel und andere Gegenstände mithilfe der Ultrabreitband-Technik (UWB) zu finden. Über den von Apple entwickelten U1-Chip lässt sich auch die genaue Distanz und Richtung zum gesuchten AirTag anzeigen.According to the development, it is provided that the visual markings are additionally provided with radio location, for example with UWB technology. Air tags from Apple can be used here, for example. An AirTag is designed to work like a key finder, helping to find keys and other items using Ultra Wide Band (UWB) technology. The U1 chip developed by Apple can also be used to display the exact distance and direction to the AirTag you are looking for.

In Weiterbildung der Erfindung ist das virtuelle Sensormodell konfigurierbar, wobei die Konfiguration des virtuellen Sensormodells auf den realen Sensor übertragbar ist.In a further development of the invention, the virtual sensor model can be configured, with the configuration of the virtual sensor model being able to be transferred to the real sensor.

Sensorkonfigurationen des virtuellen Sensors, z.B. eine Schutzfeldgröße eines virtuellen Laserscanners, können anhand des Umweltmodells und des über die Markierungen aufgespannten gewünschten Wirkbereichs von virtuellen Sensoren gespeichert werden und beispielsweise einem Kunden im Rahmen des Bestellprozesses für reale Sensoren zur Verfügung gestellt werden. Neben der einfachen und schnellen Planung von Applikationen unterstützt die Sensorkonfiguration ebenfalls die Einrichtung der realen Applikation.Sensor configurations of the virtual sensor, e.g. a protective field size of a virtual laser scanner, can be saved using the environmental model and the desired effective range of virtual sensors spanned by the markings and, for example, made available to a customer as part of the ordering process for real sensors. In addition to the simple and fast planning of applications, the sensor configuration also supports the setup of the real application.

In Weiterbildung der Erfindung wird nach einer virtuellen Planung mindestens eine virtuelle Lösung in eine Simulation überführt. Dadurch ist eine virtuelle Fortsetzung der Planung in einer Simulation möglich.In a development of the invention, after virtual planning, at least one virtual solution is converted into a simulation. This enables a virtual continuation of the planning in a simulation.

Im Anschluss an die virtuelle Planung können eine oder mehrere virtuelle Lösungen in eine Simulation überführt werden. In der Simulation können nun sowohl prozessrelevante Parameter beispielsweise Geschwindigkeiten, Bauteile pro Stunde usw., als auch sicherheitsrelevante Parameter beispielsweise Erfassungsbereiche, Erfassungsfelder, Schutzfelder, Warnfelder, Geschwindigkeiten, Laufwege und/oder Eingriffe durch Werker variiert und simuliert werden. Dadurch kann einerseits das Sicherheitskonzept weiter validiert werden und andererseits eine Produktivität sowie ein Mehrwert der Sicherheitslösung quantifiziert und gegenübergestellt werden. Es ist beispielsweise vorgesehen, dass in der virtuellen Planung die exakte Sensorposition und -orientierung optimiert wird. Anschließend können die Parameter der Sensoren nochmals optimiert werden.Following the virtual planning, one or more virtual solutions can be transferred to a simulation. Process-relevant parameters such as speeds, components per hour, etc., as well as safety-relevant parameters can now be included in the simulation For example, detection areas, detection fields, protective fields, warning fields, speeds, routes and/or interventions by workers can be varied and simulated. In this way, on the one hand, the security concept can be further validated and, on the other hand, productivity and added value of the security solution can be quantified and compared. For example, it is provided that the exact sensor position and orientation is optimized in the virtual planning. The parameters of the sensors can then be optimized again.

Die Erfindung wird nachstehend auch hinsichtlich weiterer Vorteile und Merkmale unter Bezugnahme auf die beigefügte Zeichnung anhand von Ausführungsbeispielen erläutert. Die Figuren der Zeichnung zeigen in:

  • 1 ein System zur Planung einer Anwendung mit mindestens einer Markierung;
  • 2 ein System zur Planung einer Anwendung mit mindestens einer Markierung;
  • 3 ein weiteres System zur Planung einer Anwendung mit mindestens einer Markierung;
  • 4 eine beispielhafte Markierung;
  • 5 ein weiteres System zur Planung einer Anwendung mit mindestens einer Markierung.
The invention is explained below also with regard to further advantages and features with reference to the attached drawing based on exemplary embodiments. The figures of the drawing show in:
  • 1 a system for scheduling an application with at least one marker;
  • 2 a system for scheduling an application with at least one marker;
  • 3 another system for scheduling an application with at least one marker;
  • 4 an exemplary mark;
  • 5 another system for planning an application with at least one marker.

In den nachfolgenden Figuren sind identische Teile mit identischen Bezugszeichen versehen.In the following figures, identical parts are provided with identical reference numbers.

1 zeigt ein System 1 zur Planung einer Anwendung mit mindestens einer Markierung 2, mit einer Steuer- und Auswerteeinheit 3, mit einer Datenbank 4, mit einer Anzeigeeinheit 5, und mit mindestens einem räumlichen Modell einer realen Umgebung, und mindestens einer Kamera 7 zur Abbildung der realen Umgebung 8, wobei die reale Umgebung 8 in dem räumlichen Modell als virtuelle Umgebung 9 auf der Anzeigeeinheit 5 anzeigbar ist, wobei die Markierung 2 in der realen Umgebung 8 an einer Position und mit einer Orientierung angeordnet ist, wobei die Position und die Orientierung der Markierung 2 mindestens von der Kamera 7 erfassbar ist, wobei die Position und Orientierung der Markierung 2 mit einem virtuellen Sensormodell 10 verknüpft ist, wobei das virtuelle Sensormodell 10 in dem räumlichen Modell der virtuellen Umgebung 9 auf der Anzeigeeinheit an der Position und mit der Orientierung der Markierung 2 anzeigbar ist, wobei das virtuelle Sensormodell 10 mindestens einen virtuellen Erfassungsbereich 11 aufweist, wobei der virtuelle Erfassungsbereich 11 im dem räumlichen Modell der virtuellen Umgebung 9 auf der Anzeigeeinheit 5 anzeigbar ist. 1 shows a system 1 for planning an application with at least one marking 2, with a control and evaluation unit 3, with a database 4, with a display unit 5, and with at least one spatial model of a real environment, and at least one camera 7 for imaging the real environment 8, wherein the real environment 8 in the spatial model can be displayed as a virtual environment 9 on the display unit 5, the marker 2 being arranged in the real environment 8 at a position and with an orientation, the position and the orientation of the Marking 2 can be detected at least by camera 7, with the position and orientation of marking 2 being linked to a virtual sensor model 10, with virtual sensor model 10 in the spatial model of virtual environment 9 on the display unit at the position and with the orientation of the Marking 2 can be displayed, the virtual sensor model 10 having at least one virtual detection area 11 , the virtual detection area 11 being able to be displayed in the spatial model of the virtual environment 9 on the display unit 5 .

2 zeigt ein System 1 zur Planung einer Anwendung mit mindestens einer Markierung 2, mit einer Steuer und Auswerteeinheit 3, mit einer Datenbank 4, mit einer Anzeigeeinheit 5, und mit mindestens einem Lichtlaufzeitsensor 6 zur räumlichen Abtastung einer realen Umgebung, und mindestens einer Kamera 7 zur Abbildung der realen Umgebung, wobei die reale Umgebung in einem räumlichen Modell als virtuelle Umgebung 9 auf der Anzeigeeinheit 5 anzeigbar ist, wobei die Markierung 2 in der realen Umgebung 8 an einer Position und mit einer Orientierung angeordnet ist, wobei die Position und die Orientierung der Markierung 2 von dem Lichtlaufzeitsensor 6 erfassbar ist, wobei die Position und Orientierung der Markierung 2 mit einem virtuellen Sensormodell 10 verknüpft ist, wobei das virtuelle Sensormodell 10 in dem räumlichen Modell der virtuellen Umgebung 9 auf der Anzeigeeinheit 5 an der Position und mit der Orientierung der Markierung 2 anzeigbar ist, wobei das virtuelle Sensormodell 10 ein virtuelles Schutzfeld 11 aufweist, wobei das virtuelle Schutzfeld 11 im dem räumlichen Modell der virtuellen Umgebung 9 auf der Anzeigeeinheit 5 anzeigbar ist. 2 shows a system 1 for planning an application with at least one marking 2, with a control and evaluation unit 3, with a database 4, with a display unit 5, and with at least one time-of-flight sensor 6 for spatial scanning of a real environment, and at least one camera 7 for Representation of the real environment, the real environment being displayable in a spatial model as a virtual environment 9 on the display unit 5, the marking 2 being arranged in the real environment 8 at a position and with an orientation, the position and the orientation of the Marking 2 can be detected by the time-of-flight sensor 6, the position and orientation of the marking 2 being linked to a virtual sensor model 10, the virtual sensor model 10 in the spatial model of the virtual environment 9 on the display unit 5 at the position and with the orientation of the Marking 2 can be displayed, the virtual sensor model 10 having a virtual protective field 11 , the virtual protective field 11 being able to be displayed in the spatial model of the virtual environment 9 on the display unit 5 .

3 zeigt ein System gemäß 2. Es wird beispielsweise ein Set von N Markierungen 2 bzw. Markern bzw. sog. visuellen Tags vorgesehen. Die Markierung 2 bzw. die Markierungen 2 werden in einer Umgebung einer geplanten Anwendung bzw. Applikation platziert oder angeordnet. Beispielsweise fest an einer Infrastruktur z.B. an einer Wand oder an einem Arbeitsplatz. Beispielsweise ist die Position eine ortsfeste Position und die Orientierung eine ortsfeste Orientierung. 3 shows a system according to 2 . For example, a set of N markings 2 or markers or so-called visual tags is provided. The marker 2 or markers 2 are placed or arranged in an environment of a planned use or application. For example fixed to an infrastructure, for example on a wall or at a workplace. For example, the position is a fixed position and the orientation is a fixed orientation.

Beispielsweise sind die Markierungen 2 an Manipulatoren z.B. an einem Roboter 15 oder an mobilen Plattformen 16 angeordnet. Beispielsweise ist die Position dann eine bewegliche veränderliche Position und die Orientierung ist eine bewegliche veränderliche Orientierung.For example, the markings 2 are arranged on manipulators, e.g. on a robot 15 or on mobile platforms 16. For example, the position is then a movable variable position and the orientation is a movable variable orientation.

Jeder Markierung 2 kann nun per Software oder APP mittels der Steuer- und Auswerteeinheit 3 ein virtuelles Sensormodell 10 zugeordnet werden, welches in Augmented Reality also einer erweiterten Realität orientierungsgetreu mit Hilfe der Anzeigeeinheit 5 bzw. eines mobilen Endgeräts dargestellt wird. Insbesondere wird dabei auch der Wirkbereich des virtuellen Sensors und die Sensorfunktion des virtuellen Sensors in der erweiterten Realität dargestellt. Es kann auch vorgesehen sein auf dem digitalen Endgerät die relative Translation und Orientierung zw. Marker und augmentiertem Objekt einstellen zu können.Each marking 2 can now be assigned a virtual sensor model 10 via software or APP using the control and evaluation unit 3, which is displayed in augmented reality, ie an extended reality, with the aid of the display unit 5 or a mobile terminal device. In particular, the effective range of the virtual sensor and the sensor function of the virtual sensor are also shown in the augmented reality. Provision can also be made to be able to set the relative translation and orientation between the marker and the augmented object on the digital terminal device.

Beispielsweise ortet ein digitales Endgerät 17 hierfür mit dem Lichtlaufzeitsensor 6 optisch die Position und Orientierung der Markierungen 2 in der Umgebung der Anwendung mit dem Lichtlaufzeitsensor 6 und der Kamera 7. Hierbei werden beispielsweise drei unterschiedliche Raumrichtungen und drei unterschiedliche Orientierungen, also sechs Freiheitsgrade der Markierung 2 ermittelt. Der Lichtlaufzeitsensor 6, beispielsweise ein LIDAR Scanner erzeugt dabei das dazugehörige virtuelle Umweltmodell bzw. ein situatives Umweltmodell.For example, a digital terminal 17 uses the time-of-flight sensor 6 to optically locate the position and orientation of the markings 2 in the vicinity of the application with the time-of-flight sensor 6 and the camera 7 for example three different spatial directions and three different orientations, ie six degrees of freedom of the marking 2 are determined. The time-of-flight sensor 6, for example a LIDAR scanner, generates the associated virtual environmental model or a situational environmental model.

Die Umgebung bzw. ein Umweltmodell umfasst hier auch beispielsweise Personen 18, die sich in der realen Umgebung, beispielsweise einer Industrieszene befinden. Die Markierungen 2 werden nun dazu verwendet einer georteten Markierung 2 die entsprechende Sensorfunktion an Ort und Stelle bzw. der Position in korrekter Orientierung zuzuordnen und zu visualisieren.Here, the environment or an environmental model also includes, for example, people 18 who are in the real environment, for example an industrial scene. The markings 2 are now used to assign the corresponding sensor function to a located marking 2 on the spot or the position in the correct orientation and to visualize it.

Dabei penetrieren die Wirkbereiche der virtuellen Sensoren 10 keine virtuelle Infrastruktur, d.h. z.B. Wände, Fußböden oder Personen 18 werden in der Augmented Reality Visualisierung nicht durchstrahlt, sondern beispielsweise fotorealistisch getroffen. Ähnlich wie mit „Post-it-Notizen“ kann so eine Applikation interaktiv und/oder immersiv sehr effizient und nachvollziehbar geplant werden.The effective ranges of the virtual sensors 10 do not penetrate any virtual infrastructure, i.e. e.g. walls, floors or people 18 are not irradiated in the augmented reality visualization, but instead are hit photorealistically, for example. Similar to "Post-it notes", such an application can be planned interactively and/or immersively very efficiently and comprehensibly.

Sensoren werden nur durch die Markierung 2 repräsentiert, der bestimmte Sensoreigenschaften zugewiesen werden können. Die einer Markierung 2 zugewiesenen Sensoreigenschaften werden augmentiert visualisiert.Sensors are only represented by the marking 2, to which certain sensor properties can be assigned. The sensor properties assigned to a marking 2 are visualized augmented.

Dabei kann eine Kenntnis über die relative Lage der Markierung 2 auch bei einer Ortsveränderung bzw. einer Orientierungsänderung der Markierung 2 aktualisiert werden.Knowledge of the relative position of the marking 2 can also be updated in the event of a change in location or a change in the orientation of the marking 2 .

Aus der Kombination von Bilddaten der Kamera 7 und von erzeugten Tiefenkarten des Lichtlaufzeitsensors 6 bei der Aufnahme der Umgebung und Erzeugung des Umgebungsmodells, können so die bereits platzierten Markierungen 2 in der Applikation erkannt und auch einem Ort bzw. Koordinaten in der Umgebung zugeordnet werden.From the combination of image data from the camera 7 and depth maps generated by the time-of-flight sensor 6 when recording the environment and generating the environment model, the markings 2 that have already been placed in the application can be recognized and assigned to a location or coordinates in the environment.

Bei einer Veränderung einer Markierungsposition oder dem Hinzufügen einer weiteren Markierung 2 braucht nur der Bereich um die neue Position aufgenommen werden, bis der Algorithmus genügend Referenzen hat, um die Markierung 2 korrekt neu zu platzieren in der virtuellen Umgebung. Dies könnte auch in Echtzeit erfolgen, sofern das zur Visualisierung verwendete Endgerät 17 über die entsprechende Sensorik verfügt.If a marker position is changed or another marker 2 is added, only the area around the new position needs to be recorded until the algorithm has enough references to correctly reposition marker 2 in the virtual environment. This could also take place in real time if the end device 17 used for the visualization has the appropriate sensors.

Erfolgt die Umgebungserfassung in Echtzeit z.B. über das zur Visualisierung genutzte Endgerät können auch bewegliche Objekte berücksichtigt werden.If the environment is recorded in real time, e.g. via the end device used for visualization, moving objects can also be taken into account.

Nach erfolgreicher Planung können die Ergebnisse mittels Screenshots oder Videos dokumentiert werden und in die Applikationsdokumentation überführt werden, z.B. im Rahmen eines Risiko Assessment.After successful planning, the results can be documented using screenshots or videos and transferred to the application documentation, e.g. as part of a risk assessment.

Die in der Simulation verwendeten virtuellen Sensoren 10 können beispielsweise in einem Werkzeug der Steuer- und Auswerteeinheit 3 in einen Einkaufskorb platziert werden und vom Kunden als reale Sensoren bezogen werden.The virtual sensors 10 used in the simulation can, for example, be placed in a shopping basket in a tool of the control and evaluation unit 3 and can be purchased by the customer as real sensors.

Aus der Simulation gebildete Sensor-Konfigurationen können beispielsweise als Parameterdatei ebenfalls an Kunden geliefert werden. Dadurch wird neben der einfachen und schnellen Planung von Applikationen auch die einfache und schnelle Einrichtung der realen Applikation ermöglicht und gefördert.Sensor configurations formed from the simulation can also be delivered to customers as a parameter file, for example. In addition to the simple and fast planning of applications, this also enables and promotes the simple and fast setup of the real application.

Die in der realen Umgebung 8 angebrachten Markierungen 2 können einem Integratoren-Team auch als Montagehinweis dienen. Beispielsweise können in der virtuellen Umgebung 9 Montagehinweise, insbesondere Textnachrichten eingeblendet werden, beispielsweise mit dem Wortlaut: „Hier bitte einen Sensor X in dieser dargestellten Orientierung Y mit einem Parameterset Z anbringen“.The markings 2 applied in the real environment 8 can also serve as assembly instructions for an integrator team. For example, installation instructions, in particular text messages, can be displayed in the virtual environment 9, for example with the wording: “Please attach a sensor X here in the orientation Y shown with a parameter set Z”.

Im Anschluss an die virtuelle Planung können eine oder mehrere virtuelle Lösungen in eine Simulation überführt werden. In der Simulation können nun sowohl prozessrelevante Parameter beispielsweise Geschwindigkeiten, Bauteile pro Stunde usw., als auch sicherheitsrelevante Parameter beispielsweise Schutzfelder, Geschwindigkeiten, Laufwege und/oder Eingriffe durch Werker variiert und simuliert werden. Dadurch kann einerseits das Sicherheitskonzept weiter validiert werden und andererseits eine Produktivität sowie ein Mehrwert der Sicherheitslösung quantifiziert und gegenübergestellt werden.Following the virtual planning, one or more virtual solutions can be transferred to a simulation. In the simulation, process-relevant parameters such as speeds, components per hour, etc., as well as safety-relevant parameters such as protective fields, speeds, walking distances and/or interventions by workers can now be varied and simulated. In this way, on the one hand, the security concept can be further validated and, on the other hand, productivity and added value of the security solution can be quantified and compared.

Es ist eine Applikationsplanung durch den Anwender in der künftigen Produktionsumgebung möglich, beispielsweise eine Mensch-Roboter-Kollaboration (MRK). Ein Anwender erstellt ein 3D Umweltmodell in der virtuellen Umgebung 9. Es erfolgt eine Simulation und Visualisierung der Absicherung der Gefahrenstellen durch Platzieren von Markierungen 2 in der Umgebung die flexibel über eine SICK Bibliothek mit verschiedenen virtuellen Sensoren und deren Eigenschaften verknüpft werden können. Der Anwender kann so seine Applikation virtuell planen und simulieren, Sensor-Konfigurationen speichern und über die APP eine individualisierte Bestellung aufgeben. Der Kunde erhält, auf Basis seines Umweltmodels, vorkonfigurierte Sensoren inkl. Montagehinweis. Nach Installation der realen Applikation, kann eine Validierung vorgenommen werden, wobei die Simulation in der virtuellen Umgebung 9 mit der realen Anwendung verglichen wird. Abweichungen werden erkannt und können nachjustiert werden.Application planning by the user in the future production environment is possible, for example human-robot collaboration (HRC). A user creates a 3D environment model in the virtual environment 9. There is a simulation and visualization of the safeguarding of the danger spots by placing markings 2 in the environment, which can be flexibly linked to various virtual sensors and their properties via a SICK library. The user can thus plan and simulate his application virtually, save sensor configurations and place an individualized order via the APP. Based on their environmental model, the customer receives preconfigured sensors including installation instructions. After installing the real application, a validation can be performed be made, with the simulation in the virtual environment 9 being compared with the real application. Deviations are detected and can be readjusted.

Wie bei der beschriebenen Mensch-Roboter-Kollaboration (MRK) Anwendung kann beispielsweise bei einer autonomen mobilen Roboteranwendung (AMR) ebenfalls die Applikationsplanung von Workstations durchgeführt werden. Dazu erstellt der Anwender ein 3D Umweltmodell in der virtuellen Umgebung 9. Durch Platzieren von Markierungen 2 oder Markern, die mit virtuellen Sensoren 10 und deren Eigenschaften verknüpft sind, lässt sich die Absicherung der Gefahrenstelle simulieren und visualisieren. Ebenfalls kann der Anwender so seine Applikation in Augmented Reality planen und simulieren, Sensor-Konfigurationen speichern und über die App eine individualisierte Bestellung aufgeben. Darüber hinaus können bei einer autonomen mobilen Roboteranwendung (AMR) nicht nur Workstations simuliert und visualisiert werden, sondern auch Wegabschnitte. Dazu kann ein live 3D Umweltmodell erstellt werden und potenzielle Gefahrenstellen in der Wegplanung simuliert werden.As in the case of the described human-robot collaboration (MRK) application, the application planning of workstations can also be carried out, for example, in the case of an autonomous mobile robot application (AMR). For this purpose, the user creates a 3D environment model in the virtual environment 9. By placing markings 2 or markers that are linked to virtual sensors 10 and their properties, securing the danger point can be simulated and visualized. The user can also plan and simulate his application in augmented reality, save sensor configurations and place an individualized order via the app. In addition, not only workstations can be simulated and visualized in an autonomous mobile robot application (AMR), but also path sections. For this purpose, a live 3D environmental model can be created and potential danger points can be simulated in the route planning.

Gemäß 3 ist der Lichtlaufzeitsensor 6 beispielsweise ein Laserscanner oder eine 3D-Lichtlaufzeitkamera.According to 3 the time-of-flight sensor 6 is, for example, a laser scanner or a 3D time-of-flight camera.

Sensorkonfigurationen des virtuellen Sensors 10, z.B. eine Schutzfeldgröße eines virtuellen Laserscanners, können anhand des Umweltmodells und des über die Markierungen 2 aufgespannten gewünschten Wirkbereichs von virtuellen Sensoren 10 gespeichert werden und beispielsweise einem Kunden im Rahmen des Bestellprozesses für reale Sensoren zur Verfügung gestellt werden. Neben der einfachen und schnellen Planung von Applikationen unterstützt die Sensorkonfiguration ebenfalls die Einrichtung der realen Applikation.Sensor configurations of the virtual sensor 10, e.g. a protective field size of a virtual laser scanner, can be stored using the environmental model and the desired effective range of virtual sensors 10 spanned by the markings 2 and, for example, made available to a customer as part of the ordering process for real sensors. In addition to the simple and fast planning of applications, the sensor configuration also supports the setup of the real application.

Gemäß 3 sind beispielsweise zwei Markierungen 2 beispielsweise an einem Roboter 15 ortsfest angeordnet und sollen einen bestimmten Bereich um den Roboter 15 erfassen und absichern. Es ist beispielsweise vorgesehen, dass man diesen Bereich ebenfalls per mobilem Endgerät 17 in der Applikation eingibt bzw. einzeichnet und somit Bereiche identifiziert, die nicht von den Sicherheitssensoren in ihrer aktuellen Anbringung und Konfiguration erfasst werden. Solche Bereiche entstehen z.B. hinter statischen Objekten, an denen die Schutzfelder aufgrund der eingelernten Umgebungsdaten abgeschnitten werden. Hier können beispielsweise wie in 4 dargestellt Warnhinweise, beispielsweise symbolisch mit Ausrufezeichen in der virtuellen Umgebung angezeigt werden.According to 3 For example, two markings 2 are stationarily arranged on a robot 15 and are intended to capture and secure a specific area around the robot 15 . It is provided, for example, that this area is also entered or drawn in the application using a mobile terminal device 17 and thus areas that are not detected by the safety sensors in their current attachment and configuration are identified. Such areas arise, for example, behind static objects where the protective fields are cut off due to the taught-in environmental data. Here, for example, as in 4 displayed warnings, for example symbolically with exclamation marks in the virtual environment.

Auch an bewegten Hindernissen, wie z.B. der Person 18 oder der mobilen Plattform 16 können die Schutzfelder unterbrochen bzw. abgeschnitten werden. Prinzipiell sind auch Markierungen 2 an beweglichen Maschinenteilen oder Fahrzeugen vorgesehen.The protective fields can also be interrupted or cut off at moving obstacles, such as the person 18 or the mobile platform 16. In principle, markings 2 are also provided on moving machine parts or vehicles.

Eine Korrespondenz zwischen den Markierungen 2 und den virtuellen Sensoren 10 kann beispielsweise wie folgt aussehen:

  • Die Datenmodelle von virtuellen Sensoren 10 sind beispielsweise in einer Bibliothek der Datenbank 4 abgelegt. Diese Bibliothek umfasst beispielsweise für jeden Sensor das 3D-CAD-Modell, einen Wirkbereich und ein Set an Funktionen. Zusätzlich werden beispielsweise für jeden Sensor Metadaten abgelegt, diese können beispielsweise einen Sensortyp (z. B. Laserscanner, 3D-Lichtlaufzeitkamera, etc), physikalische Anschlüsse (z. B. Ethernet, IO-Link, etc) oder einen Performance Level umfassen. Die Bibliothek bzw. Sensorbibliothek kann mit Suchfiltern ausgestattet sein, so dass der Anwender entscheiden kann, welche virtuellen Sensoren 10 er für die Zuordnung verwenden möchte (z.B. eine 3D-Lichtlaufzeitkamera mit 940 nm Wellenlänge, 3 m Reichweite, 70° Sichtbereich und Ethernet Anschluss). Einem morphologischen Kasten ähnelnd können den Markierungen unterschiedliche Sensoren zugeordnet werden, die dann zur Planung der Applikation verwendet werden.
A correspondence between the markings 2 and the virtual sensors 10 can look like this, for example:
  • The data models of virtual sensors 10 are stored in a library in database 4, for example. For example, this library includes the 3D CAD model for each sensor, an effective range and a set of functions. In addition, metadata is stored for each sensor, for example, which can include a sensor type (e.g. laser scanner, 3D time-of-flight camera, etc.), physical connections (e.g. Ethernet, IO-Link, etc.) or a performance level. The library or sensor library can be equipped with search filters so that the user can decide which virtual sensors 10 he would like to use for the assignment (e.g. a 3D time-of-flight camera with a wavelength of 940 nm, a range of 3 m, a field of view of 70° and an Ethernet connection). . Similar to a morphological box, different sensors can be assigned to the markings, which are then used to plan the application.

Gemäß 3 und 4 sind die Markierungen 2 zweidimensionale Matrixkodierungen. Dabei ist aus der zweidimensionalen Matrixkodierung die eindeutige Richtung und die eindeutige Orientierung der Markierung 2 erkennbar und ermittelbar. Die Matrixkodierung kann optional die Art des Sensors, sowie weitere Eigenschaften des Sensors, wie beispielsweise eine Schutzfeldgröße, eine Schutzfeldrichtung und eine Schutzfeldorientierung aufzeigen.According to 3 and 4 the markings are 2 two-dimensional matrix codes. The unambiguous direction and the unambiguous orientation of the marking 2 can be recognized and determined from the two-dimensional matrix coding. The matrix coding can optionally show the type of sensor and other properties of the sensor, such as a protective field size, a protective field direction and a protective field orientation.

Gemäß 3 ist die Markierung 2 mittels einer Haltevorrichtung in der realen Umgebung angeordnet.According to 3 the marking 2 is arranged in the real environment by means of a holding device.

Beispielsweise sind universell passende Aufhängungen vorgesehen, um die Markierungen 2 zur Planung möglichst frei in der Applikation platzieren zu können. Beispielsweise ist ein modulares Anbringungskonzept bestehend aus Grundplatte mit der Markierung in Kombination mit wahlweise einer magnetischen Vorrichtung, einer Klebevorrichtung, einer Klemmvorrichtung und/oder einer Schraubvorrichtung vorgesehen.For example, universally suitable suspensions are provided in order to be able to place the markings 2 as freely as possible in the application for planning purposes. For example, a modular attachment concept consisting of a base plate with the marking in combination with either a magnetic device, an adhesive device, a clamping device and/or a screw device is provided.

Beispielsweise ist die Position und Orientierung einer zweiten Markierung 2 mit einem virtuellen Objekt verknüpft, wobei das virtuelle Objekt in dem räumlichen Modell der Umgebung auf der Anzeigeeinheit an der Position und mit der Orientierung der zweiten Markierung 2 angezeigt wird.For example, the position and orientation of a second marker 2 is linked to a virtual object, the virtual object in which spatial model of the environment is displayed on the display unit at the position and with the orientation of the second marker 2.

Bei dem virtuellen Objekt kann es sich beispielsweise um eine virtuelle Maschine, eine virtuelle Absperrung, ein virtuelles Lager, um virtuelles Material, um virtuelle Werkstücke oder ähnliches handeln.The virtual object can be, for example, a virtual machine, a virtual barrier, a virtual warehouse, virtual material, virtual workpieces or the like.

Auch die Bewegungen, Laufwege, Eingriffe usw. einer Person 18 können mittels ähnlicher Technik in eine Simulation bzw. die virtuelle Umgebung überführt werden. Hierzu können Markierungen 2 bzw. Marker an den Gelenken der Person 18 angebracht werden und die Bewegungen aufgenommen und angezeigt werden.The movements, walking routes, interventions, etc. of a person 18 can also be transferred to a simulation or the virtual environment using similar technology. For this purpose, markings 2 or markers can be attached to the joints of the person 18 and the movements can be recorded and displayed.

Gemäß 3 ist die Anzeigeeinheit beispielsweise ein Smartphone, ein Tablet-Rechner, eine Augmented-Reality-Brille/Headset oder eine Virtual-Reality-Brille/Headset.According to 3 the display unit is, for example, a smartphone, a tablet computer, augmented reality glasses/headset or virtual reality glasses/headset.

Als mobile bzw. digitale Endgeräte 17 kommen somit Geräte oder Systeme in Frage, die mit mindestens einer Kamera und einer Möglichkeit zur Visualisierung ausgestattet sind.Devices or systems that are equipped with at least one camera and a visualization option can therefore be used as mobile or digital terminals 17 .

Gemäß 3 weisen die Markierungen 2 beispielsweise einen Transponder auf.According to 3 the markings 2 have a transponder, for example.

Es ist beispielsweise vorgesehen, dass die visuellen Markierungen zusätzlich mit Funkortung versehen werden, beispielsweise mit UWB Technik.For example, it is provided that the visual markings are additionally provided with radio location, for example with UWB technology.

Bezugszeichenlistereference list

11
Systemsystem
22
Markierungmark
33
Steuer- und AuswerteeinheitControl and evaluation unit
44
DatenbankDatabase
55
Anzeigeeinheitdisplay unit
66
3D-Sensor3D sensor
77
Kameracamera
88th
reale Umgebungreal environment
99
virtuelle Umgebungvirtual environment
1010
virtuelles Sensormodell/virtueller Sensorvirtual sensor model/virtual sensor
1111
virtuelles Schutzfeldvirtual protective field
1515
Roboterrobot
1616
mobile Plattformenmobile platforms
1717
digitales Endgerätdigital device
1818
Personperson

Claims (14)

System (1) zur Planung einer Anwendung mit mindestens einer Markierung (2), mit einer Steuer- und Auswerteeinheit (3), mit einer Datenbank (4), mit einer Anzeigeeinheit (5), und mit mindestens einem räumlichen Modell einer realen Umgebung, und mindestens einer Kamera (7) zur Abbildung der realen Umgebung (8), wobei die reale Umgebung (8) in dem räumlichen Modell als virtuelle Umgebung (9) auf der Anzeigeeinheit (5) anzeigbar ist, wobei die Markierung (2) in der realen Umgebung (8) an einer Position und mit einer Orientierung angeordnet ist, wobei die Position und die Orientierung der Markierung (2) mindestens von der Kamera (7) erfassbar sind, wobei die Position und Orientierung der Markierung (2) mit einem virtuellen Sensormodell (10) verknüpft ist, wobei das virtuelle Sensormodell (10) in dem räumlichen Modell der virtuellen Umgebung (9) auf der Anzeigeeinheit an der Position und mit der Orientierung der Markierung (2) anzeigbar ist, wobei das virtuelle Sensormodell (10) mindestens einen virtuellen Erfassungsbereich (11) aufweist, wobei der virtuelle Erfassungsbereich (11) im dem räumlichen Modell der virtuellen Umgebung (9) auf der Anzeigeeinheit (5) anzeigbar ist.System (1) for planning an application with at least one marking (2), with a control and evaluation unit (3), with a database (4), with a display unit (5), and with at least one spatial model of a real environment, and at least one camera (7) for imaging the real environment (8), wherein the real environment (8) in the spatial model can be displayed as a virtual environment (9) on the display unit (5), wherein the marking (2) is arranged in the real environment (8) at a position and with an orientation, the position and the orientation of the marking (2) being detectable at least by the camera (7), the position and orientation of the marking (2) being linked to a virtual sensor model (10), wherein the virtual sensor model (10) can be displayed in the spatial model of the virtual environment (9) on the display unit at the position and with the orientation of the marking (2), wherein the virtual sensor model (10) has at least one virtual detection area (11), wherein the virtual detection area (11) can be displayed in the spatial model of the virtual environment (9) on the display unit (5). System (1) nach Anspruch 1, dadurch gekennzeichnet, dass das räumliche Modell auf Basis einer realen Umgebung als CAD-Modell vorhanden ist.System (1) after claim 1 , characterized in that the spatial model is available on the basis of a real environment as a CAD model. System (1) nach Anspruch 1, dadurch gekennzeichnet, dass das räumliche Modell mittels einem 3D-Sensor (6) gebildet wird oder gebildet wurde.System (1) after claim 1 , characterized in that the spatial model is formed or was formed by means of a 3D sensor (6). System (1) nach Anspruch 3, dadurch gekennzeichnet, dass die Position und die Orientierung der Markierung (2) von dem 3D-Sensor (6) und der Kamera (7) erfassbar sind.System (1) after claim 3 , characterized in that the position and the orientation of the marking (2) can be detected by the 3D sensor (6) and the camera (7). System (1) nach Anspruch 3, dadurch gekennzeichnet, dass der 3D-Sensor (6) eine Stereokamera oder ein Lichtlaufzeitsensor ist.System (1) after claim 3 , characterized in that the 3D sensor (6) is a stereo camera or a time-of-flight sensor. System (1) nach Anspruch 1, dadurch gekennzeichnet, dass der Lichtlaufzeitsensor ein Laserscanner oder eine 3D-Lichtlaufzeitkamera ist.System (1) after claim 1 , characterized in that the time-of-flight sensor is a laser scanner or a 3D time-of-flight camera. System (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Markierungen (2) mindestens zweidimensionale Matrixkodierungen sind.System (1) according to one of the preceding claims, characterized in that the markings (2) are at least two-dimensional matrix codes. System (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Markierungen (2) mindestens reale 3D-Modelle sind.System (1) according to one of the preceding claims, characterized in that the markings (2) are at least real 3D models. System (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Markierung (2) mittels einer Haltevorrichtung in der realen Umgebung (8) angeordnet ist.System (1) according to one of the preceding claims, characterized in that the marking (2) is arranged in the real environment (8) by means of a holding device. System (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Position und Orientierung einer zweiten Markierung (2) mit einem virtuellen Objekt verknüpft ist, wobei das virtuelle Objekt in dem räumlichen Modell der virtuellen Umgebung (9) auf der Anzeigeeinheit (5) an der Position und mit der Orientierung der zweiten Markierung (2) angezeigt wird.System (1) according to one of the preceding claims, characterized in that the position and orientation of a second marking (2) is linked to a virtual object, the virtual object being displayed in the spatial model of the virtual environment (9) on the display unit (5 ) is displayed at the position and orientation of the second marker (2). System (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Anzeigeeinheit (5) ein Smartphone, ein Tablet-Rechner, eine Augmented-Reality-Brille/Headset oder eine Virtual-Reality-Brille/Headset ist.System (1) according to one of the preceding claims, characterized in that the display unit (5) is a smartphone, a tablet computer, augmented reality glasses/headset or virtual reality glasses/headset. System (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Markierungen (2) mindestens einen Transponder aufweisen.System (1) according to one of the preceding claims, characterized in that the markings (2) have at least one transponder. System (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das virtuelle Sensormodell konfigurierbar ist, wobei die Konfiguration des virtuellen Sensormodells auf den realen Sensor übertragbar ist.System (1) according to one of the preceding claims, characterized in that the virtual sensor model can be configured, the configuration of the virtual sensor model being transferrable to the real sensor. System (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass nach einer virtuellen Planung mindestens eine virtuelle Lösung in eine Simulation überführt wird.System (1) according to one of the preceding claims, characterized in that after virtual planning at least one virtual solution is converted into a simulation.
DE202021106457.9U 2021-11-26 2021-11-26 system Active DE202021106457U1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE202021106457.9U DE202021106457U1 (en) 2021-11-26 2021-11-26 system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE202021106457.9U DE202021106457U1 (en) 2021-11-26 2021-11-26 system

Publications (1)

Publication Number Publication Date
DE202021106457U1 true DE202021106457U1 (en) 2023-03-02

Family

ID=85705205

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202021106457.9U Active DE202021106457U1 (en) 2021-11-26 2021-11-26 system

Country Status (1)

Country Link
DE (1) DE202021106457U1 (en)

Similar Documents

Publication Publication Date Title
EP3529675B1 (en) Interior person-tracking-based control of manufacturing in the metalworking industry
DE102019006800B4 (en) Robot controller and display device using augmented reality and mixed reality
EP2048557B1 (en) Optoelectronic sensor and mobile device and configuration method
DE102017107357A1 (en) Absortierunterstützungsverfahren, Absortiersystem and flatbed machine tool
WO2018073420A1 (en) Method for assisting with sorting, sorting system and flatbed machine tool
DE102016120131A1 (en) Absortierunterstützungsverfahren and flatbed machine tool
EP2561417B1 (en) Method for inputting a spatial structure of production devices to a computer-aided planning program and for optimizing the latter
EP1447770A2 (en) Method and apparatus for visualization of computer-based information
DE102017128543A1 (en) INTERFERENCE ADJUSTMENT DEVICE FOR A MOBILE ROBOT
DE102017120383A1 (en) INDOOR PERSONAL RANGE-BASED MANUFACTURING MANAGEMENT IN THE METAL-PROCESSING INDUSTRY
EP3467623B1 (en) Method for an assembly workstation, assembly workstation, computer program and computer readable medium
DE102017213601A1 (en) Method of creating an object map for a factory environment
EP3324362A1 (en) Method and device for commissioning multi-axis system
DE102017125103A1 (en) ADJUSTMENT DEVICE AND ADJUSTMENT SYSTEM FOR CONFIGURING ADJUSTMENTS FOR A MULTIPLE OF MACHINES
EP3865257A1 (en) Device and method for monitoring and controlling a technical working system
WO2019092117A1 (en) Method and apparatus for providing a workpiece representation at a production station
DE102018132921A1 (en) Method for operating a field device of automation technology in an augmented reality / mixed reality environment
EP3974936B1 (en) Configuration of a visualisation device for a machine area
DE202014000433U1 (en) Device for detecting and displaying three-dimensional objects
DE102021131060B3 (en) System and method with a system
DE102013015164B4 (en) Method for designing a clean room and method for the production of pharmaceutical products with a navigation system
DE202021106457U1 (en) system
WO1998013745A2 (en) Interaction area for data representation
DE102014104673A1 (en) Process support system and method for supporting a process
DE102022129804A1 (en) SYSTEM AND METHOD OF CONFIGURING AUGMENTED REALITY ON A CONSTRUCTION SITE

Legal Events

Date Code Title Description
R207 Utility model specification