DE102018125266B3 - Method and robot system for entering a workspace - Google Patents
Method and robot system for entering a workspace Download PDFInfo
- Publication number
- DE102018125266B3 DE102018125266B3 DE102018125266.8A DE102018125266A DE102018125266B3 DE 102018125266 B3 DE102018125266 B3 DE 102018125266B3 DE 102018125266 A DE102018125266 A DE 102018125266A DE 102018125266 B3 DE102018125266 B3 DE 102018125266B3
- Authority
- DE
- Germany
- Prior art keywords
- image
- points
- laser
- robot system
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 41
- 238000010191 image analysis Methods 0.000 claims abstract description 13
- 238000011156 evaluation Methods 0.000 claims abstract description 12
- 230000008859 change Effects 0.000 claims description 5
- 238000012544 monitoring process Methods 0.000 claims description 2
- 238000004891 communication Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000005693 optoelectronics Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0234—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
- G05D1/0236—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Optics & Photonics (AREA)
- Electromagnetism (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Robotersystem (15) zur Eingabe eines Arbeitsbereichs (4) in einem Überwachungsbereich (14), wobei das Robotersystem (15) als eine Eingabeeinheit einen Laserpointer (2) zur Eingabe von Laserpunkten (3) durch einen Benutzer (1) aufweist,
wobei das Robotersystem (15) eine erste Kamera (6) zur Aufnahme eines ersten Bilds des Überwachungsbereichs (14) aus einem ersten Blickwinkel aufweist,
wobei das Robotersystem (15) eine mobile Robotereinheit (9) mit einer zweiten Kamera (10) zur Aufnahme eines zweiten Bilds des Überwachungsbereichs (14) aus einem zweiten Blickwinkel aufweist,
wobei das Robotersystem (15) eine erste Bildanalyseeinheit (7) zur Erkennung von Laserpunkten (3) in dem ersten Bild und in dem zweiten Bild oder eine erste Bildanalyseeinheit (7) zur Erkennung von Laserpunkten in dem ersten Bild und eine zweite Bildanalyseeinheit (11) zur Erkennung von Laserpunkten in dem zweiten Bild aufweist,
dadurch gekennzeichnet, dass das Robotersystem (15) eine Auswerteeinheit (13) zur Ermittlung einer den Arbeitsbereich bestimmenden Polygonkette (5, 33) aus den erkannten Laserpunkten (3) aufweist.
A robot system (15) for inputting a work area (4) in a surveillance area (14), said robot system (15) having as an input unit a laser pointer (2) for input of laser spots (3) by a user (1),
the robot system (15) having a first camera (6) for taking a first image of the surveillance area (14) from a first viewing angle,
the robot system (15) having a mobile robot unit (9) with a second camera (10) for taking a second image of the surveillance area (14) from a second viewing angle,
wherein the robot system (15) comprises a first image analysis unit (7) for detecting laser spots (3) in the first image and in the second image or a first image analysis unit (7) for detecting laser spots in the first image and a second image analysis unit (11) for detecting laser spots in the second image,
characterized in that the robot system (15) has an evaluation unit (13) for determining a working region determining polygon chain (5, 33) from the detected laser points (3).
Description
Die Erfindung geht aus von einem System oder Verfahren zur Eingabe eines Arbeitsbereichs für einen mobilen Roboter nach Gattung der unabhängigen Ansprüche.The invention is based on a system or method for entering a work area for a mobile robot according to the preamble of the independent claims.
Aus der
Aus der
Aus der Veröffentlichung „Optical Guidance System für Multiple Mobile Robots“ (Proceedings of the 2001 IEEE International Conference on Robotics & Automation, Seoul, Korea, 2001 IEEE) ist bereits ein optisches Leitsystem für mobile Roboter bekannt. Dabei wird ein Laserpointer eingesetzt, der Zielpositionen für die mobilen Roboter auf den Boden projiziert.An optical guidance system for mobile robots is already known from the publication "Optical Guidance System for Multiple Mobile Robots" (Proceedings of the 2001 IEEE International Conference on Robotics and Automation, Seoul, Korea, 2001 IEEE). A laser pointer is used, which projects target positions for the mobile robots onto the ground.
Aus der Veröffentlichung „This Far, No Further: Introducing Virtual Borders to Mobile Robots Using a Laser Pointer“ (Arxiv preprint arxiv: 1708.06274, 2017) ist bereits ein Verfahren bekannt, bei dem ein Arbeitsbereich für einen mobilen Roboter durch einen Laserpointer eingegeben wird.From the publication "This Far, No Further: Introducing Virtual Borders to Mobile Robots Using a Laser Pointer" (Arxiv preprint arxiv: 1708.06274, 2017), there is already known a method in which a work area for a mobile robot is input through a laser pointer.
Ein optoelektronischer Sensor gemäß
Einen Ansatz für die Integration einer direkten multimodalen Mensch-Roboter-Interaktion mit einem Laserpointer und Sprache in eine experimentelle Multi-Roboter-Steuerungsstation beschreibt
Das erfindungsgemäße Robotersystem zur Eingabe eines Arbeitsbereichs in einem Überwachungsbereich mit den Merkmalen des unabhängigen Anspruchs 1 hat demgegenüber den Vorteil, dass es eine Auswerteeinheit zur Ermittlung einer den Arbeitsbereich bestimmenden Polygonkette aus Laserpunkten aufweist, die durch einen Benutzer mit einem Laserpointer eingegeben werden und die in mit einer ersten Kamera aus einem ersten Blickwinkel und einer zweiten Kamera aus einem zweiten Blickwinkel aufgenommenen Bildern erkannt werden. Denn mit der ersten Kamera und der zweiten Kamera, die mit einem mobilen Roboter verbunden ist, kann ein größerer Überwachungsbereich überwacht werden, in dem der Arbeitsbereich eingegeben werden kann.
Das erfindungsgemäße Verfahren zur Eingabe eines Arbeitsbereichs für einen mobilen Roboter mit den Verfahrensschritten des unabhängigen Anspruchs 2 hat zudem den Vorteil, dass aus Laserpunkten durch eine Projektion in einen dreidimensionalen Koordinatenraum eine Punktmenge in dem dreidimensionalen Koordinatenraum ermittelt wird, und aus der Punktmenge eine Polygonkette zur Bestimmung des Arbeitsbereichs ermittelt und ausgewertet wird. Denn so kann ein Benutzer den Arbeitsbereich komfortabel durch Einzeichnen mit dem Laserpointer in einem Überwachungsbereich eingeben. The inventive robot system for entering a work area in a surveillance area with the features of
The inventive method for entering a workspace for a mobile robot with the method steps of the
Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen der in den unabhängigen Ansprüchen angegebenen Vorrichtung möglich.The measures listed in the dependent claims advantageous refinements and improvements of the device specified in the independent claims are possible.
Es ist vorteilhaft, wenn das erfindungsgemäße Verfahren für den Überwachungsbereich Belegungswahrscheinlichkeiten festlegt. Denn somit kann der mobile Roboter die Belegungswahrscheinlichkeiten des Überwachungsbereichs zur Navigationsplanung verwenden. Ferner ist es vorteilhaft, wenn eine Auswertung der Belegungswahrscheinlichkeiten des Überwachungsbereichs in eine Verbotszone oder eine Erlaubniszone den Arbeitsbereich ergeben, damit für den mobilen Roboter Grenzen seines Bewegungsgebiets festgelegt werden. It is advantageous if the method according to the invention specifies occupancy probabilities for the surveillance area. For thus, the mobile robot can use the occupancy probabilities of the surveillance area for navigation planning. Furthermore, it is advantageous if an evaluation of the occupancy probabilities of the surveillance area in a prohibition zone or a permission zone result in the working area so that borders of its movement area are defined for the mobile robot.
Zudem ist es vorteilhaft, wenn zur Bestimmung des Arbeitsbereichs ein Kontrollpunkt aus den Laserpunkten ermittelt wird, wobei der Kontrollpunkt eine Änderung einer Belegungswahrscheinlichkeit des Arbeitsbereichs herbeiführt. Denn so können über eine Eingabe mit einem Laserpointer eine Verbotszone oder Erlaubniszone festgelegt werden, welche zur Ermittlung des Arbeitsbereichs ausgewertet werden.In addition, it is advantageous if a control point from the laser points is determined to determine the work area, wherein the control point brings about a change in an occupancy probability of the work area. This is because a prohibition zone or permission zone can be defined via an input with a laser pointer, which are evaluated to determine the work area.
Ferner ist es vorteilhaft, wenn das erfindungsgemäße Verfahren bei der Projektion in den dreidimensionalen Koordinatenraum ein Ebenenmodell verwendet. Denn somit wird die Berechnung der Projektion vereinfacht.Furthermore, it is advantageous if the method according to the invention uses a plane model when projecting into the three-dimensional coordinate space. Because thus the calculation of the projection is simplified.
Ferner ist es vorteilhaft, wenn bei dem erfindungsgemäßen Verfahren, das fortlaufend ein erstes Bild und ein zweites Bild erfasst, das erste Bild und/oder das zweite Bild Tiefeninformationen enthält. Denn somit werden Positionsberechnungen der Laserpunkte verbessert.Furthermore, it is advantageous if, in the method according to the invention, which continuously acquires a first image and a second image, the first image and / or the second image contains depth information. Because thus position calculations of the laser points are improved.
Besonders vorteilhaft ist es, wenn das erfindungsgemäße Verfahren bei der Ermittlung der Polygonkette eine Gruppierung von Punkten aus der Punktmenge durchführt. Denn somit können falsch erkannte oder falsch eingegebene Laserpunkte für die Ermittlung der Polygonkette herausgenommen werden.It is particularly advantageous if the method according to the invention carries out a grouping of points from the set of points when determining the polygon chain. Because thus wrongly recognized or incorrectly entered laser points for the determination of the polygon chain can be taken out.
Besonders vorteilhaft ist es, wenn das erfindungsgemäße Verfahren bei der Ermittlung der Polygonkette eine Ausdünnung von Punkten aus der Punktmenge durchführt. Denn somit können räumlich redundante Punkte für die Ermittlung der Polygonkette aussortiert werden.It is particularly advantageous if the method according to the invention performs thinning out of points in the determination of the polygon chain. Because thus spatially redundant points for the determination of the polygon chain can be sorted out.
Besonders vorteilhaft ist es, wenn das erfindungsgemäße Verfahren bei der Ermittlung der Polygonkette eine Untermenge von Punkten aus der Punktmenge verwendet. Denn somit kann eine schnelle Berechnung der Polygonkette erfolgen.It is particularly advantageous if the method according to the invention uses a subset of points from the point set in the determination of the polygon chain. Because thus a fast calculation of the polygon chain can take place.
Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert.Embodiments of the invention are illustrated in the drawings and explained in more detail in the following description.
Es zeigen
-
1 eine schematische Ansicht einer Ausführungsform eines erfindungsgemäßen Robotersystems, -
2 ein erfindungsgemäßes Verfahren, und -
3 eine beispielhafte Illustration eines Verfahrensschritts des erfindungsgemäßen Verfahrens.
-
1 a schematic view of an embodiment of a robot system according to the invention, -
2 a method according to the invention, and -
3 an exemplary illustration of a method step of the method according to the invention.
In der
Der Benutzer
Die erste Kamera
Der mobile Roboter
In der
Im ersten Verfahrensschritt
Im vierten Verfahrensschritt
Beispielsweise wird in dem vierten Verfahrensschritt
Beispielsweise wird in dem vierten Verfahrensschritt
In einem fünften Verfahrensschritt
In einem sechsten Verfahrensschritt
Claims (10)
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018125266.8A DE102018125266B3 (en) | 2018-10-12 | 2018-10-12 | Method and robot system for entering a workspace |
CN201980066721.3A CN112789570B (en) | 2018-10-12 | 2019-10-11 | Method and robot system for inputting a work area |
PCT/EP2019/077635 WO2020074722A1 (en) | 2018-10-12 | 2019-10-11 | Method and robot system for inputting a work area |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018125266.8A DE102018125266B3 (en) | 2018-10-12 | 2018-10-12 | Method and robot system for entering a workspace |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102018125266B3 true DE102018125266B3 (en) | 2019-11-28 |
Family
ID=68242675
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102018125266.8A Active DE102018125266B3 (en) | 2018-10-12 | 2018-10-12 | Method and robot system for entering a workspace |
Country Status (3)
Country | Link |
---|---|
CN (1) | CN112789570B (en) |
DE (1) | DE102018125266B3 (en) |
WO (1) | WO2020074722A1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019126903B3 (en) * | 2019-10-07 | 2020-09-24 | Fachhochschule Bielefeld | Method and robot system for entering a work area |
WO2023220556A1 (en) * | 2022-05-09 | 2023-11-16 | Continental Autonomous Mobility US, LLC | User-assisted drive-able area detection |
DE102022205884A1 (en) | 2022-06-09 | 2023-12-14 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein | System and method for recording elements of a workpiece using a pointing device |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4887223A (en) * | 1985-08-30 | 1989-12-12 | Texas Instruments Incorporated | Visual navigation system for a mobile robot having capabilities of regenerating of hidden images |
DE10215167C1 (en) * | 2002-04-05 | 2003-06-18 | Daimler Chrysler Ag | Command apparatus for semiautonomous system such as remote-controlled mobile robot detects beams from visible and infrared laser pointer held in operator's hand |
US20080063400A1 (en) * | 2006-05-12 | 2008-03-13 | Irobot Corporation | Method and Device for Controlling a Remote Vehicle |
DE102008054863A1 (en) * | 2008-12-18 | 2010-07-01 | Ifm Electronic Gmbh | System for controlling robot based on light spots for sorting luggage pieces, has camera for detection of light spots, and light source designed such that light spots with less than or equal to half refresh rate of camera appear bright |
DE202009012589U1 (en) * | 2009-09-16 | 2011-02-03 | Sick Ag | Optoelectronic sensor |
AT512350B1 (en) * | 2011-12-20 | 2017-06-15 | Isiqiri Interface Tech Gmbh | COMPUTER PLANT AND CONTROL PROCESS THEREFOR |
DE102016224693A1 (en) * | 2016-12-12 | 2018-06-14 | Kuka Roboter Gmbh | Apparatus and method for coupling a portable handheld with a manipulator |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101251784B (en) * | 2008-04-03 | 2010-06-30 | 上海交通大学 | Laser pen indication and luminescent spot track recognizing method |
EP3084538B1 (en) * | 2013-12-19 | 2017-11-01 | Aktiebolaget Electrolux | Robotic cleaning device with perimeter recording function |
CN204790564U (en) * | 2015-06-23 | 2015-11-18 | 现代富博(天津)智能装备科技有限公司 | Delimitation device of trajectory of independently walking |
CN105955255B (en) * | 2016-04-26 | 2020-05-26 | 联想(北京)有限公司 | Control method, device, controller and control system |
DE102017203055A1 (en) * | 2017-02-24 | 2018-08-30 | Robert Bosch Gmbh | Method for detecting at least one working area of an autonomous implement |
DE102017104428A1 (en) * | 2017-03-02 | 2018-09-06 | RobArt GmbH | Method for controlling an autonomous, mobile robot |
-
2018
- 2018-10-12 DE DE102018125266.8A patent/DE102018125266B3/en active Active
-
2019
- 2019-10-11 CN CN201980066721.3A patent/CN112789570B/en active Active
- 2019-10-11 WO PCT/EP2019/077635 patent/WO2020074722A1/en active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4887223A (en) * | 1985-08-30 | 1989-12-12 | Texas Instruments Incorporated | Visual navigation system for a mobile robot having capabilities of regenerating of hidden images |
DE10215167C1 (en) * | 2002-04-05 | 2003-06-18 | Daimler Chrysler Ag | Command apparatus for semiautonomous system such as remote-controlled mobile robot detects beams from visible and infrared laser pointer held in operator's hand |
US20080063400A1 (en) * | 2006-05-12 | 2008-03-13 | Irobot Corporation | Method and Device for Controlling a Remote Vehicle |
DE102008054863A1 (en) * | 2008-12-18 | 2010-07-01 | Ifm Electronic Gmbh | System for controlling robot based on light spots for sorting luggage pieces, has camera for detection of light spots, and light source designed such that light spots with less than or equal to half refresh rate of camera appear bright |
DE202009012589U1 (en) * | 2009-09-16 | 2011-02-03 | Sick Ag | Optoelectronic sensor |
AT512350B1 (en) * | 2011-12-20 | 2017-06-15 | Isiqiri Interface Tech Gmbh | COMPUTER PLANT AND CONTROL PROCESS THEREFOR |
DE102016224693A1 (en) * | 2016-12-12 | 2018-06-14 | Kuka Roboter Gmbh | Apparatus and method for coupling a portable handheld with a manipulator |
Non-Patent Citations (3)
Title |
---|
Boris A Trouvain, Frank E. Schneider, Dennis Wildermuth; Integrating a multimodal human-robot interaction method into a multi-robot control station; IEEE International Workshop on Robot and Human Interacitve Communication; 2001, Seiten 468 - 472; ISBN 0-7803-7222-0/01 * |
PAROMTCHIK, I. E. ; ASAMA, H.: Optical guidance system for multiple mobile robots. In: Proceedings 2001 ICRA. IEEE International Conference on Robotics and Automation, Bd. 3, 2001, S. 2935-2940. - ISSN 1050-4729 (p). DOI: 10.1109/ROBOT.2001.933067. URL: https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=933067 [abgerufen am 2019-01-04]. * |
SPRUTE, Dennis ; TÖNNIES, Klaus ; KÖNIG, Matthias; Cornell University: This far, no further: Introducing virtual borders to mobile robots using a laser pointer. 21-08-2017. arXiv:1708.06274. S. 1-8. URL: https://arxiv.org/pdf/1708.06274 [abgerufen am 2019-01-04]. * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019126903B3 (en) * | 2019-10-07 | 2020-09-24 | Fachhochschule Bielefeld | Method and robot system for entering a work area |
WO2023220556A1 (en) * | 2022-05-09 | 2023-11-16 | Continental Autonomous Mobility US, LLC | User-assisted drive-able area detection |
DE102022205884A1 (en) | 2022-06-09 | 2023-12-14 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein | System and method for recording elements of a workpiece using a pointing device |
DE102022205884B4 (en) | 2022-06-09 | 2024-01-11 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein | System and method for recording elements of a workpiece using a pointing device |
Also Published As
Publication number | Publication date |
---|---|
CN112789570B (en) | 2024-08-27 |
WO2020074722A1 (en) | 2020-04-16 |
CN112789570A (en) | 2021-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102017128543B4 (en) | NOISE ZONE ADJUSTMENT DEVICE FOR A MOBILE ROBOT | |
DE102017120614B4 (en) | Robot system with a programming pendant that communicates with a robot controller | |
EP2048557B1 (en) | Optoelectronic sensor and mobile device and configuration method | |
DE102018125266B3 (en) | Method and robot system for entering a workspace | |
EP3680648A1 (en) | Port machinery inspection device and inspection method | |
DE112017008358B3 (en) | Vision-based robot control system | |
DE10164278A1 (en) | Cleaning robot, cleaning robot system and method for controlling it | |
DE102015015503A1 (en) | A robotic system having an augmented reality compatible display | |
DE102019122760A1 (en) | SELF-DRIVING MOBILE ROBOTS USING HUMAN-ROBOT INTERACTIONS | |
DE102017118383A1 (en) | Method for operating a self-propelled cleaning device | |
DE102021103726B4 (en) | Measurement parameter optimization method and device and computer control program | |
DE102017202782A1 (en) | security scanners | |
DE102019212452A1 (en) | Interference avoidance device and robot system | |
DE102016008553B4 (en) | System comprising a motor vehicle and an unmanned aircraft and method for detecting conditions in an environment of a motor vehicle | |
DE102017108194A1 (en) | Method for operating a self-propelled vehicle | |
DE10215885A1 (en) | Automatic process control | |
DE102018101162A1 (en) | Measuring system and method for extrinsic calibration | |
DE102017001707A1 (en) | Notification of an estimated movement path of a vehicle | |
DE102017100885B4 (en) | METHOD AND DEVICE FOR GENERATING AND PROJECTING A 3D THERMOGRAM COMPLETE WITH DATA ON THE RECORDING CONDITIONS | |
DE102018008282A1 (en) | Device and method for detecting flying objects | |
DE102019126903B3 (en) | Method and robot system for entering a work area | |
DE202017004902U1 (en) | Data-technical device for the organization of work processes in which the cooperation of humans and machines is controlled intralogistically with optimal protection effect of the involved humans | |
EP3428759B1 (en) | Method for operating an automatically moving service device | |
EP4043914A1 (en) | Six-dof measuring aid | |
EP4186651B1 (en) | System and method with a system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R081 | Change of applicant/patentee |
Owner name: ROBERT BOSCH GMBH, DE Free format text: FORMER OWNER: FACHHOCHSCHULE BIELEFELD, 33619 BIELEFELD, DE |
|
R082 | Change of representative | ||
R020 | Patent grant now final |