DE102021114265A1 - Robotic device set up to determine a target object position of a predetermined target object and method - Google Patents
Robotic device set up to determine a target object position of a predetermined target object and method Download PDFInfo
- Publication number
- DE102021114265A1 DE102021114265A1 DE102021114265.2A DE102021114265A DE102021114265A1 DE 102021114265 A1 DE102021114265 A1 DE 102021114265A1 DE 102021114265 A DE102021114265 A DE 102021114265A DE 102021114265 A1 DE102021114265 A1 DE 102021114265A1
- Authority
- DE
- Germany
- Prior art keywords
- target object
- reference marking
- robot device
- relation
- predetermined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40604—Two camera, global vision camera, end effector neighbourhood vision camera
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/45—Nc applications
- G05B2219/45063—Pick and place manipulator
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Abstract
Die Erfindung betrifft eine Vorrichtung Robotervorrichtung (1), eingerichtet zur Ermittlung einer Zielobjektlage (5) eines vorbestimmten Zielobjekts (4) in Bezug auf die Robotervorrichtung (1), wobei die Robotervorrichtung (1) eine optische Erfassungseinrichtung (6) und eine Steuereinrichtung (3), in der eine vorbestimmte Referenzmarkierung (8) und eine vorbestimmte Referenzlage (9) der Referenzmarkierung (8) in Bezug auf das vorbestimmte Zielobjekt gespeichert sind, aufweist. Die Steuereinrichtung (3) ist dazu eingerichtet, die vorbestimmte Referenzmarkierung (8) zu erfassen, und eine Verzerrung der vorbestimmten Referenzmarkierung (8) zu ermitteln, aus der Verzerrung der Referenzmarkierung (8) eine Raumlage der Referenzmarkierung (8) in Bezug auf die Robotervorrichtung (1) zu ermitteln, und aus der Raumlage der Referenzmarkierung (8) in Bezug auf die Robotervorrichtung (1) und der Referenzlage (9) der Referenzmarkierung (8) in Bezug auf das Zielobjekt (4) die Zielobjektlage (5) des Zielobjekts (4) in Bezug auf die Robotervorrichtung (1) zu ermitteln.The invention relates to a robotic device (1) set up to determine a target object position (5) of a predetermined target object (4) in relation to the robotic device (1), the robotic device (1) having an optical detection device (6) and a control device (3 ) in which a predetermined reference marking (8) and a predetermined reference position (9) of the reference marking (8) are stored in relation to the predetermined target object. The control device (3) is set up to detect the predetermined reference marking (8) and to determine a distortion of the predetermined reference marking (8), from the distortion of the reference marking (8) a spatial position of the reference marking (8) in relation to the robot device (1) to determine, and from the spatial position of the reference marking (8) in relation to the robot device (1) and the reference position (9) of the reference marking (8) in relation to the target object (4), the target object position (5) of the target object ( 4) to be determined in relation to the robot device (1).
Description
Die Erfindung betrifft eine Robotervorrichtung, die zur Ermittlung einer Zielobjektlage eines vorbestimmten Zielobjekts in Bezug auf die Robotervorrichtung eingerichtet ist und ein Verfahren zum Betreiben einer Robotervorrichtung zur Ermittlung einer Zielobjektlage eines vorbestimmten Zielobjekts in Bezug auf eine Robotervorrichtung.The invention relates to a robot device that is set up to determine a target object position of a predetermined target object in relation to the robot device and a method for operating a robot device to determine a target object position of a predetermined target object in relation to a robot device.
In der Logistik ist es bereits üblich, automatisierte Verfahren zur Einsortierung von Objekten zu verwenden. Hierfür werden Robotervorrichtungen eingesetzt, welche beispielsweise Greifroboter oder Gabelstapler sein können. Diese Robotervorrichtungen können die einzusortierenden Objekte visuell erfassen und automatisiert einsortieren. Um ein Aufnehmen des jeweiligen Objektes zu ermöglichen, ist es erforderlich, dass eine genaue Raumlage des Objekts in Bezug auf die Robotervorrichtungen bestimmt wird. Die Raumlage weist sechs Freiheitsgrade auf, diese umfassen Translationen entlang der drei Raumrichtungen und Rotationen um die drei Raumrichtungen. Die Erfassung dieser Objekte und ihrer sechs Freiheitsgrade erfolgt nachdem gegenwärtigen Stand der Technik durch maschinelles Sehen. Dabei werden komplexe Bildauswertungsalgorithmen und/oder Methoden unter Anwendung künstlicher Intelligenz verwendet. Während der Auswertung können beispielsweise Kanten des Objekts erfasst werden und aus den ermittelten Kanten die Raumlage des Objekts abgeleitet werden. Bei den hierbei angewandten Verfahren können jedoch Schwierigkeiten und Ungenauigkeiten bei der Ermittlung der Raumlage des Objekts auftreten. Das kann dazu führen, dass durch einfachere Algorithmen keine ausreichend zuverlässigen Lagedaten des Objekts ermittelt werden. Aus diesem Grund werden komplexere Algorithmen verwendet, welche zuverlässigere Lagedaten ermitteln, jedoch einen höheren Rechenaufwand erfordern. Manche dieser Algorithmen erfordern ein manuelles Anlernen der Robotervorrichtung, um eine Erkennung des Objektes und ein Bewegen des Objektes durch die Robotervorrichtung zu ermöglichen.In logistics, it is already common to use automated methods to sort objects. For this purpose, robotic devices are used, which can be gripping robots or forklifts, for example. These robot devices can visually detect the objects to be sorted and automatically sort them. In order to enable the respective object to be recorded, it is necessary for an exact spatial position of the object to be determined in relation to the robot devices. The spatial position has six degrees of freedom, these include translations along the three spatial directions and rotations around the three spatial directions. According to the current state of the art, these objects and their six degrees of freedom are captured by machine vision. In this case, complex image evaluation algorithms and/or methods using artificial intelligence are used. For example, edges of the object can be detected during the evaluation and the spatial position of the object can be derived from the determined edges. With the methods used here, however, difficulties and inaccuracies can occur when determining the position of the object in space. This can result in simpler algorithms not being able to determine sufficiently reliable position data of the object. For this reason, more complex algorithms are used, which determine more reliable position data, but require more computing effort. Some of these algorithms require manual training of the robotic device to enable the robotic device to recognize and move the object.
In der Veröffentlichung Wang, John, and Edwin Olson. „AprilTag 2: Efficient and robust fiducial detection.“ 2016 IEEEIRSJ International Conference on Intelligent Robots and Systems (IROS). IEEE, 2016; ist ein Verfahren zur effizienten und robusten Erfassung von zweidimensionalen visuellen Bezugsmarken offenbart. In der Veröffentlichung wird ein Anbringen der zweidimensionalen Bezugsmarken auf Objekten beschrieben. Für eine Erfassung einer Lage der Markierungsmarken wird ein Algorithmus bereitgestellt. Dadurch ist es möglich, die Lage der Objekte, an denen die Bezugsmarken angeordnet sind zu ermitteln. Die zweidimensionalen Bezugsmarken des Typs AprilTags sind dabei zur Ermöglichung einer automatisierten Erfassung ausgelegt.In the publication Wang, John, and Edwin Olson. "AprilDay 2: Efficient and robust fiducial detection." 2016 IEEEIRSJ International Conference on Intelligent Robots and Systems (IROS). IEEE, 2016; a method for efficient and robust detection of two-dimensional visual fiducials is disclosed. The publication describes the attachment of the two-dimensional reference marks to objects. An algorithm is provided for detecting a position of the markers. This makes it possible to determine the position of the objects on which the reference marks are arranged. The two-dimensional reference marks of the AprilTags type are designed to enable automated recording.
Die
Es ist eine Aufgabe der Erfindung, eine zuverlässige Methode zur Bereitstellung von Lagedaten für eine Robotervorrichtung zu ermöglichen.It is an object of the invention to enable a reliable method for providing positional data for a robotic device.
Diese Aufgabe wird erfindungsgemäß durch eine Robotervorrichtung mit den Merkmalen gemäß dem unabhängigen Patentanspruch 1 und einem Verfahren mit den Merkmalen gemäß dem unabhängigen Patentanspruch 10 gelöst. Vorteilhafte Ausführungen der Erfindung sind Gegenstand der abhängigen Patentansprüche und der Beschreibung, sowie der Figuren.According to the invention, this object is achieved by a robot device having the features according to
Ein erster Aspekt der Erfindung betrifft eine Robotervorrichtung, eingerichtet zur Ermittlung einer Zielobjektlage eines vorbestimmten Zielobjekts in Bezug auf die Robotervorrichtung. Die Robotervorrichtung kann für einen Einsatz in der Logistik vorgesehen sein, um das Zielobjekt zu bewegen. Ein mögliches Anwendungsgebiet kann beispielsweise eine Lagerhalle oder eine Werkshalle sein, in der die Robotervorrichtung das Zielobjekt automatisiert aufnehmen und an einer vorbestimmten Stelle Abliefern soll. Die Robotervorrichtung ist dazu eingerichtet zu ermitteln, wie das Zielobjekt in Bezug auf die Robotervorrichtung räumlich angeordnet ist. Die Zielobjektlage kann die translatorische und die rotatorische Lage des Zielobjekts in Bezug auf die Robotervorrichtung umfassen. Mit anderen Worten kann durch die Zielobjektlage beschrieben sein, welche translatorische Lage und welche rotatorische Lage das Zielobjekt in Bezug auf die Robotervorrichtung aufweist. Die Zielobjektlage kann beispielsweise durch sechs Dimensionen, welche den sechs Freiheitgraden entsprechen, beschrieben sein. Drei der sechs Dimensionen können translatorische Komponenten sein und drei der sechs Dimensionen können rotatorische Komponenten sein. Die Robotervorrichtung weist eine optische Erfassungseinrichtung auf, die dazu eingerichtet ist, ein Umgebungsbild einer Umgebung der Robotervorrichtung zu erfassen. Mit anderen Worten ist die Robotervorrichtung dazu eingerichtet, durch die optische Erfassungseinrichtung ein Umgebungsbild von der Umgebung, in der sich die Robotervorrichtung befindet, aufzunehmen. Die optische Erfassungseinrichtung kann beispielsweise eine Kamera aufweisen und dazu eingerichtet sein, elektromagnetische Strahlen in sichtbaren, als auch in unsichtbaren Spektren, beispielsweise im Infrarot- oder ultravioletten Spektrum, aufzunehmen.A first aspect of the invention relates to a robot device set up to determine a target object position of a predetermined target object in relation to the robot device. The robotic device can be intended for use in logistics in order to move the target object. A possible area of application can be, for example, a warehouse or a factory building in which the robot device is supposed to automatically pick up the target object and deliver it to a predetermined location. The robotic device is configured to determine how the target object is spatially arranged in relation to the robotic device. The target pose may include the translational and rotational pose of the target with respect to the robotic device. In other words, the position of the target object can describe which translational position and which rotational position the target object has in relation to the robot device. The position of the target object can, for example, be described by six dimensions, which correspond to the six degrees of freedom. Three of the six dimensions can be translational components and three of the six dimensions can be rotational components. The robotic device has an optical detection device that is set up to capture an environmental image of an area surrounding the robotic device. In other words, the robotic device is set up to use the optical detection device to capture an image of the surroundings of the environment in which the robotic device is located. The optical detection device can, for example have a camera and be set up to record electromagnetic radiation in visible and invisible spectra, for example in the infrared or ultraviolet spectrum.
Es ist vorgesehen, dass die Robotervorrichtung eine Steuereinrichtung aufweist. Bei der Steuereinrichtung kann es sich beispielsweise um eine elektronische Komponente handeln, welche einen Mikroprozessor und/oder einen Mikrocontroller aufweisen kann. In der Steuereinrichtung sind eine vorbestimmte Referenzmarkierung und eine vorbestimmte Referenzlage der Referenzmarkierung in Bezug auf das vorbestimmte Zielobjekt gespeichert. Die Referenzmarkierung kann eine visuell erfassbare Markierung sein, deren Gestaltung auf eine genaue und effiziente Identifikation durch Bilderfassung ausgelegt sein kann. Die Referenzmarkierung kann auch als Passermarke bezeichnet sein. Die Referenzmarkierung kann Informationen darstellen, welche eine eindeutige Information des Zielobjekts oder der Art des Zielobjekts ermöglichen können. Mit anderen Worten ist in der Steuereinrichtung die Referenzmarkierung gespeichert, welche dem vorbestimmten Zielobjekt zugeordnet ist. In der Steuereinrichtung ist gespeichert, an welchem Ort des Zielobjekts die vorbestimmte Referenzmarkierung angeordnet ist. Der Ort ist durch die vorbestimmte Referenzlage der Referenzmarkierung in Bezug auf das vorbestimmte Zielobjekt definiert. Durch die Referenzlage kann beispielsweise eine Rotation, Ausrichtung oder Verschiebung der Referenzmarkierung auf dem Zielobjekt festgelegt sein. Es kann beispielsweise vorgesehen sein, dass in der Steuereinrichtung das vorbestimmte Zielobjekt als dreidimensionales Modell gespeichert ist, wobei hinterlegt ist, an welcher Referenzlage die Referenzmarkierung an dem Zielobjekt angeordnet ist.Provision is made for the robotic device to have a control device. The control device can be an electronic component, for example, which can have a microprocessor and/or a microcontroller. A predetermined reference marking and a predetermined reference position of the reference marking in relation to the predetermined target object are stored in the control device. The fiducial mark may be a visually detectable mark that may be designed for accurate and efficient identification through image capture. The reference marking can also be referred to as a fiducial mark. The reference marking can represent information that can enable unambiguous information about the target object or the type of target object. In other words, the reference marking that is assigned to the predetermined target object is stored in the control device. The location of the target object at which the predetermined reference marking is arranged is stored in the control device. The location is defined by the predetermined reference position of the reference marking in relation to the predetermined target object. For example, a rotation, orientation or displacement of the reference marking on the target object can be defined by the reference position. Provision can be made, for example, for the predetermined target object to be stored in the control device as a three-dimensional model, with the reference position at which the reference marking is arranged on the target object being stored.
Die Steuereinrichtung ist dazu eingerichtet, einen die Referenzmarkierung wiedergebenden Bildausschnitt des Zielobjekts in dem Umgebungsbild der Umgebung der Robotervorrichtung zu erfassen. Mit anderen Worten ist die Steuereinrichtung dazu eingerichtet, den Bildausschnitt des Zielobjekts in dem Umgebungsbild zu ermitteln, in welchem die Referenzmarkierung zu erkennen ist. Es kann beispielsweise vorgesehen sein, dass in einem ersten Schritt über ein primitives Objekterkennungsverfahren das Zielobjekt und seine ungefähre Position in dem Umgebungsbild durch die Steuereinrichtung ermittelt werden. Durch die Kenntnis der vorbestimmten Referenzlage der Referenzmarkierung an dem vorbestimmten Zielobjekt kann nach der Erfassung des Zielobjekts in dem Umgebungsbild der Bildausschnitt ermittelt werden, in welchem sich die Referenzmarkierung befindet. Die Steuereinrichtung ist dazu eingerichtet, die vorbestimmte Referenzmarkierung in dem Bildausschnitt zu erfassen und eine Verzerrung der vorbestimmten Referenzmarkierung in dem Bildausschnitt zu ermitteln. Mit anderen Worten ist die Steuereinrichtung dazu vorgesehen, innerhalb des Bildausschnitts nach der vorbestimmten Referenzmarkierung zu suchen. Die Steuereinrichtung identifiziert die vorbestimmte Referenzmarkierung und bestimmt die Verzerrung der Referenzmarkierung in dem Bildausschnitt durch einen Abgleich der in dem Speicher der Steuereinrichtung gespeicherten Bild der Referenzmarkierung mit der in dem Bildausschnitt erfassten Referenzmarkierung. Die Verzerrung der Referenzmarkierung in dem Bildausschnitt ergibt sich aus der räumlichen Perspektive, aus der die Referenzmarkierung durch die optische Erfassungseinrichtung der Robotervorrichtung erkannt wird. Die Steuereinrichtung ist dazu eingerichtet, aus der Verzerrung der Referenzmarkierung eine Raumlage der Referenzmarkierung in Bezug auf die Robotervorrichtung zu ermitteln. Mit anderen Worten kann die Steuereinrichtung die Verzerrung der Referenzmarkierung im Bildausschnitt untersuchen und ermitteln, in welcher Position sich die Referenzmarkierung in Bezug auf die Robotervorrichtung befindet. Die Steuereinrichtung kann somit ermitteln, wie die Referenzmarkierung in Bezug auf die Robotervorrichtung verschoben und/oder rotiert ist.The control device is set up to capture an image section of the target object, which reproduces the reference marking, in the environmental image of the area surrounding the robot device. In other words, the control device is set up to determine the image section of the target object in the environmental image in which the reference marking can be seen. Provision can be made, for example, for the target object and its approximate position in the image of the surroundings to be determined by the control device in a first step using a primitive object recognition method. By knowing the predetermined reference position of the reference marking on the predetermined target object, after the target object has been detected in the environmental image, the image section in which the reference marking is located can be determined. The control device is set up to detect the predetermined reference marking in the image section and to determine a distortion of the predetermined reference marking in the image section. In other words, the control device is provided to search within the image section for the predetermined reference marking. The control device identifies the predetermined reference marking and determines the distortion of the reference marking in the image section by comparing the image of the reference marking stored in the memory of the control device with the reference marking detected in the image section. The distortion of the reference mark in the image section results from the spatial perspective from which the reference mark is recognized by the optical detection device of the robotic device. The control device is set up to determine a spatial position of the reference marking in relation to the robot device from the distortion of the reference marking. In other words, the control device can examine the distortion of the reference marking in the image section and determine the position of the reference marking in relation to the robot device. The controller can thus determine how the reference mark is shifted and/or rotated in relation to the robotic device.
Die Steuereinrichtung ist dazu eingerichtet, aus der Raumlage der Referenzmarkierung in Bezug auf die Robotervorrichtung und der Referenzlage der Referenzmarkierung in Bezug auf das Zielobjekt die Zielobjektlage des Zielobjekts in Bezug auf die Robotervorrichtung zu ermitteln. Mit anderen Worten ist die Steuereinrichtung dazu eingerichtet, aus der ermittelten Raumlage der Referenzmarkierung und der in der Steuereinrichtung gespeicherten Referenzlage, welche angibt, wo sich die Referenzmarkierung auf dem Zielobjekt befindet, zu bestimmen, welche Zielobjektlage das Zielobjekt aufweist. Durch die Erfindung ergibt sich der Vorteil, dass die genaue Zielobjektlage, welche beispielsweise für ein Greifen des Zielobjekts erforderlich ist, nicht durch rechenintensive und anfällige Algorithmen bestimmt wird, sondern auf einem indirekten Wege über die einfache Ermittlung der Lage der Referenzmarkierung.The control device is set up to determine the target object position of the target object in relation to the robot device from the spatial position of the reference marking in relation to the robot device and the reference position of the reference marking in relation to the target object. In other words, the control device is set up to determine which target object position the target object has from the determined spatial position of the reference marking and the reference position stored in the control device, which indicates where the reference marking is located on the target object. The advantage of the invention is that the exact position of the target object, which is required for gripping the target object, for example, is not determined by computationally intensive and susceptible algorithms, but rather indirectly by simply determining the position of the reference marking.
Die Erfindung umfasst auch optionale Weiterbildungen, durch die sich weitere Vorteile ergeben.The invention also includes optional developments that result in further advantages.
Eine Weiterbildung der Erfindung sieht vor, dass die Steuereinrichtung dazu eingerichtet ist, den Bildausschnitt und/oder die Verzerrung der vorbestimmten Referenzmarkierung durch Methoden maschinellen Lernens zu erfassen. Mit anderen Worten ist die Steuereinrichtung dazu eingerichtet, den Bildausschnitt, in welchem sich die Referenzmarkierung auf dem Zielobjekt befindet und/oder die Verzerrung der Referenzmarkierung mittels einer Anwendung von Methoden maschinellen Lernens zu erfassen. Bei den Methoden maschinellen Lernens kann es sich insbesondere um automatische Bilderkennung über maschinelles Sehen handeln. Mit anderen Worten wird mittels einer Ausprägung künstlicher Intelligenz, dem maschinellen Lernen, der den Bildausschnitt, in welchem sich die Referenzmarkierung befindet, identifiziert und darüber hinaus in diesem Bereich anschließend die Referenzmarkierung und deren Verzerrung ermittelt. Das maschinelle Lernen kann beispielsweise durch einen, insbesondere lernfähigen, Algorithmus ausgebildet sein. Durch das Verwenden des maschinellen Lernens kann das Verfahren beispielsweise besonders vorteilhaft durchgeführt werden und darüber hinaus auf einfache Weise an neue Referenzmarkierungen und Zielobjekte angepasst werden.A development of the invention provides that the control device is set up to detect the image section and/or the distortion of the predetermined reference marking using machine learning methods. In other words, the control device is set up to detect the image section in which the reference marking is located on the target object and/or the distortion of the reference marking using machine learning methods. With the methods of machine learning it can in particular be automatic image recognition via machine vision. In other words, a form of artificial intelligence, machine learning, is used to identify the image section in which the reference marking is located and, moreover, to subsequently determine the reference marking and its distortion in this area. The machine learning can be formed, for example, by an algorithm, in particular one that is capable of learning. By using machine learning, the method can be carried out particularly advantageously, for example, and can also be easily adapted to new reference markings and target objects.
Eine Weiterbildung der Erfindung sieht vor, dass die Steuereinrichtung dazu eingerichtet ist, die Methoden maschinellen Lernens unter Einbeziehung eines neuronalen Netzes anzuwenden. Bei dem maschinellen Lernen können im Wesentlichen zwei Ansätze verfolgt werden: Erstens symbolische Ansätze, wie aussagenlogische Systeme, in denen das Wissen - sowohl die Beispiele als auch die induzierten Regeln - explizit repräsentiert ist, welche beispielsweise durch den Algorithmus ausgedrückt werden können. Zweitens subsymbolische Systeme wie, insbesondere künstliche, neuronale Netze, die nach dem Vorbild des menschlichen Gehirns funktionieren und in denen das Wissen implizit repräsentiert ist. Dabei sind auch Kombinationen des wenigstens einen Algorithmus und des wenigstens einen neuronalen Netz denkbar. Dabei kann der Algorithmus lernfähig, insbesondere selbstlernfähig, sein und beispielsweise durch das neuronale Netz ausgeführt werden bzw. erhält das neuronale Netz entsprechend des lernenden Algorithmus Anweisungen für seine Vorhersage und/oder für das Identifizieren und/oder Auswerten, welches beispielsweise mittels einer Mustererkennung, welche durch das neuronale Netz oder den Algorithmus erlernbar ist, realisiert werden kann. Dadurch ergibt sich der Vorteil, dass das maschinelle Lernen beispielsweise nicht durch einen Algorithmus auf eine konventionelle Prozessorarchitektur durchgeführt werden muss, sondern sich aufgrund der Verwendung des neuronalen Netzes bestimmte Vorteile bei der Erkennung ergeben können.A development of the invention provides that the control device is set up to apply the methods of machine learning including a neural network. Two main approaches can be followed in machine learning: First, symbolic approaches, such as propositional systems, in which the knowledge - both the examples and the induced rules - is explicitly represented, which can be expressed by the algorithm, for example. Second, sub-symbolic systems such as, in particular, artificial neural networks that function on the model of the human brain and in which knowledge is implicitly represented. In this case, combinations of the at least one algorithm and the at least one neural network are also conceivable. The algorithm can be capable of learning, in particular self-learning, and can be executed by the neural network, for example, or the neural network receives instructions for its prediction and/or for identification and/or evaluation according to the learning algorithm, which, for example, by means of pattern recognition, which can be learned by the neural network or the algorithm can be realized. This results in the advantage that the machine learning does not have to be carried out by an algorithm on a conventional processor architecture, for example, but that certain advantages can result in the recognition due to the use of the neural network.
Eine Weiterbildung der Erfindung sieht vor, dass die Referenzmarkierung einen Strichcode und/oder einen Flächencode umfasst. Mit anderen Worten weist die Referenzmarkierung einen als Strichcode ausgebildeten Bereich auf oder einen Flächencode, wobei es sich um einen zweidimensionalen Code handeln kann. Bei dem zweidimensionalen Code kann es sich insbesondere um einen AprilTag-, ARtag-, ArUco- oder QR-Code handeln. Durch die Weiterbildung ergibt sich der Vorteil, dass die Referenzmarkierung für die Steuereinrichtung einfach zu erkennende Bereiche aufweist, deren Verzerrung durch die Steuereinheit einfach und genau ermittelt werden kann. Durch die Verwendung eines Strichcodes und/oder eines Flächencodes können auch Informationen über eine Art oder eine Ablagestelle, an der das Zielobjekt durch die Robotervorrichtung abgelegt werden soll, bereitgestellt werden.A development of the invention provides that the reference marking includes a bar code and/or an area code. In other words, the reference marking has an area designed as a bar code or an area code, which can be a two-dimensional code. The two-dimensional code can in particular be an AprilTag, ARtag, ArUco or QR code. The development results in the advantage that the reference marking has areas that are easy for the control device to recognize, the distortion of which can be determined easily and precisely by the control unit. Through the use of a bar code and/or an area code, information about a type or location where the target object is to be deposited by the robotic device may also be provided.
Eine Weiterbildung der Erfindung sieht vor, dass die Steuereinrichtung dazu eingerichtet ist, die Robotervorrichtung anzusteuern, um das Zielobjekt in der Lage des Zielobjekts in Bezug auf die Robotervorrichtung aufzunehmen und/oder zu bewegen und/oder abzulegen. Mit anderen Worten ist die Steuereinrichtung dazu eingerichtet, die Robotervorrichtung zu regeln und/oder anzusteuern, damit diese das Zielobjekt aufnimmt, bewegt oder ablegt. Es kann beispielsweise vorgesehen sein, dass das Zielobjekt eine durch die Robotervorrichtung zu hebende Kiste ist. Über die Erfassung der Referenzmarkierung durch die Robotervorrichtung kann die Zielobjektlage des Zielobjekts ermittelt, und ein vorbestimmter Greifpunkt zum Greifen des Zielobjekts bestimmt werden. In einem weiteren Schritt kann die Robotervorrichtung das Zielobjekt greifen und zum Transport an eine Zielposition aufnehmen oder bewegen. Es kann auch vorgesehen sein, dass die Steuereinrichtung eine genaue Lage des Zielobjekts an einem Greifer der Robotervorrichtung durch eine Erfassung der Referenzmarkierung bestimmen kann und somit das Ablegen des Zielobjekts an einer vorbestimmten Stelle verfolgen kann.A development of the invention provides that the control device is set up to control the robotic device in order to pick up and/or move and/or put down the target object in the position of the target object in relation to the robotic device. In other words, the control device is set up to regulate and/or control the robot device so that it picks up, moves or places the target object. Provision can be made, for example, for the target object to be a box to be lifted by the robotic device. The position of the target object can be determined by the robot device detecting the reference marking, and a predetermined gripping point for gripping the target object can be determined. In a further step, the robot device can grip the target object and pick it up or move it for transport to a target position. Provision can also be made for the control device to be able to determine an exact position of the target object on a gripper of the robotic device by detecting the reference marking and thus to be able to track the placement of the target object at a predetermined location.
Eine Weiterbildung der Erfindung sieht vor, dass in der Steuereinrichtung eine vorbestimmte Inhaltslage eines Inhaltsobjekts in Bezug auf die Zielobjektlage gespeichert ist. Mit anderen Worten ist in der Steuereinrichtung gespeichert, welche örtliche Inhaltslage das Inhaltsobjekt in Bezug auf die Zielobjektlage des Zielobjekts aufweist. Es kann beispielsweise definiert sein, wo sich innerhalb eines als Kiste eingerichteten Zielobjekts ein bestimmter Gegenstand als Inhaltsobjekt befindet. Die Steuereinrichtung kann somit aus der ermittelten Zielobjektlage bestimmen, wo sich das Inhaltsobjekt befindet. Die Steuereinrichtung ist dazu eingerichtet, die Robotervorrichtung anzusteuern und das Inhaltsobjekt an der vorbestimmten Inhaltslage des Zielobjekts aufzunehmen und/oder zu bewegen und/oder abzulegen. Mit anderen Worten kann die Steuereinrichtung dazu vorgesehen sein, die Steuereinrichtung derart anzusteuern, dass das an der vorbestimmten Inhaltslage befindliche Inhaltsobjekt durch die Robotervorrichtung aufgenommen, bewegt oder abgelegt wird.A development of the invention provides that a predetermined content location of a content object in relation to the target object location is stored in the control device. In other words, what local content location the content object has in relation to the target object location of the target object is stored in the control device. For example, it can be defined where a specific item is located as a content object within a target object set up as a box. The control device can thus determine from the determined target object position where the content object is located. The control device is set up to control the robotic device and pick up and/or move and/or deposit the content object at the predetermined content location of the target object. In other words, the control device can be provided to control the control device in such a way that the content object located at the predetermined content layer is picked up, moved or put down by the robot device.
Eine Weiterbildung der Erfindung sieht vor, dass die Robotervorrichtung als Gabelstapler eingerichtet ist. Mit anderen Worten handelt es sich bei der Robotervorrichtung um einen Gabelstapler. Dieser kann dazu eingerichtet sein, das vorbestimmte Zielobjekt mittels einer Gabel zu heben, zu transportieren oder abzusenken. Die Robotervorrichtung kann insbesondere dazu eingerichtet sein, mittels der erfassten Zielobjektlage einen Punkt zum Halten oder Heben des Zielobjekts zu ermitteln.A development of the invention provides that the robot device is set up as a forklift. In other words, the robotic device is a forklift. This can be set up to the predetermined goal lifting, transporting or lowering an object using a fork. In particular, the robot device can be set up to determine a point for holding or lifting the target object using the detected target object position.
Eine Weiterbildung der Erfindung sieht vor, dass die Robotervorrichtung als Greifroboter oder Kran eingerichtet ist. Mit anderen Worten weist die Robotervorrichtung einen Greifarm auf oder ist als Kran eingerichtet. Die Robotervorrichtung kann dazu eingerichtet sein, das Zielobjekt zu greifen, um es zu heben oder zu bewegen. Eine Weiterbildung der Erfindung sieht vor, dass die Robotervorrichtung eine optische Erfassungseinrichtung aufweist, die zumindest zwei Kameras aufweist. Die Kameras sind jeweils dazu eingerichtet, das Umgebungsbild der Umgebung der Robotervorrichtung aus zumindest zwei Teilbildern der jeweiligen Kameras zu generieren, wobei die zumindest zwei Kameras dazu eingerichtet sind, die Teilbilder aus jeweiligen unterschiedlichen Perspektiven aufzunehmen. Dadurch ergibt sich der Vorteil, dass ein größeres Umgebungsbild ermöglicht wird, als es mit einer optischen Erfassungseinrichtung mit nur einer Kamera möglich wäre.A development of the invention provides that the robot device is set up as a gripping robot or crane. In other words, the robot device has a gripping arm or is set up as a crane. The robotic device may be configured to grip the target object in order to lift or move it. A further development of the invention provides that the robot device has an optical detection device which has at least two cameras. The cameras are each set up to generate the environmental image of the area surrounding the robot device from at least two partial images of the respective cameras, with the at least two cameras being set up to record the partial images from different perspectives. This results in the advantage that a larger image of the surroundings is made possible than would be possible with an optical detection device with only one camera.
Ein zweiter Aspekt der Erfindung betrifft ein Verfahren zur Ermittlung einer Zielobjektlage eines vorbestimmten Zielobjekts in Bezug auf eine Robotervorrichtung. Mit anderen Worten handelt es sich um ein Verfahren, das eine Ermittlung einer örtlichen Lage des vorbestimmten Zielobjekts in Bezug auf die Robotervorrichtung ermöglicht. In dem Verfahren ist es vorgesehen, durch eine optische Erfassungseinrichtung der Robotervorrichtung ein Umgebungsbild einer Umgebung der Robotervorrichtung zu erfassen. Es ist vorgesehen, dass durch eine Steuereinrichtung der Robotervorrichtung eine vorbestimmte Referenzmarkierung und eine vorbestimmte Referenzlage der Referenzmarkierung in Bezug auf das vorbestimmte Zielobjekt gespeichert werden. Mit anderen Worten ist es vorgesehen, dass in der Steuereinrichtung die Referenzmarkierung gespeichert wird und eine vorbestimmte Referenzlage, welche angibt, an welchem Ort sich die Referenzmarkierung in Bezug auf das Zielobjekt befindet. Durch die Steuereinrichtung wird ein die Referenzmarkierung wiedergebender Bildausschnitt des Zielobjekts in dem Umgebungsbild der Umgebung der Robotervorrichtung erfasst. Mit anderen Worten wird durch die Steuereinrichtung ein Bildausschnitt ermittelt, in dem sich die Referenzmarkierung befindet. Durch die Steuereinrichtung wird die vorbestimmte Referenzmarkierung in dem Bildausschnitt erfasst und eine Verzerrung der vorbestimmten Referenzmarkierung im Bildausschnitt ermittelt. Aus der Verzerrung der Referenzmarkierung wird durch die Steuereinrichtung eine Raumlage der Referenzmarkierung in Bezug auf die Robotervorrichtung ermittelt. Aus der Raumlage der Referenzmarkierung wird durch die Steuereinrichtung unter Einbeziehung der Referenzlage der Referenzmarkierung in Bezug auf das Zielobjekt die Zielobjektlage des Zielobjekts in Bezug auf die Robotervorrichtung ermittelt. Mit anderen Worten wird durch die Steuereinrichtung ermittelt, welche Lage das Zielobjekt in Bezug auf die Robotervorrichtung aufweist.A second aspect of the invention relates to a method for determining a target object position of a predetermined target object in relation to a robot device. In other words, it is a method that enables a local position of the predetermined target object to be determined in relation to the robot device. The method provides for an image of the surroundings of the robotic device to be captured by an optical detection device of the robotic device. It is provided that a predetermined reference marking and a predetermined reference position of the reference marking in relation to the predetermined target object are stored by a control device of the robotic device. In other words, it is provided that the reference marking is stored in the control device and a predetermined reference position, which indicates the location at which the reference marking is located in relation to the target object. An image section of the target object, which reproduces the reference marking, is recorded by the control device in the environmental image of the area surrounding the robot device. In other words, the control device determines an image section in which the reference marking is located. The predetermined reference marking in the image section is detected by the control device and a distortion of the predetermined reference marking in the image section is determined. A spatial position of the reference marking in relation to the robot device is determined by the control device from the distortion of the reference marking. From the spatial position of the reference marking, the target object position of the target object in relation to the robot device is determined by the control device, including the reference position of the reference marking in relation to the target object. In other words, the control device determines which position the target object has in relation to the robot device.
Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar.Further features of the invention result from the claims, the figures and the description of the figures. The features and combinations of features mentioned above in the description and the features and combinations of features mentioned below in the description of the figures and/or shown alone in the figures can be used not only in the combination specified in each case, but also in other combinations or on their own.
Die Erfindung wird nun anhand eines bevorzugten Ausführungsbeispiels sowie unter Bezugnahme auf die Zeichnungen näher erläutert. Es zeigen:
-
1 eine schematische Darstellung einer Robotervorrichtung; -
2 ein mögliches Zielobjekt; und -
3 ein Verfahren zur Ermittlung einer Zielobjektlage; -
4 ein Verfahren zur Ermittlung einer Zielobjektlage; und -
5 ein mögliches Verfahren zur Ermittlung einer Zielobjektlage.
-
1 a schematic representation of a robot device; -
2 a possible target object; and -
3 a method for determining a target object location; -
4 a method for determining a target object location; and -
5 a possible method for determining a target object position.
In den Figuren sind funktionsgleiche Elemente jeweils mit denselben Bezugszeichen versehen.Elements with the same function are each provided with the same reference symbols in the figures.
BezugszeichenlisteReference List
- 11
- Robotervorrichtungrobotic device
- 22
- Greifarmgripper arm
- 33
- Steuereinrichtungcontrol device
- 44
- Zielobjekttarget object
- 55
- Zielobjektlagetarget location
- 66
- Erfassungseinrichtungdetection device
- 77
- Kamerascameras
- 88th
- Referenzmarkierungreference mark
- 99
- Referenzlagereference position
- 1010
- Raumlageposition
- 1111
- Inhaltsobjektcontent object
- 1212
- Inhaltsobjektlagecontent object location
- 1313
- Umgebungsbildenvironment picture
- 1414
- Kantenedge
- S1 - S6S1 - S6
- Verfahrensschritteprocess steps
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent Literature Cited
- DE 102019125169 A1 [0004]DE 102019125169 A1 [0004]
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021114265.2A DE102021114265A1 (en) | 2021-06-02 | 2021-06-02 | Robotic device set up to determine a target object position of a predetermined target object and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021114265.2A DE102021114265A1 (en) | 2021-06-02 | 2021-06-02 | Robotic device set up to determine a target object position of a predetermined target object and method |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102021114265A1 true DE102021114265A1 (en) | 2022-12-08 |
Family
ID=84102037
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102021114265.2A Pending DE102021114265A1 (en) | 2021-06-02 | 2021-06-02 | Robotic device set up to determine a target object position of a predetermined target object and method |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102021114265A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102022118970A1 (en) | 2022-07-28 | 2024-02-08 | Bayerische Motoren Werke Aktiengesellschaft | Method for providing and gripping components by an industrial robot |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE602004013107T2 (en) | 2003-11-18 | 2009-07-02 | Fanuc Ltd. | Device for correcting a learned position |
DE102014011852A1 (en) | 2014-08-08 | 2015-03-12 | Daimler Ag | Method for tracking at least one working position provided on a component for at least one robot |
DE102015015094A1 (en) | 2014-11-28 | 2016-06-02 | Fanuc Corporation | Cooperation system with machine tool and robot |
US20170109856A1 (en) | 2015-10-16 | 2017-04-20 | Seiko Epson Corporation | Image Processing Device, Robot, Robot System, and Marker |
DE102017009223A1 (en) | 2016-10-11 | 2018-04-12 | Fanuc Corporation | Control device for controlling a robot by learning an action of a person, robot system and production system |
DE102018000733A1 (en) | 2018-01-29 | 2019-08-01 | IGZ Ingenieurgesellschaft für logistische Informationssysteme mbH | A shop floor monitoring and control system and method of assisting and monitoring a worker in the process of assembling or manufacturing a product or sub-product |
DE102017123877B4 (en) | 2016-10-14 | 2019-09-19 | Engel Austria Gmbh | robot system |
EP3597374A1 (en) | 2018-05-18 | 2020-01-22 | Toyota Jidosha Kabushiki Kaisha | Holding apparatus, container provided with tag, object holding program and object holding method |
DE102019125169A1 (en) | 2018-09-20 | 2020-03-26 | Ford Global Technologies, Llc | OBJECT POSITION DETECTING DEVICE BY MEANS OF REFERENCE TOKENS |
EP3744484A1 (en) | 2018-01-23 | 2020-12-02 | Sony Corporation | Information processing device, information processing method, and information processing system |
WO2021050646A1 (en) | 2019-09-11 | 2021-03-18 | Dmg Mori Co., Ltd. | Robot-mounted moving device, system, and machine tool |
-
2021
- 2021-06-02 DE DE102021114265.2A patent/DE102021114265A1/en active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE602004013107T2 (en) | 2003-11-18 | 2009-07-02 | Fanuc Ltd. | Device for correcting a learned position |
DE102014011852A1 (en) | 2014-08-08 | 2015-03-12 | Daimler Ag | Method for tracking at least one working position provided on a component for at least one robot |
DE102015015094A1 (en) | 2014-11-28 | 2016-06-02 | Fanuc Corporation | Cooperation system with machine tool and robot |
US20170109856A1 (en) | 2015-10-16 | 2017-04-20 | Seiko Epson Corporation | Image Processing Device, Robot, Robot System, and Marker |
DE102017009223A1 (en) | 2016-10-11 | 2018-04-12 | Fanuc Corporation | Control device for controlling a robot by learning an action of a person, robot system and production system |
DE102017123877B4 (en) | 2016-10-14 | 2019-09-19 | Engel Austria Gmbh | robot system |
EP3744484A1 (en) | 2018-01-23 | 2020-12-02 | Sony Corporation | Information processing device, information processing method, and information processing system |
DE102018000733A1 (en) | 2018-01-29 | 2019-08-01 | IGZ Ingenieurgesellschaft für logistische Informationssysteme mbH | A shop floor monitoring and control system and method of assisting and monitoring a worker in the process of assembling or manufacturing a product or sub-product |
EP3597374A1 (en) | 2018-05-18 | 2020-01-22 | Toyota Jidosha Kabushiki Kaisha | Holding apparatus, container provided with tag, object holding program and object holding method |
DE102019125169A1 (en) | 2018-09-20 | 2020-03-26 | Ford Global Technologies, Llc | OBJECT POSITION DETECTING DEVICE BY MEANS OF REFERENCE TOKENS |
WO2021050646A1 (en) | 2019-09-11 | 2021-03-18 | Dmg Mori Co., Ltd. | Robot-mounted moving device, system, and machine tool |
Non-Patent Citations (1)
Title |
---|
WANG, John ; OLSON, Edwin: AprilTag 2: Efficient and robust fiducial detection. In: 2016 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), 9-14 Oct. 2016, Daejeon, Korea (South), S. 4193-4198. - ISBN 978-1-5090-3762-9. DOI: 10.1109/IROS.2016.7759617. URL: https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=7759617 [abgerufen am 2021-07-06] |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102022118970A1 (en) | 2022-07-28 | 2024-02-08 | Bayerische Motoren Werke Aktiengesellschaft | Method for providing and gripping components by an industrial robot |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102019130046B4 (en) | Robot system with improved scanning mechanism | |
DE112019000125B4 (en) | SYSTEMS, DEVICES AND METHODS FOR AUTOMATED PACKAGING REGISTRATION | |
DE112011103794B4 (en) | Pick-up device for workpieces | |
DE102013109220B4 (en) | Robotic device and method for removing bulk goods from a warehouse | |
DE102013203381B4 (en) | METHOD AND SYSTEM FOR TRAINING AN ROBOT USING A RESPONSIBLE DEMONSTRATION SUPPORTED BY PEOPLE | |
DE102014102943B4 (en) | Robot system with functionality for determining the location of a 3D box | |
DE102016122678B4 (en) | Workpiece position / posture calculation system and handling system | |
WO2017008895A1 (en) | Method for controlling a robot and/or an autonomous driverless transport system | |
DE102021114265A1 (en) | Robotic device set up to determine a target object position of a predetermined target object and method | |
DE102016206980B4 (en) | Method for handling a body and handling device | |
EP3977225B1 (en) | Method for creating an environment map for use in the autonomous navigation of a mobile robot | |
EP3454158A1 (en) | Method and device for navigation of an industrial truck | |
DE102017006616A1 (en) | Situation tracking system and position sensing system | |
DE102022101825B3 (en) | Method and system for automated material handling including 100% verification | |
DE102022107228A1 (en) | PICKING OBJECTS FROM A BIN (BIN PICKING) WITH ROTATION COMPENSATION | |
DE102021114268A1 (en) | Robotic device set up to determine an infrastructure object location of a predetermined infrastructure object and method | |
DE102021114264A1 (en) | Robotic device set up to determine an interaction machine position of at least one element of a predetermined interaction machine and method | |
DE102021114701A1 (en) | Mobile picking robot and method for picking | |
EP3870406A1 (en) | Method for creating an object model for gripping an object, computer-readable storage medium, and robot system | |
DE102022106765B3 (en) | Method for determining a position of an object relative to a detection device, computer program and data carrier | |
DE102019200930A1 (en) | Device and method for the automatic handling of storage units | |
AT525778B1 (en) | Method and device for removing a load from a stack | |
EP2497065B1 (en) | Method of determining the orientation of the upper part of a stack of workpieces | |
DE102021126494A1 (en) | Motor vehicle component and method for gripping a motor vehicle component | |
EP4141805A1 (en) | Method for the generation, automated annotation and provision of training image data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified |