DE602004012228T2 - Self-calibrating orientation system for a handling device - Google Patents

Self-calibrating orientation system for a handling device Download PDF

Info

Publication number
DE602004012228T2
DE602004012228T2 DE200460012228 DE602004012228T DE602004012228T2 DE 602004012228 T2 DE602004012228 T2 DE 602004012228T2 DE 200460012228 DE200460012228 DE 200460012228 DE 602004012228 T DE602004012228 T DE 602004012228T DE 602004012228 T2 DE602004012228 T2 DE 602004012228T2
Authority
DE
Germany
Prior art keywords
sensor device
action
input space
sensor
mapping function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE200460012228
Other languages
German (de)
Other versions
DE602004012228D1 (en
Inventor
Tobias Rodemann
Frank Joublin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Research Institute Europe GmbH
Original Assignee
Honda Research Institute Europe GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Research Institute Europe GmbH filed Critical Honda Research Institute Europe GmbH
Publication of DE602004012228D1 publication Critical patent/DE602004012228D1/en
Application granted granted Critical
Publication of DE602004012228T2 publication Critical patent/DE602004012228T2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Numerical Control (AREA)

Description

Die vorliegende Erfindung bezieht sich auf die Steuerung einer Orientierungs-/Positionierungseinrichtung, welche eine Sensoreinrichtung hat, deren Eingangsraum durch eine definierte geplante Aktion in der realen Welt geändert werden kann, die durch eine Handhabungseinrichtung ausgeführt wird, die durch die Orientierungs-/Positionierungseinrichtung gesteuert wird. Daher richtet sie sich darauf, eine Handhabungseinrichtung zu orientieren/zu positionieren, welche durch die Sensoreinrichtung ermittelt wird, d. h., die durch den Eingangsraum der Sensoreinrichtung verdeckt ist, auf eine vorgegebene Zielposition des Eingangsraums-Koordinatensystems der Sensoreinrichtung.The The present invention relates to the control of an orientation / positioning device, which has a sensor device whose input space through a defined planned action in the real world can be changed by a handling device is executed by the orientation / positioning device is controlled. Therefore, she focuses on a handling device to orient / position, which by the sensor device is determined, d. h., Through the input space of the sensor device is hidden, to a predetermined target position of the input space coordinate system the sensor device.

Der Hintergrund der vorliegenden Erfindung liegt auf dem Gebiet von Orientierungs-/Positionierungseinrichtungen, welche nun mit Hilfe von 1 und 2 erläutert werden. 1 zeigt eine Stereokamera, welche in mehreren Freiheitsgraden ausgerichtet werden kann. Es sei nun angenommen, dass die auszurichtende Kamera derart ist, dass ein ermitteltes optisches Ziel, das irgendwo im Eingangsraum der Kamera vorhanden ist, sich in den Ursprung des Eingangsraums bewegt. 2 zeigt einen bekannten Prozess, um eine Aktion zu berechnen und auszuführen (d. h. die Bewegung der Kamera), um das Objekt zu erreichen. In einem ersten Schritt wird das Ausgangssignal des Sensors (hier: Kamera) ausgewertet, um eine Entscheidung hinsichtlich einer Zielposition im mehrfach dimensionalen Eingangsraum des Sensors zu treffen, dessen Zielposition beispielsweise eine erkanntes optisches Ziel sein kann. In einem weiteren Schritt werden die Sensorkoordinaten (Winkel usw.) auf die Motorkoordinaten (Spannungen, Ströme, usw.) abgebildet, wobei eine vordefinierte Nachschlagetabelle oder eine analytische Funktion verwendet wird, um einen Stellgliedbefehl (Motor) zu erzeugen, der notwendig ist, bevor über die neue Orientierung der Kamera entschieden wird.The background of the present invention is in the field of orientation / positioning devices, which are now using 1 and 2 be explained. 1 shows a stereo camera, which can be aligned in several degrees of freedom. It is now assumed that the camera to be aligned is such that a detected optical target, which is present somewhere in the input space of the camera, moves to the origin of the input space. 2 Figure 12 shows a known process for calculating and executing an action (ie, moving the camera) to reach the object. In a first step, the output signal of the sensor (here: camera) is evaluated in order to make a decision regarding a target position in the multi-dimensional input space of the sensor whose target position may be, for example, a recognized optical target. In a further step, the sensor coordinates (angles, etc.) are mapped to the motor coordinates (voltages, currents, etc.) using a predefined look-up table or analytical function to generate an actuator command (motor) that is necessary before is decided on the new orientation of the camera.

Typische Beispiele für Sensoreinrichtungen, die explizite Orientierungsinformation liefern, sind beispielsweise eine Bildsensorgruppe, Radarbild-Sensorgruppe oder eine chemische Empfängersensorgruppe. Eine typische Sensoreinrichtung, welche implizite Orientierungsinformation bereitstellt, ist die Verwendung von Stereomikrofonen, um eine Tonquelle zu lokalisieren. Sensoreinrichtungen, welche implizite Orientierungsinformation liefern, erfordern eine Extraktion der Orientierungsinformation, bevor die Orientierungsinformation verwendet werden kann.typical examples for Sensor devices that provide explicit orientation information, are for example an image sensor group, radar image sensor group or a chemical receptor sensor group. A typical sensor device, which implicit orientation information Provides is the use of stereo microphones to create a sound source to locate. Sensor devices, which implicit orientation information supply, require extraction of orientation information, before the orientation information can be used.

Roboter, welche Sensoren aufweisen, welche Orientierungsinformation liefern, sind als Orientierungsroboter bekannt. Es ist ein Nachteil dieser Orientierungsroboter, dass sie häufig eine Kalibrierung erfordern, um genau zu arbeiten. Diese Kalibrierung muss nach jeder Änderung in die Systemgeometrie durchgeführt (beispielsweise, wenn die physikalische Relation zwischen einem Sensor und einem Stellglied des Roboters geändert wird), nach jeder Modifikation (beispielsweise einer Linsenersetzung, einer Motormodifikation), und wenn der Roboter sich in einer ändernden oder nicht kontrollierten Umgebung verwendet wird.Robot, which sensors provide orientation information, are known as orientation robots. It is a disadvantage of this Orientation robot that they frequently require a calibration to work exactly. This calibration must after every change performed in the system geometry (for example, if the physical relation between a sensor and a Actuator of the robot changed after each modification (for example, a lens replacement, a motor modification), and when the robot is changing or uncontrolled environment is used.

In bestimmten Umgebungen ist eine manuelle Kalibrierung durch einen Benutzer nicht möglich oder wird nicht gewünscht (beispielsweise, wenn der Roboter eine Probe ist, die zu einem fernen Planeten gesendet wird). In dem Fall häufiger Änderungen in der Systemgeometrie, häufiger Modifikation der Sensoren oder Motoren oder einer unkontrollierten Umgebung ist die Kalibrierung außerdem sehr zeitaufwendig und mühsam.In In certain environments, manual calibration is one User not possible or not desired (For example, if the robot is a sample that is to a distant Planet is sent). In the case of frequent changes in the system geometry, frequently Modification of sensors or motors or an uncontrolled Environment, the calibration is also very time consuming and cumbersome.

Daher wurden selbstkalibrierende Orientierungsroboter vorgeschlagen.Therefore Self-calibrating orientation robots have been proposed.

Diese selbstkalibrierenden Orientierungsroboter nutzen üblicherweise Kalibrierungsszenarien, mathematische Analyse oder Parameter/Hardware-Abstimmung mit menschlicher Aufsicht.These self-calibrating orientation robots usually use Calibration scenarios, mathematical analysis or parameters / hardware coordination with human At sight.

Alle obigen Kalibrierungsverfahren haben folgende Nachteile:
Die Verwendung von Kalibrierungsszenarien normalerweise erfordert die Rückkehr der Stellglieder des Roboters zu Referenzpunkten. Daher ist die Kalibrierung in einer neuen und oder nicht kontrollierten Umgebung häufig nicht möglich. Außerdem ist diese Kalibrierung unter Verwendung des Referenzpunkts häufig nicht ausreichend, um das Problem einer Nichtlinearität von Motorantworten zu lösen.
All the above calibration methods have the following disadvantages:
The use of calibration scenarios normally requires the return of the robot's actuators to reference points. Therefore, calibration in a new and / or uncontrolled environment is often not possible. In addition, this calibration using the reference point is often insufficient to solve the problem of nonlinearity of motor responses.

Die Kalibrierung durch mathematische Analyse hat den Nachteil, dass mehrere implizite Annahmen notwendig sind, welche häufig zu starken Vereinfachungen führen. Häufig wird nur ein Hilfssatz an Variationen in betracht gezogen. Somit ist die Genauigkeit des Kalibrierungsverfahrens üblicherweise unzureichend. Außerdem ist die Kalibrierung durch mathematische Analyse für Online-Kalibrierung aufgrund hoher Komplexität häufig nicht anwendbar.The Calibration through mathematical analysis has the disadvantage that Several implicit assumptions are needed, which are often too strong simplifications. Often only one set of variations is considered. Consequently the accuracy of the calibration procedure is usually insufficient. Furthermore is the calibration by mathematical analysis for online calibration often not due to high complexity applicable.

Der Parameter/Hardware-Abgleich mit menschlicher Kontrolle hat den Nachteil, dass er die Intervention menschlicher Erfahrung erfordert. Daher ist diese Kalibrierungslösung für autonome Roboter nicht geeignet. Außerdem ist diese Kalibrierungstechnik üblicherweise sehr zeitaufwendig und hängt stark von der Erfahrung des Experten ab.The parameter / hardware comparison with human control has the disadvantage that it intervene requires human experience. Therefore, this calibration solution is not suitable for autonomous robots. In addition, this calibration technique is usually very time consuming and depends heavily on the experience of the expert.

Robotersysteme, welche eine Sensoreinrichtung aufweisen, insbesondere Kameras um Orientierungsinformation bereitzustellen, welche durch adaptive Lernalgorithmen gesteuert werden, sind in den Dokumenten offenbart: Buessler J-L et al: "Visually guided movements: learning with modular neural maps in robotics" Neural Networks, Elsevier Science Publishers, Barking, GB, Vol. 11, Nr. 7–8, 11. Okober 1998 (1998-10-11), Seite 1395–1415, ISSN: 0893-6080, wie auch Kuhn D et al: "Cooperation of neural networks applied to a robotic hand-eye coordination task", Systems, Man and Cybernetics, 1995. Intelligent Systems for the 21st century., IEEE International Conference an Vancouver, BC, Canada 22–25 Oct. 1995, New York, NY, USA, IEEE US, Vol. 4, 22. Oktober 1995 (1995 10-22), Seite 3694–3699, ISBN: 0-7803-2559-1Robotic systems incorporating sensor means, particularly cameras for providing orientation information controlled by adaptive learning algorithms, are disclosed in the documents: Buessler JL et al: "Visually guided movements: learning with modular neural maps in robotics" Neural Networks, Elsevier Science Publishers , Barking, GB, Vol. 11, No. 7-8, 11 October 1998 (1998-10-11), pages 1395-1415, ISSN: 0893-6080, as well as Kuhn D et al: "Cooperation of neural networks Applied to a robotic hand-eye coordination task, Systems, Man and Cybernetics, 1995. Intelligent Systems for the 21 st century., IEEE International Conference at Vancouver, BC, Canada 22-25 Oct. 1995, New York, NY, USA, IEEE US, Vol. 4, Oct. 22, 1995 (1995, 10-22), pp. 3694-3699, ISBN: 0-7803-2559-1

Daher ist eine Aufgabe der vorliegenden Erfindung, ein Verfahren zum Steuern eines Orientierungssystems und eines selbstkalibrierenden Orientierungssystems bereitzustellen, welches eine automatische Kalibrierung des Systems ohne menschliche Intervention mit hoher Genauigkeit zulässt.Therefore It is an object of the present invention to provide a method of controlling an orientation system and a self-calibrating orientation system provide an automatic calibration of the system without human intervention with high accuracy.

Eine weitere Aufgabe der vorliegenden Erfindung besteht darin, ein Verfahren zum Steuern eines Orientierungssystems und eines selbstkalibrierenden Orientierungssystems bereitzustellen, welches angepasst ist, mit der Nichtlinearität bei Motor-Sensor-Antworten fertig zu werden, und welches angepasst ist, in einer sich ändernden und/oder nicht gesteuerten Umgebung verwendet zu werden, wo Wartung nicht möglich ist oder nicht gewünscht wird.A Another object of the present invention is a method for controlling an orientation system and a self-calibrating one Orientation system to provide, which is adapted with of nonlinearity to cope with engine sensor responses, and which ones to adjust is, in a changing and / or non-controlled environment to be used where maintenance not possible is or not desired becomes.

Die obigen Aufgaben werden mittels der Merkmale der unabhängigen Patentansprüche gelöst. Die abhängigen Ansprüche entwickeln weiter die Zentralidee der vorliegenden Erfindung.The The above objects are achieved by the features of the independent claims. The dependent claims further develop the central idea of the present invention.

Gemäß einem ersten Merkmal der vorliegenden Erfindung wird ein Verfahren zum Steuern eines Orientierungs-/Positionierungssystems vorgeschlagen, wobei das Orientierungssystem zumindest eine Sensoreinrichtung und eine Stellgliedeinrichtung aufweist, um eine Orientierungs- und/oder Positionierungsaktion einer Handhabungseinrichtung und/oder der Sensoreinrichtung zu steuern, beispielsweise eine Robotereinrichtung, welche durch die Sensoreinrichtung ermittelt werden kann und welche mit der realen Welt aufeinander einwirken kann, um den Eingangsraum der Sensoreinrichtung wie durch das System geplant zu ändern.According to one First feature of the present invention is a method for Controlling an orientation / positioning system proposed, wherein the orientation system at least one sensor device and a Actuator device to an orientation and / or Positioning action of a handling device and / or the Sensor device to control, for example, a robot device, which can be determined by the sensor device and which interact with the real world to the input space the sensor device as planned by the system to change.

Das Verfahren weist die folgenden Schritte auf:

  • – (S1) Auswerten einer Voraktions-Ausgangsinformation der Sensoreinrichtung, um die Position der Handhabungseinrichtung im Eingangsraum der Sensoreinrichtung zu erfassen;
  • – (S2) Entscheiden über eine Ziel-Nachaktionsposition der Handhabungseinrichtung im Eingangsraum der Sensoreinrichtung;
  • – (S3) Definieren eines Befehls für die Stellgliedeinrichtung durch Abbilden einer Abweichung der Voraktionsposition und der Ziel-Nachaktionsposition in den Eingangsraum-Koordinaten der Sensoreinrichtung, um Koordinaten unter Verwendung einer vorgegebenen Abbildungsfunktion stellglied-zu-steuern;
  • – (S4) Orientieren/Positionieren einer Handhabungseinrichtung durch die Stellgliedeinrichtung gemäß dem definierten Befehl, um eine Orientierungs-/Positionierungs-Aktion auszuführen; und
  • – (S5) Erfassen der realen Nachaktionsposition der Handhabungseinrichtung im Eingangsraum der Sensoreinrichtung;
  • – (S6) Adaptieren der Abbildungsfunktion, welche im Schritt S3 verwendet wird, auf Basis einer Differenz der realen Nachaktionsposition und der Ziel-Nachaktionsposition der Handhabungseinrichtung im Eingangsraum der Sensoreinrichtung (1), um ein inkrementales adaptives Lernen der Abbildungsfunktion auszuführen,
wobei die Schritte S1 bis S6 zumindest einmal unter Verwendung der jeweiligen adaptierten Abbildungsfunktion zyklisch wiederholt werden.The method comprises the following steps:
  • - (S1) evaluating a pre-action output information of the sensor device to detect the position of the handling device in the input space of the sensor device;
  • - (S2) deciding on a target post-action position of the handling device in the input space of the sensor device;
  • - (S3) defining an instruction for the actuator means by mapping a deviation of the pre-action position and the target post-action position in the input space coordinates of the sensor means to actuator-control coordinates using a predetermined mapping function;
  • - (S4) orienting / positioning a handling device by the actuator device according to the defined command to perform an orientation / positioning action; and
  • - (S5) detecting the real post-action position of the handling device in the input space of the sensor device;
  • - (S6) adaptation of the mapping function, which is used in step S3, on the basis of a difference of the real post-action position and the target post-action position of the handling device in the input space of the sensor device ( 1 ) to perform an incremental adaptive learning of the mapping function,
wherein the steps S1 to S6 are cyclically repeated at least once using the respective adapted mapping function.

Im Schritt S6 kann ein Korrektursignal auf Basis der Differenz der realen Nachaktionsposition und der Ziel-Position der Handhabungseinrichtung im Eingangsraum der Sensoreinrichtung berechnet werden. Die Abbildungsfunktion kann adaptiert werden, wobei das Korrektursignal und die Voraktionsposition der Abbildungseinrichtung im Eingangsraum der Sensoreinrichtung in betracht gezogen werden.in the Step S6 may be a correction signal based on the difference of real post-action position and the target position of the handling device be calculated in the input space of the sensor device. The mapping function can be adapted, with the correction signal and the Voraktionsposition the imaging device in the input space of the sensor device be considered.

Bevor die Abbildungsfunktion angepasst wird, kann der Anpassungsvektor mit einem Faktor multipliziert werden, der größer ist oder gleich als 0 oder kleiner oder gleich als 1, um die Adaptionsrate für die Abbildungsfunktion zu steuern.Before the mapping function is adjusted, the adaptation vector may be multiplied by a factor which is greater than or equal to 0 or less than or equal to 1 to the adaptation rate for the image control function.

Das Verfahren kann außerdem den Schritt zum Berechnen eines Vertrauenswertes auf Basis der Plausibilität der Differenz der realen Postaktionsposition und der Zielposition der Manipulationseinrichtung im Eingangsraum der Sensoreinrichtung aufweisen, beispielsweise mittels des Korrekturwerts der ausgewählten Muster. Der Adaptionswert kann dann mit dem Vertrauenswert moduliert werden, so dass die Adaptionsrate vom Vertrauen von beispielsweise der Korrelation zwischen den ausgewählten Sensormustern vor und nach der Aktion abhängt.The Procedure can also the step of calculating a confidence score based on the plausibility of the difference the real post action position and the target position of the manipulation device have in the input space of the sensor device, for example by means of the correction value of the selected patterns. The adaptation value can then be modulated with the confidence value, so that the adaptation rate of Trusting, for example, the correlation between the selected sensor patterns before and after the action depends.

Die Abbildungsfunktion kann mittels einer Nachschlagetabelle realisiert werden. Die Nachschlagetabelle verknüpft Sensorkoordinaten mit den entsprechenden Betätigungsorgankoordinaten.The Imaging function can be realized by means of a look-up table become. The lookup table links sensor coordinates to the corresponding actuator organ coordinates.

In den Schritten S1 bis S6 wird für jeden Zyklus nicht nur die Position des Musters, sondern auch eine Nachbarschaft in einem definierten Bereich, der die Musterposition umgibt, verwendet, wobei der Bereich der Nachbarschaft zwischen zwei aufeinanderfolgenden Zyklen geändert werden kann.In Steps S1 to S6 is for every cycle not only the position of the pattern, but also a neighborhood in a defined area surrounding the pattern position, the area of the neighborhood being between two consecutive Cycles changed can be.

Die Adaption der Abbildungsfunktion kann in den Sensorkoordinaten oder in den Betätigungsorgan-Koordinaten ausgeführt werden.The Adaptation of the mapping function can be done in the sensor coordinates or in the actuator coordinates accomplished become.

Ein weiteres Merkmal der vorliegenden Erfindung bezieht sich auf ein Verfahren zum Steuern eines Orientierungs-/Positionierungssystems, wobei das Orientierungssystem zumindest eine Sensoreinrichtung und eine Betätigungsorgan-Einrichtung aufweist, um eine Orientierungs- oder Positionierungsaktion einer Handhabungseinrichtung zu steuern, beispielsweise einer Robotereinrichtung, welche durch die Sensoreinrichtung ermittelt werden kann und welche mit der realen Welt zusammenwirken kann, um den Eingangsraum der Sensoreinrichtung wie geplant durch das System zu ändern.One Another feature of the present invention relates to Method for controlling an orientation / positioning system, wherein the orientation system at least one sensor device and having an actuator device, an orientation or positioning action of a handling device to control, for example, a robot device, which by the sensor device can be determined and which with the real World can interact to the input space of the sensor device as planned through the system change.

Das Verfahren weist vorzugsweise die folgenden Schritte auf:

  • – (S1) Abbilden der Ausgangsfunktion der Sensoreinrichtung in den Eingangsraum-Koordinaten der Sensoreinrichtung (1) hinsichtlich der Betätigungsorgan-Steuerkoordinaten unter Verwendung einer vorgegebenen Abbildungsfunktion;
  • – (S2) Entscheiden der Ziel-Postaktions-Position, wobei die Entscheidung in den Betätigungsorgan-Steuerkoordinaten stattfindet;
  • – (S3) Bestimmen eines Befehls für die Betätigungsorgan-Einrichtung (41, 42, 43) auf Basis des Ergebnisses der Entscheidung; und
  • – (S4) Orientieren/positionieren der Handhabungseinrichtung über die Stellgliedeinrichtung gemäß dem bestimmten Befehl, um eine Orientierungs-/Positionierungsaktion der Sensoreinrichtung auszuführen.
The method preferably comprises the following steps:
  • (S1) mapping the output function of the sensor device into the input space coordinates of the sensor device ( 1 ) with respect to the actuator control coordinates using a predetermined mapping function;
  • - (S2) deciding the destination post-action position, the decision taking place in the actuator control coordinates;
  • (S3) determining an instruction for the actuator device ( 41 . 42 . 43 ) based on the result of the decision; and
  • - (S4) orienting / positioning the handling device via the actuator device in accordance with the determined command to perform an orientation / positioning action of the sensor device.

Die Ausgangssignale mehrerer Sensoreinrichtungen können individuell auf Betätigungsorgan-Koordinaten abgebildet werden und dann kombiniert werden, wobei die Entscheidung im Schritt S2 auf Basis des Ergebnisses der Kombination ausgeführt werden kann.The Output signals of multiple sensor devices can be individually to actuator organ coordinates be pictured and then combined, taking the decision in step S2, based on the result of the combination can.

Einschränkungen der Stellgliedeinrichtung können in betracht gezogen werden, wenn die Entscheidung im Schritt S2 getroffen wird.restrictions the actuator device can be considered if the decision in step S2 is taken.

Ein weiteres Merkmal der vorliegenden Erfindung bezieht sich auf ein Computersoftwareprodukt, welches angepasst ist, dieses Verfahren zu realisieren, wenn dies auf einer Computereinrichtung abläuft.One Another feature of the present invention relates to Computer software product adapted to this method to realize when this happens on a computing device.

Ein noch weiteres Merkmal der vorliegenden Erfindung bezieht sich ein automatisches Kalibrierungs-Orientierungs-/Positionierungssystem. Das System weist vorzugsweise zumindest eine Sensoreinrichtung, eine Berechnungseinrichtung und eine Betätigungsorgan-Einrichtung auf, um eine Orientierungs- und/oder Positionierungsaktion einer Handhabungseinrichtung zu steuern, beispielsweise einer Robotereinrichtung, welche durch die Sensoreinrichtung ermittelt werden kann und welche mit der realen Welt zusammenwirken kann, um den Eingangsraum der Sensoreinrichtung wie geplant durch das System zu ändern, wobei die Computereinrichtung aufweist:

  • – eine Einrichtung zum Auswerten von Voraktions-Ausgangsinformation der Sensoreinrichtung, um die Position der Handhabungseinrichtung im Eingangsraum der Sensoreinrichtung zu erfassen;
  • – eine Einrichtung zum Entscheiden über eine Ziel-Nachaktionsposition der Handhabungseinrichtung im Eingangsraum der Sensoreinrichtung;
  • – eine Einrichtung zum Befehligen der Stellgliedeinrichtung, wobei der Befehl durch Abbilden einer Abweichung des Voraktionsposition und der Ziel-Nachaktionsposition im Eingangsraum der Sensoreinrichtung erzeugt wird, um Koordinaten unter Verwendung einer vorgegebenen Abbildungsfunktion stellglied-zu-steuern;
  • – eine Einrichtung zum Erfassen der realen Nachaktionsposition der Handhabungseinrichtung im Eingangsraum der Sensoreinrichtung;
  • – eine Einrichtung zum Kalibrieren der Abbildungsfunktion auf Basis einer Differenz der realen Nachaktionsposition und der Ziel-Nachaktionsposition der Handhabungseinrichtung im Eingangsraum der Sensoreinrichtung, um ein inkrementales adaptives Lernen der Abbildungsfunktion auszuführen.
A still further feature of the present invention relates to an automatic calibration orientation / positioning system. The system preferably comprises at least one sensor device, a calculation device and an actuator device in order to control an orientation and / or positioning action of a handling device, for example a robot device, which can be detected by the sensor device and which can cooperate with the real world, to change the input space of the sensor device as planned by the system, the computing device comprising:
  • - means for evaluating pre-action output information of the sensor means to detect the position of the handling means in the input space of the sensor means;
  • A device for deciding on a target post-action position of the handling device in the input space of the sensor device;
  • - A device for commanding the actuator device, wherein the command by mapping a deviation of the Voraktionsposition and the target Nachaktionsposition in the input space of the sensor device he is witnessed to adjuster-coordinate coordinates using a given mapping function;
  • A device for detecting the real post-action position of the handling device in the input space of the sensor device;
  • Means for calibrating the mapping function based on a difference of the real post-action position and the target post-action position of the handling device in the input space of the sensor device to perform an incremental adaptive learning of the mapping function.

In der nachfolgenden Beschreibung wird die vorliegende Erfindung mit Hilfe der beiliegenden Zeichnungen erläutert, wobei gleiche Bezugszeichen sich auf gleiche Teile durchwegs in den Ansichten hier beziehen, wobeiIn The following description describes the present invention Help explained in the accompanying drawings, wherein like reference numerals refer to like parts throughout in the views here, in which

1 eine Orientierungseinrichtung gemäß dem Stand der Technik zeigt; 1 shows an orientation device according to the prior art;

2 einen Orientierungsaktions-Berechnungsprozess gemäß dem Stand der Technik zeigt; 2 shows an orientation action calculation process according to the prior art;

3A, 3B schematisch alternative Prozesse gemäß der vorliegenden Erfindung zeigen; 3A . 3B schematically show alternative processes according to the present invention;

4 eine Ausführungsform zum Berechnen des Korrektursignals für adaptives Lernen der Abbildungsfunktion zeigt; 4 an embodiment for calculating the adaptive learning correction signal of the mapping function;

5 eine Option zum Beschleunigen des Anpassungsprozesses zeigt; 5 shows an option to speed up the adjustment process;

6 die Einführung von Vertrauenswerten im Lernprozess von 3A oder 3B zeigt; und 6 the introduction of trustworthiness in the learning process of 3A or 3B shows; and

7 ein Blockdiagramm des erfinderischen selbstkalibrierenden Orientierungs-/Positionierungssystems zeigt. 7 a block diagram of the inventive self-calibrating orientation / positioning system shows.

Ein Prozess gemäß der vorliegenden Erfindung wird nun mit Hilfe von 3a erläutert. Vergleichbar mit dem bekannten Prozess (siehe 2) wird das Ausgangssignal eines Sensors ausgewertet, um eine Entscheidung in Bezug auf eine Zielposition der Handhabungseinrichtung im Eingangsraum der Sensoreinrichtung 1 zu treffen, wobei die Zielposition durch eine vorher berechnete "Ein-Treffer"-Aktion zu erreichen ist. Dies bedeutet, dass eine Aktion, d. h., eine geplante Zwischenaktion mit der realen Welt zunächst eingerichtet wird und dann zur Gänze ausgeführt wird. Lediglich, nachdem die Aktion beendet ist, werden die Unterschiede zwischen der ursprünglich geplanten Aktion und dem Ergebnis der realen Welt ausgewertet und zusätzliche Korrekturaktionen können geplant und ausgeführt werden.A process according to the present invention will now be described with the aid of 3a explained. Similar to the known process (see 2 ), the output signal of a sensor is evaluated to make a decision with respect to a target position of the handling device in the input space of the sensor device 1 where the target position can be reached by a previously calculated "one hit" action. This means that an action, ie a planned intermediate action with the real world, is first set up and then executed completely. Only after the action is completed will the differences between the originally scheduled action and the real-world outcome be evaluated and additional corrective actions may be scheduled and executed.

Um die Sensorkoordinaten der entschiedenen Aktion in Stellgliedkoordinaten abzubilden, wird gemäß der vorliegenden Erfindung ein adaptives Lernabbilden verwendet. In einem ersten Zyklus der Orientierung wird eine grob geschätzte oder beliebig eingestellte Abbildungsfunktion verwendet. In zumindest einem weiteren Zyklus wird eine verbesserte "Lern"-Abbildungsfunktion verwendet.Around the sensor coordinates of the decided action in actuator coordinates is in accordance with the present Invention uses adaptive learning mapping. In a first Cycle of orientation becomes a roughly estimated or arbitrarily set Imaging function used. In at least one more cycle becomes an improved "learning" mapping function used.

Diese Annäherung hat den Vorteil, dass, wenn sich die Sensor-/Sensorstellglied-Kenndaten ändern, (Abnützung, Ändern der Einrichtung, Ersatz, Temperaturschwankungen, ...), die korrekte Sensor-/Stellgliedabbildung automatisch über wenige Lern-/Adaptionszyklen ohne menschlichen Einfluss und ohne analytisches Definieren der Korrelation zwischen dem Stellglied- und den Sensorkoordinaten erreicht wird.These approach has the advantage that as the sensor / sensor actuator characteristics change, (wear, change Equipment, replacement, temperature fluctuations, ...), the correct Sensor / actuator mapping automatically over a few learning / adaptation cycles without human influence and without analytic definition of Correlation between the actuator and the sensor coordinates achieved becomes.

Um den adaptiven Lernprozess auszuführen, wird, wenn ein Zyklus beendet ist und eine Aktion ausgeführt ist, der Erfolg der Aktion, d. h., ob die Handhabungseinrichtung tatsächlich eng zur Zielposition gebracht ist, ausgewertet, und in Abhängigkeit von irgendeiner Abweichung wird ein Korrektursignal erzeugt und der Abbildungseinheit zugeführt, um einen inkrementalen Lernschritt auszuführen. Dieser Zyklus kann wiederholt werden, bis die Abweichung zwischen der geplanten Aktion und dem realen Ergebnis kleiner ist als ein vorher festgelegter Schwellenwert. Alternativ können die Zyklen laufend wiederholt werden.Around to carry out the adaptive learning process, when a cycle is completed and an action is taken, the success of the action, d. That is, whether the handling device is actually tight is brought to the target position, evaluated, and in dependence from any deviation, a correction signal is generated and the Supplied imaging unit, to perform an incremental learning step. This cycle can be repeated until the deviation between the planned action and the real result is less than a predetermined threshold. Alternatively you can the cycles are repeated continuously.

Es sei angemerkt, dass das Korrektursignal erzeugt wird, nachdem die Aktion abgeschlossen ist, was bedeutet, das gewünschte Ergebnis auf einen Schlag erbracht wird.It It should be noted that the correction signal is generated after the Action is complete, which means the desired result in one fell swoop is provided.

Zusammengefasst wird gemäß diesem Beispiel die zu unternehmende Aktion in den Sensorkoordinaten entschieden; das Entscheidungsergebnis wird dann auf die Stellgliedkoordinaten (Motorkoordinaten) abgebildet.Summarized will according to this Example decided action to be taken in the sensor coordinates; the decision result will then be on the actuator coordinates (Motor coordinates) shown.

3b zeigt eine alternative Anordnung, bei der die Sensorkoordinaten zunächst auf die Stellgliedkoordinaten abgebildet werden, bevor der Entscheidungsprozess im Stellgliedkoordinatensystem ausgeführt wird. Diese Anordnung hat den Vorteil, dass beispielsweise Beschränkungen hinsichtlich der Stellgliedkoordinaten (maximale Bereiche, Geschwindigkeit, Beschleunigung usw.) einfacher in betracht gezogen werden können, während die Entscheidung nun in den Stellgliedkoordinaten stattfindet. 3b shows an alternative arrangement in which the sensor coordinates are first mapped to the actuator coordinates before the decision process in the actuator coordinate system is executed. This arrangement has the advantage that, for example, restrictions on the actuator coordinates (maximum ranges, speed, acceleration, etc.) can be considered more easily, while the decision now takes place in the actuator coordinates.

Außerdem können gemäß der alternativen Anordnung gemäß 3b Ausgangssignale unterschiedlicher, eventuell verschiedenartiger Sensoren individuell auf entsprechende Stellgliedkoordinaten abgebildet werden, welche dann leicht kombiniert werden können, um die Entscheidung hinsichtlich der zu unternehmenden Aktion zu treffen, auf Basis der kombinierten Stellgliedkoordinaten.In addition, according to the alternative arrangement according to 3b Output signals of different, possibly different sensors can be individually mapped to corresponding actuator coordinates, which can then be easily combined to make the decision regarding the action to be taken, based on the combined actuator coordinates.

Unter Bezug auf 4 sollen eine Ausführungsform der Berechnung eines Korrektursignals und die Adaption der Abbildungsfunktion erläutert werden. Wie schon erläutert ist es die Aufgabe der Abbildung, die Koordinaten der zu entscheidenden Aktion auf Sensorkoordinaten in Koordinaten zu transformieren, welche zur Steuerung der Stellgliedeinrichtung angepasst sind. Folglich zeigt 4 sowohl ein Diagramm der Sensorbaugruppe als auch der Motorbaugruppe entsprechend. Bei dem vorliegenden Beispiel denkt man sich, eine Aktion auszuführen, durch die die Voraktionslage S → t-1 / x in die Mitte der Sensorbaugruppe (Sensoreingangsraum) transformiert wird. Unter Verwendung einer vorher festgelegten Abbildungsfunktion wird angenommen, dass der entsprechende Stellgliedbefehl (Motorbefehl) M → t-1 / x ist. Unter Verwendung dieses Motorbefehls wird jedoch die Voraktionslage M → t-1 / x nicht exakt auf die Zielposition in der Sensorbaugruppe übertragen, sondern auf die Nachaktionslage M → t-1 / x. Gemäß der vorliegenden Ausführungsform wird nun die inkrementale Lernadaption der Abbildungsfunktion als eine lineare Extrapolation ausgeführt, d. h., der adaptive-korrigierte Motorbefehl für die Koordinate x (Freiheitsgrad) und für den nächsten Zyklus ist:

Figure 00090001
αx ein optionaler Parameter ist (der gleich oder größer als 0 ist oder der gleich oder kleiner als 1 ist), der die Adaptionsrate der Koordinate x steuert.With reference to 4 Let us explain an embodiment of the calculation of a correction signal and the adaptation of the mapping function. As already explained, the object of the mapping is to transform the coordinates of the action to be decided on sensor coordinates into coordinates which are adapted to control the actuator means. Consequently shows 4 both a diagram of the sensor assembly and the engine assembly accordingly. In the present example, it is thought to carry out an action by which the pre-action position S → t-1 / x is transformed into the middle of the sensor assembly (sensor input space). Using a predetermined mapping function, it is assumed that the corresponding actuator command (motor command) is M → t-1 / x. Using this motor command, however, the pre-action position M → t-1 / x is not transmitted exactly to the target position in the sensor module but to the post-action position M → t-1 / x. According to the present embodiment, the incremental learning adaptation of the mapping function is now performed as a linear extrapolation, ie, the adaptive-corrected motor command for coordinate x (degree of freedom) and for the next cycle is:
Figure 00090001
α x is an optional parameter (equal to or greater than 0 or equal to or less than 1) that controls the rate of adaptation of the x coordinate.

Es sei angemerkt, dass dieser Extrapolations-Lernprozess auch für lineares Abbilden verwendet werden kann.It It should be noted that this extrapolation learning process is also for linear Imaging can be used.

Außerdem kann der Lernprozess, wie in 4 gezeigt ist, bei beiden den Entscheidungsstrategien von 3a und 3b angewandt werden.Besides, the learning process, as in 4 is shown in both the decision strategies of 3a and 3b be applied.

Schließlich kann dieser Lernprozess auch bei einer einzelnen sowie bei mehrfachen reiz-emittierenden Quellen im Eingangsraum des Sensors (Sensoren) angewandt werden.Finally, can this learning process even with a single as well as multiple stimulus-emitting sources in the input space of the sensor (sensors) be applied.

Um den Lernprozess zu beschleunigen (potentiell durch die Adaptionsraten-Parameter αx), kann mehr als ein Ort in jedem Zyklus verwendet werden. Wie in 5 gezeigt ist, kann, um die Konvergenz der Adaption zu beschleunigen, eine definierte Nachbarschaft einer Stelle verwendet werden. Dadurch ist es, indem der Bereich der Nachbarschaft bezüglich der Zeit variabel gemacht wird, möglich, eine Abbildungsfunktion zu erzielen, welche für den Fall plötzlicher Dekalibrierung des Systems elastisch verbleibt und im gleichen Zeitpunkt lokal stabil bleibt, um eine genaue Darstellung von irgendwelchen Nichtlinearitäten zu garantieren.To speed up the learning process (potentially through the adaptation rate parameters α x ), more than one location may be used in each cycle. As in 5 In order to speed up the convergence of adaptation, a defined neighborhood of a location may be used. Thus, by making the area of the neighborhood variable with respect to time, it is possible to achieve a mapping function which remains elastic in the event of sudden decalibration of the system and remains locally stable at the same time to guarantee an accurate representation of any nonlinearities ,

6 zeigt schematisch, dass eine Vertrauensmessung von dem Korrektursignal hergeleitet werden kann, d. h., durch Anwenden von Plausibilitätsprüfungen. Die Adaptionsrate kann dann mit der Vertrauensmessung moduliert werden (welche einen Wert zwischen 0 und 1 hat). Die Einführung der Vertrauensmessung minimiert das Auftreten fehlerhafter Adaptionsschritte, welche im Fall nicht korrekter Schätzung des Korrektursignals stattfinden können. Dieses Korrektursignal wird üblicherweise durch ein Korrelationsverfahren, bei dem die Korrelation verwendet werden kann (nach Normierung) wie eine Vertrauensmessung berechnet. 6 schematically shows that a confidence measurement can be derived from the correction signal, ie, by applying plausibility checks. The adaptation rate can then be modulated with the confidence measurement (which has a value between 0 and 1). The introduction of the confidence measurement minimizes the occurrence of erroneous adaptation steps, which can take place in case of incorrect estimation of the correction signal. This correction signal is usually calculated by a correlation method in which the correlation can be used (after normalization) like a confidence measure.

7 zeigt schematisch ein selbstkalibrierendes Orientierungs-Positionierungs-System gemäß der vorliegenden Erfindung. 7 schematically shows a self-calibrating orientation-positioning system according to the present invention.

Das System umfasst eine Sensoreinrichtung 1, um Information der realen Welt zu erfassen, um eine Handhabungseinrichtung in dem zumindest eindimensionalen Eingangsraum der Sensoreinrichtung 1 zu lokalisieren. Alternativ kann die Sensoreinrichtung 1 eine Radarbild-Sensorbaugruppe, eine chemische Rezeptorsensorbaugruppe oder eine Stereomikrofon sein, um einen Ton, der durch das Objekt 2 oder irgendeinen anderen Richtsensor zu lokalisieren.The system includes a sensor device 1 to capture real-world information, a handler in the at least one-dimensional input space of the sensor device 1 to locate. Alternatively, the sensor device 1 a radar image sensor assembly, a chemical receptor sensor assembly or a stereo microphone to create a sound passing through the object 2 or locate any other directional sensor.

Die Sensoreinrichtung 1 ist an einem Rahmen befestigt, der die Stellgliedeinrichtungen 41 und 42 aufweist, die beispielsweise ausgebildet sind, die Sensoreinrichtung 1 zu neigen und zu schwenken. Im vorliegenden Beispiel können die Stellgliedeinrichtungen 41 und 42 beispielsweise elektrische Linearmotore sein.The sensor device 1 is attached to a frame which houses the actuator means 41 and 42 has, for example, are formed, the sensor device 1 to tilt and swing. In the present example, the actuator devices 41 and 42 For example, be electric linear motors.

Als Folge davon ist die Stellgliedeinrichtung 41 und 42 angepasst, den Eingangsraum der Sensoreinrichtung 1 zu ändern, wobei sich die Sensoreinrichtung 1 selbst bewegt. Es sei angemerkt, dass irgendein geplanter Prozess, der angepasst ist, den Eingangsraum der Sensoreinrichtung 1 zu ändern, durch Manipulation der realen Welt als "Aktion" innerhalb des Gerüsts der vorliegenden Beschreibung bezeichnet wird. Entsprechend beschreiben "Voraktion" und "Nachaktion" Zustände, vor oder nach dem eine solche Aktion, welche durch die Stellgliedeinrichtung gesteuert wird, stattgefunden hat.As a result, the actuator device is 41 and 42 adapted, the input space of the sensor device 1 to change, with the sensor device 1 even moved. It should be noted that any planned process that is adapted will affect the input space of the sensor device 1 by manipulating the real world is referred to as an "action" within the framework of the present specification. Accordingly, "pre-action" and "post-action" states describe before or after such action controlled by the actuator means has taken place.

Sowohl die Sensoreinrichtung 1 als auch die Stellgliedeinrichtungen 41 und 42 sind mit einer Recheneinrichtung 3 verbunden.Both the sensor device 1 as well as the actuator devices 41 and 42 are with a computing device 3 connected.

In 7 ist die Recheneinrichtung 3 ein Computer, der eingerichtet ist, eine Zielnachaktions-Positionsinformation der Handhabungseinrichtung im Eingangsraum der Sensoreinrichtung 1 zu definieren und um einen Befehl für die Stellgliedeinrichtungen 41 und 42 zu berechnen, um die Sensoreinrichtung 1 zu bewegen. Alternativ oder zusätzlich kann die Berechnungseinrichtung eingerichtet sein, einen Befehl zu berechnen, um einen Manipulator 8 eines Roboters 43 zu bewegen, wobei die Bewegung des Manipulators 8 auch eine Aktion sein kann, die geeignet ist, den Eingangsraum der Sensoreinrichtung 1 unter der Steuerung der Stellgliedeinrichtung 41 und 42 zu ändern.In 7 is the computing device 3 a computer that is set up, a post-destination position information of the handling device in the input space of the sensor device 1 and to define a command for the actuator devices 41 and 42 to charge to the sensor device 1 to move. Alternatively or additionally, the calculation device can be set up to calculate a command to a manipulator 8th a robot 43 to move, with the movement of the manipulator 8th may also be an action that is suitable, the input space of the sensor device 1 under the control of the actuator device 41 and 42 to change.

Wenn der Befehl für die entsprechende Stellgliedeinrichtungen 41, 42 oder den Roboter 43 berechnet wird, verwendet die Berechnungseinrichtung die Voraktions-Positionsinformation, welche durch die Sensoreinrichtung 1 bereitgestellt wird, d. h., Information hinsichtlich der Position der Handhabungseinrichtung im Eingangsraum der Sensoreinrichtung 1, bevor die Aktion stattgefunden hat, und eine Zielnachaktions-Positionsinformation, d. h., Information, welche eine Zielposition der Handhabungseinrichtung 2 darstellt, nachdem die Aktion stattgefunden hat. Die Zielposition kann beispielsweise die Mitte des Eingangsraums der Sensoreinrichtung 1 sein. Alternativ kann insbesondere, wenn die Sensoreinrichtung beispielsweise den Manipulatorarm eines Roboters usw. steuert, die Zielposition als die Position (noch im Eingangsraum der Sensoreinrichtung 1) eines Objekts, welches durch den Roboter zu manipulieren ist, eingestellt werden.When the command for the corresponding actuator devices 41 . 42 or the robot 43 is calculated, the computing means uses the pre-action position information generated by the sensor means 1 is provided, ie, information regarding the position of the handling device in the input space of the sensor device 1 before the action has taken place, and destination post-position information, ie, information indicating a target position of the manipulator 2 represents after the action has taken place. The target position may be, for example, the center of the input space of the sensor device 1 be. Alternatively, in particular, when the sensor device controls, for example, the manipulator arm of a robot, etc., the target position as the position (still in the input space of the sensor device 1 ) of an object to be manipulated by the robot.

Die Berechnungseinrichtung 3 umfasst eine Bestimmungseinrichtung und eine Vergleichseinrichtung 6.The calculation device 3 comprises a determination device and a comparison device 6 ,

Die Bestimmungseinrichtung 5 ist ausgebildet, zu bestimmen, ob eine Nachaktions-Positionsinformation, welche durch die Sensoreinrichtung 1 ausgegeben wird, nachdem eine Aktion der Stellgliedeinrichtungen 41, 42 und/oder des Roboters 43 mit dem Objekt 2 und/oder des Manipulators 8 durch Bewegen der Sensoreinrichtung 1 oder durch Bewegen des Manipulators 8 abgeschlossen ist, mit der Zielnachaktions-Position übereinstimmt, welche vorher durch die Berechnungseinrichtung 3 bestimmt wurde.The determining device 5 is configured to determine whether post-action position information generated by the sensor device 1 is issued after an action of the actuator devices 41 . 42 and / or the robot 43 with the object 2 and / or the manipulator 8th by moving the sensor device 1 or by moving the manipulator 8th is completed, coincides with the destination post-position, which previously by the calculation device 3 was determined.

Wenn die Bestimmungseinrichtung 5 bestimmt, dass die Nachaktions-Objektsensor-Positionsinformation nicht zur Zielobjekt-Sensorpositions-Information passt, ist die Berechnungseinrichtung 3 weiter so ausgebildet, um den berechneten Befehl für die Stellgliedeinrichtungen 41, 42 und den Manipulator 43 zu korrigieren, wobei entsprechend das Vergleichsergebnis verwendet wird, welches durch die Bergleichseinrichtung 6 ausgegeben wird. Der korrigierte Befehl kann dann für eine zukünftige Aktion verwendet werden.If the determining device 5 determines that the post-action object sensor position information does not match the target object sensor position information is the calculating means 3 further adapted to the calculated command for the actuator devices 41 . 42 and the manipulator 43 Correctly using the comparison result obtained by the Bergleichseinrichtung 6 is issued. The corrected command can then be used for a future action.

Um die Lernstrategie von 3a zu realisieren, ist die Berechnungseinrichtung 3 ausgebildet, eine Differenz zwischen der Nachaktions-Objektsensor-Positionsinformation und der Ziel-Nachaktions-Objektsensor-Positionsinformation zu berechnen und um automatisch den berechneten Befehl für die Stellgliedeinrichtungen 41, 42 oder den Manipulator 43 unter Verwendung der folgenden Formel zu korrigieren:

Figure 00120001
wobei M → t+1 / x der korrigierte Befehl für die Stellgliedeinrichtungen (41, 42, 43) für die Dimension x im Zeitpunkt t + 1 ist,
M → t-1 / x der nicht korrigierte Befehl für die Stellgliedeinrichtungen (41, 42, 43) für die Dimension x im Zeitpunkt t – 1 ist,
S→S→ t / x die Nachaktions-Objektsensor-Positionsinformation für die Dimension x ist, in dem Zeitpunkt t, nachdem die Stellgliedeinrichtung (41, 42, 43) gemäß dem nicht korrigierten Befehl gesteuert wurde,
S→S→ t-1 / x die Ziel-Nachaktions-Objektsensor-Positionsinformation für die Dimension x im Zeitpunkt t – 1 ist, und
αx eine Konstante ist, welche die Adaptionsrate für die Dimension x steuert.To the learning strategy of 3a to realize is the calculation device 3 configured to calculate a difference between the post-action object sensor position information and the target post-action object sensor position information, and automatically calculate the calculated command for the actuator devices 41 . 42 or the manipulator 43 correct using the following formula:
Figure 00120001
where M → t + 1 / x is the corrected command for the actuator devices ( 41 . 42 . 43 ) for the dimension x at the time t + 1,
M → t-1 / x the uncorrected command for the actuator devices ( 41 . 42 . 43 ) for the dimension x at time t - 1,
S → S → t / x is the post-action object sensor position information for the dimension x at the time t after the actuator device ( 41 . 42 . 43 ) was controlled according to the uncorrected command,
S → S → t-1 / x is the target post-action object sensor position information for the dimension x at time t-1, and
α x is a constant that controls the adaptation rate for dimension x.

Die Verwendung dieser Differenz erlaubt eine Korrektur des berechneten Befehls für die Stellgliedeinrichtungen 41, 42 und/oder den Manipulator 43 in einer sehr genauen Weise, da die Höhe der Genauigkeit aktuell durch den Befehl erzielt wird, der vorher verwendet wurde, um die Stellgliedeinrichtung 41, 42 zu steuern, und/oder der Roboter 43 explizit betrachtet wird.The use of this difference allows a correction of the calculated command for the actuator devices 41 . 42 and / or the manipulator 43 in a very accurate manner, since the level of accuracy is currently achieved by the command that was previously used to control the actuator device 41 . 42 to control, and / or the robot 43 is explicitly considered.

Die korrigierten Befehle, d. h., die adaptive erlernte Abbildungsfunktion kann durch die Berechnungseinrichtung 3 in der Speichereinrichtung 7 in der Befehlskarte gespeichert sein.The corrected commands, ie, the adaptively learned mapping function, can be determined by the computing device 3 in the storage device 7 stored in the command card.

Die Befehle, welche auf der Befehlskarte gespeichert sind, werden durch die Berechnungseinrichtung 3 verwendet, um irgendwelche neuen Befehle für die Stellgliedeinrichtungen 41, 42 bzw. den Manipulator 43 zu berechnen.The commands stored on the command card are determined by the calculating means 3 used to any new commands for the actuator devices 41 . 42 or the manipulator 43 to calculate.

Durch automatisches Vergleichen der Nachaktion, welche von der Sensoreinrichtung ausgegeben wird, mit einer Voraktion, welche durch die Sensoreinrichtung ausgegeben wird, und unter Verwendung des Vergleichsergebnisses, den berechneten Befehl für die Stellgliedeinrichtung zu korrigieren, erlaubt das erfinderische Verfahren eine automatische Kalibrierung des Orientierungssystems und Adaption an Änderungen und nicht gesteuerter Umgebungen.By automatically comparing the post-action generated by the sensor device is output, with a Voraktion, which by the sensor device and using the comparison result, the calculated command for correcting the actuator device allows the inventive Method an automatic calibration of the orientation system and adaptation to changes and non-controlled environments.

Daher liefert die vorliegende Erfindung ein Verfahren zum Steuern eines Orientierungssystems und ein selbstkalibrierendes Orientierungssystem, welches automatische Kalibrierung des Systems ohne menschliche Intervention mit hoher Genauigkeit zulässt. Außerdem ist das erfinderische Verfahren zum Steuern des Orientierungssystems und das erfinderische selbstkalibrierende Orientierungssystem ausgebildet, mit Nichtlinearitäten bei Motor-/Sensoranworten fertig zu werden, und ist geeignet, bei einer Änderung und/oder nicht gesteuerten Umgebung verwendet zu werden, wo Wartung nicht möglich ist oder nicht gewünscht wird. Somit ist eine Langzeitbetrieb des erfinderischen Systems und ein Verfahren ohne menschlichen Einfluss möglich.Therefore The present invention provides a method for controlling a Orientation system and a self-calibrating orientation system, which automatic calibration of the system without human intervention with high accuracy. Furthermore is the inventive method for controlling the orientation system and the inventive self-calibrating orientation system is formed, with nonlinearities to cope with engine / sensor applications, and is suitable at a change and / or non-controlled environment to be used where maintenance not possible is or not desired becomes. Thus, a long-term operation of the inventive system and a procedure without human influence possible.

Das erfinderische System ist einfacher, flexibler und erfordert weniger Wartung als selbstorientierende/selbstkalibrierende Systeme nach dem Stand der Technik. Eine Änderung hinsichtlich der Geometrie des erfinderischen Systems ist möglich, ohne eine neue Kalibrierung der Stellgliedeinrichtung und der Sensoreinrichtung zu benötigen.The innovative system is simpler, more flexible and requires less Maintenance as self-orienting / self-calibrating systems after the state of the art. A change with regard to the geometry of the inventive system is possible without a new calibration of the actuator device and the sensor device to need.

Claims (18)

Verfahren zum Steuern eines Orientierungs-/Positionierungssystems, wobei das Orientierungssystem zumindest eine Sensoreinrichtung (1) und eine Stellgliedeinrichtung (41, 42, 43) aufweist, um eine Orientierungs- und/oder Positionierungsaktion einer Handhabungseinrichtung (8) und/oder der Sensoreinrichtung (1) zu steuern, wobei die Aktion das Ändern des Eingangsraums der Sensoreinrichtung (1) zur Folge hat, wobei das Verfahren die folgenden Schritte aufweist: – (S1) Auswerten einer Voraktions-Ausgangsinformation der Sensoreinrichtung (1), um die Position der Handhabungseinrichtung im Eingangsraum der Sensoreinrichtung (1) zu erfassen; – (S2) Entscheiden über eine Ziel-Nachaktionsposition der Handhabungseinrichtung (2) im Eingangsraum der Sensoreinrichtung (1); – (S3) Definieren eines Befehls für die Stellgliedeinrichtung (41, 42, 43) durch Abbilden einer Abweichung der Voraktionsposition und der Ziel-Nachaktionsposition in den Eingangsraum-Koordinaten der Sensoreinrichtung (1), um Koordinaten unter Verwendung einer vorgegebenen Abbildungsfunktion stellglied-zu-steuern; – (S4) Orientieren/Positionieren einer Handhabungseinrichtung durch die Stellgliedeinrichtung (41, 42, 43) gemäß dem definierten Befehl, um eine Orientierungs-/Positionierungs-Aktion auszuführen; und – (S5) Erfassen der realen Nachaktionsposition der Handhabungseinrichtung (2) im Eingangsraum der Sensoreinrichtung (1); – (S6) Adaptieren der Abbildungsfunktion, welche im Schritt S3 verwendet wird, auf Basis einer Differenz der realen Nachaktionsposition und der Ziel-Nachaktionsposition der Handhabungseinrichtung im Eingangsraum der Sensoreinrichtung (1), um ein inkrementales adaptives Lernen der Abbildungsfunktion auszuführen, wobei die Schritte S1 bis S6 zumindest einmal unter Verwendung der jeweiligen adaptierten Abbildungsfunktion zyklisch wiederholt werden, dadurch gekennzeichnet, dass das Verfahren außerdem folgende Schritte aufweist: – Berechnen eines Vertrauenswerts auf Basis der Plausibilität der Differenz der realen Nachaktionsposition und der Ziel-Position der Handhabungseinrichtung; und – Modulieren des Adaptionsvektors mit dem Vertrauenswert so, dass die Adaptionsrate vom Vertrauenswert abhängt.Method for controlling an orientation / positioning system, wherein the orientation system comprises at least one sensor device ( 1 ) and an actuator device ( 41 . 42 . 43 ) to perform an orientation and / or positioning action of a handling device ( 8th ) and / or the sensor device ( 1 ), wherein the action is changing the input space of the sensor device ( 1 ), the method comprising the following steps: - (S1) evaluating a pre-action output information of the sensor device ( 1 ) to the position of the handling device in the input space of the sensor device ( 1 ) capture; - (S2) Deciding on a destination post-action position of the handling device ( 2 ) in the input space of the sensor device ( 1 ); (S3) Defining an instruction for the actuator device ( 41 . 42 . 43 ) by mapping a deviation of Pre-action position and the target post-action position in the input space coordinates of the sensor device ( 1 ) to control coordinates using a predetermined mapping function; - (S4) Orientation / positioning of a handling device by the actuator device ( 41 . 42 . 43 ) according to the defined command to perform an orientation / positioning action; and - (S5) detecting the real post-action position of the handling device ( 2 ) in the input space of the sensor device ( 1 ); - (S6) adaptation of the mapping function, which is used in step S3, on the basis of a difference of the real post-action position and the target post-action position of the handling device in the input space of the sensor device ( 1 ) to perform an incremental adaptive learning of the mapping function, wherein steps S1 to S6 are cycled at least once using the respective adapted mapping function, characterized in that the method further comprises the steps of: calculating a confidence score based on the plausibility of the difference the real post-action position and the target position of the handling device; and modulating the adaptation vector with the confidence value such that the adaptation rate depends on the confidence value. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass im Schritt S6 – ein Korrektursignal auf Basis einer Differenz der realen Nachaktionsposition und der Ziel-Position der Handhabungseinrichtung im Eingangsraum der Sensoreinrichtung (1) berechnet wird, und – die Abbildungsfunktion angepasst wird, wobei das Korrektursignal, der ausgeführte Stellgliedbefehl und die Voraktionsposition der Handhabungseinrichtung im Eingangsraum der Sensoreinrichtung (1) in Betracht gezogen werden.A method according to claim 1, characterized in that in step S6 - a correction signal based on a difference of the real post-action position and the target position of the handling device in the input space of the sensor device ( 1 ), and - the mapping function is adapted, wherein the correction signal, the executed actuator command and the Voraktionsposition the handling device in the input space of the sensor device ( 1 ) be considered. Verfahren zum Steuern eines Orientierungssystems nach Anspruch 2, dadurch gekennzeichnet, dass vor der Adaption der Abbildungsfunktion der Adaptionsvektor mit einem Faktor multipliziert ist, der größer oder gleich 0 und kleiner oder gleich als 1 ist, um die Adaptionsrate für Abbildungsfunktion zu steuern.Method for controlling an orientation system according to claim 2, characterized in that prior to the adaptation of the Mapping function of the adaptation vector multiplied by a factor is that greater or equal 0 and less than or equal to 1 is the adaptation rate for mapping function to control. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Abbildungsfunktion mittels einer Nachschlagetabelle verwirklicht wird.Method according to one of the preceding claims, characterized characterized in that the mapping function by means of a look-up table is realized. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in den Schritten S1 bis S6 für jeden Zyklus nicht nur die Lage, sondern auch eine Nachbarschaft in einem definierten Bereich, der die Lage umgibt, verwendet wird.Method according to one of the preceding claims, characterized characterized in that in steps S1 to S6 for each Cycle not only the location, but also a neighborhood in one defined area surrounding the location is used. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass der Bereich der Nachbarschaft zwischen zwei aufeinanderfolgenden Zyklen geändert werden kann.Method according to claim 5, characterized in that that the area of the neighborhood between two consecutive Cycles changed can be. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Adaption der Abbildungsfunktion in den Sensorkoordinaten ausgeführt wird.Method according to one of the preceding claims, characterized characterized in that the adaptation of the mapping function in the Sensor coordinates executed becomes. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass die Adaption der Abbildungsfunktion in Stellgliedkoordinaten ausgeführt wird.Method according to one of claims 1 to 7, characterized that the adaptation of the mapping function in actuator coordinates accomplished becomes. Verfahren nach einem der vorhergehenden Ansprüche, welches folgenden Schritt aufweist: – (S2) Entscheiden über die Ziel-Nachaktionsposition, wobei die Entscheidung in den Stellglied-Steuerkoordinaten stattfindet.Method according to one of the preceding claims, which the following step: - (S2) decide on the Target post-action position, wherein the decision in the actuator control coordinates takes place. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass Ausgangssignale mehrerer Sensoreinrichtungen individuell in Stellgliedkoordinaten abgebildet werden und dann kombiniert werden, wobei die Entscheidung im Schritt S2 in Bezug auf die Basis des Ergebnisses der Kombination ausgeführt wird.Method according to claim 9, characterized that output signals of several sensor devices individually in Actuator coordinates are mapped and then combined, the decision in step S2 being based on the basis of Result of the combination is performed. Verfahren nach Anspruch 9 oder 10, dadurch gekennzeichnet, dass Beschränkungen des Stellglieds in Betracht gezogen werden, wenn die Entscheidung im Schritt S2 getroffen wird.Method according to claim 9 or 10, characterized that restrictions the actuator should be considered when making the decision is taken in step S2. Computer-Software-Produkt, welches angepasst ist, ein Verfahren nach einem der vorhergehenden Ansprüche zu verwirklichen, wenn dies auf einer Computereinrichtung abläuft.Computer software product which is customized to realize a method according to any one of the preceding claims, when this happens on a computing device. Automatisches Kalibrierungs-Orientierungs-/Positionierungssystem, welches zumindest eine Sensoreinrichtung (1), eine Berechnungseinrichtung und eine Stellgliedeinrichtung (41, 42, 43) aufweist, um eine Orientierungs- und/oder Positionierungsaktion der Handhabungseinrichtung (8) und/oder der Sensoreinrichtung (1) zu steuern, wobei die Aktion das Ändern des Eingangsraums der Sensoreinrichtung (1) zur Folge hat, wobei die Berechnungseinrichtung aufweist: – eine Einrichtung zum Auswerten von Voraktions-Ausgangsinformation der Sensoreinrichtung (1), um die Position der Handhabungseinrichtung im Eingangsraum der Sensoreinrichtung (1) zu erfassen; – eine Einrichtung zum Entscheiden über eine Ziel-Nachaktionsposition der Handhabungseinrichtung (2) im Eingangsraum der Sensoreinrichtung (1); – eine Einrichtung zum Befehligen der Stellgliedeinrichtung (41, 42, 43), wobei der Befehl durch Abbilden einer Abweichung des Voraktionsposition und der Ziel-Nachaktionsposition im Eingangsraum der Sensoreinrichtung (1) erzeugt wird, um Koordinaten unter Verwendung einer vorgegebenen Abbildungsfunktion stellglied-zu-steuern; – eine Einrichtung zum Erfassen der realen Nachaktionsposition der Handhabungseinrichtung im Eingangsraum der Sensoreinrichtung (1); – eine Einrichtung zum Kalibrieren der Abbildungsfunktion auf Basis einer Differenz der realen Nachaktionsposition und der Ziel-Nachaktionsposition der Handhabungseinrichtung im Eingangsraum der Sensoreinrichtung (1), um ein inkrementales adaptives Lernen der Abbildungsfunktion auszuführen, dadurch gekennzeichnet, dass diese außerdem aufweist: – eine Einrichtung zum Berechnen eines Vertrauenswerts auf Basis der Plausibilität der Differenz der realen Nachaktionsposition und Ziel-Nachaktionsposition der Handhabungseinrichtung, und – eine Einrichtung zum Modulieren des Adaptionsvektors mit dem Vertrauenswert, derart, dass die Adaptionsrate vom Vertrauenswert abhängt.Automatic calibration orientation / positioning system comprising at least one sensor device ( 1 ), a calculation device and an actuator device ( 41 . 42 . 43 ) to provide an orientation and / or positioning action of the handling device ( 8th ) and / or the sensor device ( 1 ), wherein the action is changing the input space of the sensor device ( 1 ), the calculation device comprising: - means for evaluating pre-action output information of the sensor device ( 1 ) to the position of the handling device in the input space of the sensor device ( 1 ) capture; A device for deciding on a destination post-action position of the handling device ( 2 ) in the input space of the sensor device ( 1 ); A device for commanding the actuator device ( 41 . 42 . 43 ), wherein the command by mapping a deviation of the pre-action position and the target post-action position in the input space of the sensor device ( 1 ) to adjust coordinates using a predetermined mapping function; A device for detecting the real post-action position of the handling device in the input space of the sensor device ( 1 ); A device for calibrating the imaging function on the basis of a difference of the real post-action position and the target post-action position of the handling device in the input space of the sensor device ( 1 ) to perform an incremental adaptive learning of the mapping function, characterized by further comprising: means for calculating a confidence score based on the plausibility of the difference of the real post-action position and target post-action position of the manipulator, and means for modulating the adaptation vector with the confidence value, such that the adaptation rate depends on the confidence value. System nach Anspruch 13, gekennzeichnet durch eine Einrichtung zum Berechnen eines Korrektursignals auf Basis einer Differenz der realen Nachaktionsposition und der Ziel-Nachaktionsposition der Handhabungseinrichtung im Eingangsraum der Sensoreinrichtung (1), wobei die Abbildungsfunktion kalibriert wird, wobei das Korrektursignal und die Voraktionsposition der Handhabungseinrichtung im Eingangsraum der Sensoreinrichtung (1) in Betracht gezogen werden.A system according to claim 13, characterized by means for calculating a correction signal on the basis of a difference of the real post-action position and the target post-action position of the handling device in the input space of the sensor device ( 1 ), wherein the mapping function is calibrated, wherein the correction signal and the Voraktionsposition the handling device in the input space of the sensor device ( 1 ) be considered. System nach Anspruch 14, dadurch gekennzeichnet, dass vor der Kalibrierung der Abbildungsfunktion das Korrektursignal mit einem Faktor multipliziert wird, der größer als oder gleich 0 und kleiner als oder gleich 1 ist, um die Adaptionsrate für die Abbildungsfunktion zu steuern.System according to claim 14, characterized in that that before the calibration of the imaging function, the correction signal multiplied by a factor greater than or equal to 0 and less is equal to or greater than 1 to the rate of adaptation for the mapping function Taxes. System nach einem der Ansprüche 14 oder 15, dadurch gekennzeichnet, dass die Abbildungsfunktion mittels einer Nachschlagetabelle verwirklicht wird.System according to one of claims 14 or 15, characterized that realizes the mapping function by means of a look-up table becomes. System nach einem der Ansprüche 14 bis 16, dadurch gekennzeichnet, dass die Sensoreinrichtung zumindest eines von einer Kamera oder einem Mikrophon aufweist.System according to one of claims 14 to 16, characterized that the sensor device at least one of a camera or a microphone. System nach einem der Ansprüche 14 bis 17, dadurch gekennzeichnet, dass die Handhabungseinrichtung eine Robotereinrichtung ist.System according to one of claims 14 to 17, characterized the handling device is a robot device.
DE200460012228 2004-04-16 2004-05-25 Self-calibrating orientation system for a handling device Expired - Lifetime DE602004012228T2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP04009122 2004-04-16
EP04009122 2004-04-16

Publications (2)

Publication Number Publication Date
DE602004012228D1 DE602004012228D1 (en) 2008-04-17
DE602004012228T2 true DE602004012228T2 (en) 2009-03-12

Family

ID=39185300

Family Applications (1)

Application Number Title Priority Date Filing Date
DE200460012228 Expired - Lifetime DE602004012228T2 (en) 2004-04-16 2004-05-25 Self-calibrating orientation system for a handling device

Country Status (2)

Country Link
CN (1) CN100549891C (en)
DE (1) DE602004012228T2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112017008018B4 (en) * 2017-11-02 2021-03-04 Mitsubishi Electric Corporation CALIBRATION DEVICE, CALIBRATION PROCEDURE AND CONTROL DEVICE

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017184478A1 (en) * 2016-04-17 2017-10-26 President And Fellows Of Harvard College Magnetic receptive sensor and optimized drawing and erasing for vertically driving robot
TWI658368B (en) * 2017-06-21 2019-05-01 財團法人資訊工業策進會 Sensor estimation server and sensor estimation method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112017008018B4 (en) * 2017-11-02 2021-03-04 Mitsubishi Electric Corporation CALIBRATION DEVICE, CALIBRATION PROCEDURE AND CONTROL DEVICE

Also Published As

Publication number Publication date
CN1696856A (en) 2005-11-16
CN100549891C (en) 2009-10-14
DE602004012228D1 (en) 2008-04-17

Similar Documents

Publication Publication Date Title
DE102016116702B4 (en) Measuring system for calibrating the mechanical parameters of a robot
DE102012104194B4 (en) Robot and spot welding robot with learning control function
DE102015001527B4 (en) Robot system using visual feedback
DE102018001026B4 (en) Robot system with a learning control function and a learning control method
DE102018001676B4 (en) Robot for learning control with regard to operation of a production line and method for controlling the same
US7324907B2 (en) Self-calibrating sensor orienting system
DE102010032840B4 (en) Apparatus and method for measuring the position of a tool center of a robot
DE102015002348B4 (en) Robot controller with the function to simplify the teaching process and to improve the mobility of the robot
DE102011011681B4 (en) Robot with a learning control function
DE3688095T2 (en) CONTROL DEVICE FOR A NON-LINEAR MECHANICAL SYSTEM WITH MULTIPLE DEGREE OF FREEDOM.
DE602005003147T2 (en) measuring system
DE102009034529A1 (en) Automatic guidance and detection system and method for this
DE69028041T2 (en) Profile control system for robots
DE102019001948A1 (en) Control and machine learning device
DE102009059221A1 (en) Method and apparatus for calibrating a position and attitude of a robotic arm tip
DE602004012228T2 (en) Self-calibrating orientation system for a handling device
EP1586421B1 (en) Self-calibrating orienting system for a manipulating device
DE102004001320A1 (en) System and method of a steer-by-wire control for vehicles with a reference angle generator for the front wheels
EP2026589B1 (en) Online calibration of stereo camera systems including fine vergence movements
DE102016013083B4 (en) Calibrate a model of a process robot and operate a process robot
DE102020211648A1 (en) Apparatus and method for controlling a robotic device
DE102014112062A1 (en) Position control device for identifying a low-frequency disturbance
WO2020161037A1 (en) Combining two individual robot manipulators to form a robot system by means of calibration
DE102019131401B3 (en) Calibration of an impedance control of a robot manipulator
DE102005032336B4 (en) Method for influencing a control or for controlling a movement device and control or control component of a movement device

Legal Events

Date Code Title Description
8381 Inventor (new situation)

Inventor name: JOUBLIN, FRANK, 63073 OFFENBACH, DE

Inventor name: RODEMANN, TOBIAS, 63073 OFFENBACH, DE

8364 No opposition during term of opposition