DE102019214984A1 - Inertialsensor und computerimplementiertes Verfahren zur Selbstkalibrierung eines Inertialsensors - Google Patents

Inertialsensor und computerimplementiertes Verfahren zur Selbstkalibrierung eines Inertialsensors Download PDF

Info

Publication number
DE102019214984A1
DE102019214984A1 DE102019214984.7A DE102019214984A DE102019214984A1 DE 102019214984 A1 DE102019214984 A1 DE 102019214984A1 DE 102019214984 A DE102019214984 A DE 102019214984A DE 102019214984 A1 DE102019214984 A1 DE 102019214984A1
Authority
DE
Germany
Prior art keywords
neural network
artificial neural
value
output
output value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019214984.7A
Other languages
English (en)
Inventor
Matthias Kuehnel
Wenqing Liu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102019214984.7A priority Critical patent/DE102019214984A1/de
Priority to US17/032,672 priority patent/US20210095995A1/en
Priority to CN202011055044.6A priority patent/CN112577515A/zh
Publication of DE102019214984A1 publication Critical patent/DE102019214984A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P21/00Testing or calibrating of apparatus or devices covered by the preceding groups
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C19/00Gyroscopes; Turn-sensitive devices using vibrating masses; Turn-sensitive devices without moving masses; Measuring angular rate using gyroscopic effects
    • G01C19/56Turn-sensitive devices using vibrating masses, e.g. vibratory angular rate sensors based on Coriolis forces
    • G01C19/5719Turn-sensitive devices using vibrating masses, e.g. vibratory angular rate sensors based on Coriolis forces using planar vibrating masses driven in a translation vibration along an axis
    • G01C19/5726Signal processing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • G01C25/005Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass initial alignment, calibration or starting-up of inertial devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/029Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks and expert systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/404Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by control arrangements for compensation, e.g. for backlash, overshoot, tool offset, tool wear, temperature, machine construction errors, load, inertia
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Manufacturing & Machinery (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Gyroscopes (AREA)

Abstract

Die Erfindung betrifft ein computerimplementiertes Verfahren zur Selbstkalibrierung eines Inertialsensors. Das Verfahren weist folgende Schritte auf: Festlegen von Daten, die sich auf den Inertialsensor beziehen; Unterteilen der Daten in Trainingsdaten und Testdaten; Festsetzen eines ersten Ziel-Genauigkeitswertes für ein erstes künstliches neuronales Netz, das lineare Aktivierungsfunktionen aufweist; Trainieren des ersten künstlichen neuronalen Netzes mit den Trainingsdaten; Eingeben der Testdaten in das trainierte erste künstliche neuronale Netz, um einen ersten Ausgangswert des ersten künstlichen neuronalen Netzes zu erlangen; Festlegen eines ersten Output-Genauigkeitswertes basierend auf einem Vergleichsergebnis zwischen dem ersten Ausgangswert und den Testdaten; Abspeichern von Gewichtungen und der linearen Aktivierungsfunktionen des ersten künstlichen neuronalen Netzes in einer Speichereinheit des Inertialsensors, wenn der erste Output-Genauigkeitswert größer als der erste Ziel-Genauigkeitswert ist, oder Trainieren des ersten künstlichen neuronalen Netzes wieder mit den Trainingsdaten, wenn der erste Output-Genauigkeitswert geringer als der erste Ziel-Genauigkeitswert ist.

Description

  • Die Erfindung betrifft ein computerimplementiertes Verfahren zur Selbstkalibrierung eines Inertialsensors. Des Weiteren betrifft die Erfindung einen Inertialsensor zum Vornehmen des Verfahrens, ein Computerprogramm und ein computerlesbares Medium.
  • Stand der Technik
  • Typischerweise ist die Empfindlichkeit von Inertialsensoren nicht konstant, sondern sie weicht nach dem Löten und während der gesamten Betriebslebensdauer aufgrund von Schwankungen der mechanischen und thermischen Belastungen vom Sollwert ab. Insbesondere ändert sich das Verhältnis zwischen dem Sensorausgangswert und dem Sensoreingangswert, was zur Ungenauigkeit der Sensormessungen führt. Nach dem Einbau von Mikrosystem-Geräten (engl. „microelectromechanical system devices“ oder „MEMS devices“), die Inertialsensoren aufweisen, in Zielprodukte, wie z.B. Smartphones, Drohnen, ist auf Kundenseite eine genaue Charakterisierung und Korrektur der Empfindlichkeit der Inertialsensoren mit spezifischen Prüfständen meistens nicht mehr möglich, weil die Kunden sehr selten über dedizierte spezifische Prüfstände verfügen.
  • Die Erfassungsempfindlichkeit eines Inertialsensors beschreibt eine elektrische Reaktion auf eine physikalische Anregung, wie z.B. die Rotations- bzw. Giergeschwindigkeit eines Gyroskops oder die Beschleunigungsgeschwindigkeit eines Beschleunigungsmessers. Die Empfindlichkeit von elektrischen Testsignalen beschreibt eine elektrische Reaktion auf elektrische Testsignale.
  • Die beiden oben erwähnten Empfindlichkeiten sind zwei verschiedene Maßnahmen, stehen jedoch in enger Wechselbeziehung zueinander. Die Variation der Erfassungsempfindlichkeit eines Inertialsensors wird hauptsächlich durch geometrische und strukturelle Änderungen der Struktur eines Mikrosystems verursacht, beispielsweise durch eine Änderung des Abstandes zwischen den Elektroden und dem Sensorelement.
  • In mehrachsigen Gyroskopen, für deren jede Achse mindestens ein Paar Testelektroden implementiert sind, kann die Variation der elektrischen Empfindlichkeit des Testsignals für jede Achse bestimmt werden. Es wurde vorgeschlagen, eine lineare Anpassung erster Ordnung anzuwenden, um die Empfindlichkeitsabweichung für jede Achse abzuschätzen. Die lineare Anpassung ist einfach zu implementieren. Jedoch hat diese eine geringe Genauigkeit und kann die nichtlinearen Verzerrungen nicht modellieren.
  • Um nichtlineare Verhalten zu behandeln, können Methoden des maschinellen Lernens angewendet werden. Eine Lösung zur Abbildung der Kalibrierung der thermischen Vorspannung von Mikrosystem-Gyroskopen ist aus dem Artikel „MEMS gyros temperature calibration through artificial neural networks“ von Rita Fontanellaa et al. bekannt.
  • Lineare Anpassungen sind in ihrer Komplexität begrenzt. Sie sind daher ungeeignet, angewendet zu werden, um komplexe funktionale Zusammenhänge zwischen Daten zu lernen. Wenn eine lineare Funktion der Beziehung zwischen Eingabe und Ausgabe nicht angemessen angenähert werden kann, zeigt das Modell eine schlechte Prognose. Bei herkömmlichen künstlichen neuronalen Netzen (engl. „artificial neural networks“ oder „ANN“) werden normalerweise nichtlineare Aktivierungsfunktionen verwendet. Leistungsfähige Annährungen sind durch diese künstlichen neuronalen Netze möglich, mit denen komplexe und komplizierte Formulardaten jeder Art berechnet und gelernt werden können. Sie repräsentieren nichtlineare beliebige funktionale Abbildungen zwischen Ein- und Ausgängen. Wenn die Anzahl der Eingaben und/oder Schichten zunimmt, können jedoch die Ausgaben unter unerwünschter Überanpassung (engl. „overfitting“) leiden, was zu einer gravierenden Verschlechterung der Genauigkeit der Sensormessungen führt.
  • Nach 2 wird beispielsweise ein Vergleich der Verteilungen 80, 90 der endgültigen Empfindlichkeit eines Inertialsensors gezeigt, die unter Verwendung einer linearen Anpassungsfunktion, deren angenäherte Verteilung 80 mit einer gestrichelten Linie gezeigt ist, und eines künstlichen neuronalen Netzes mit einer nichtlinearen Aktivierungsfunktion, deren angenäherte Verteilung 90 mit einer durchgezogenen Linie gezeigt ist, korrigiert wurde. Aus statistischer Sicht sind beide Verteilungen symmetrisch und unimodal. Die Verteilung 80 hat bei dem Mittelwert von 1,0 eine geringere Wahrscheinlichkeitsdichte und einen engeren Gesamtbereich, während die Verteilung 90 bei dem Mittelwert einen höheren Wert (siehe die gezeigte Differenz 91) hat, jedoch aufgrund von Ausreißern 92, die durch die Überanpassung verursacht wurden, mit einem größeren Gesamtbereich. Die erhöhte Punktzahl der Verteilung 90 beim Mittelwert ist die erwartete Verbesserung, die durch die nichtlinearen Aktivierungsfunktionen erreicht wird.
  • Die Druckschrift US 2015/0121990 A1 offenbart einen Gierratensensor, umfassend eine bewegliche Massenstruktur, eine Antriebskomponente, die geeignet ist, die bewegliche Massenstruktur in Bewegung zu setzen, und eine Analysekomponente, die geeignet ist, eine Reaktion der beweglichen Massenstruktur auf eine Giergeschwindigkeit zu erfassen.
  • Offenbarung der Erfindung
  • Die vorliegende Erfindung schafft ein computerimplementiertes Verfahren zur Selbstkalibrierung eines Inertialsensors nach Anspruch 1, einen Inertialsensor zum Vornehmen des Verfahrens nach Anspruch 7, ein Computerprogramm nach Anspruch 9 und ein computerlesbares Medium nach Anspruch 10.
  • Bevorzugte Weiterbildungen sind Gegenstand der Unteransprüche.
  • Vorteile der Erfindung
  • Gemäß einem ersten Aspekt betrifft die Erfindung ein computerimplementiertes Verfahren zur Selbstkalibrierung eines Inertialsensors. Das Verfahren weist folgende Schritte auf: Festlegen von Daten, die sich auf den Inertialsensor beziehen; Unterteilen der Daten in Trainingsdaten und Testdaten; Festsetzen eines ersten Ziel-Genauigkeitswertes für ein erstes künstliches neuronales Netz, das lineare und/oder nichtlineare Aktivierungsfunktionen aufweist; Trainieren des ersten künstlichen neuronalen Netzes mit den Trainingsdaten; Eingeben der Testdaten in das trainierte erste künstliche neuronale Netz, um einen ersten Ausgangswert des ersten künstlichen neuronalen Netzes zu erlangen; Festlegen eines ersten Output-Genauigkeitswertes basierend auf einem Vergleichsergebnis zwischen dem ersten Ausgangswert und den Testdaten; Abspeichern von Gewichtungen und der linearen und/oder nichtlinearen Aktivierungsfunktionen des ersten künstlichen neuronalen Netzes in einer Speichereinheit des Inertialsensors, wenn der erste Output-Genauigkeitswert größer als der erste Ziel-Genauigkeitswert ist, oder Trainieren des ersten künstlichen neuronalen Netzes wieder mit den Trainingsdaten, wenn der erste Output-Genauigkeitswert geringer als der erste Ziel-Genauigkeitswert ist; Festlegen eines oberen Einschränkungswertes und eines unteren Einschränkungswertes für ein zweites künstliches neuronales Netz, das nichtlineare Aktivierungsfunktionen aufweist, basierend auf einer vorgegebenen Konstante und dem ersten Ausgangswert des ersten künstlichen neuronalen Netzes; Trainieren des zweiten künstlichen neuronalen Netzes mit den Trainingsdaten; Eingeben der Testdaten in das trainierte zweite künstliche neuronale Netz, um einen zweiten Ausgangswert des zweiten künstlichen neuronalen Netzes zu erlangen; Vergleichen des zweiten Ausgangswertes des zweiten künstlichen neuronalen Netzes mit einem Wertbereich von dem oberen Einschränkungswert bis zu dem unteren Einschränkungswert; Festlegen eines dritten Ausgangswertes auf den zweiten Ausgangswert, wenn der zweite Ausgangswert innerhalb des Wertbereiches liegt, oder auf den ersten Ausgangswert, wenn der zweite Ausgangswert nicht innerhalb des Wertbereiches liegt; und Abspeichern von Gewichtungen und der nichtlinearen Aktivierungsfunktionen des zweiten künstlichen neuronalen Netzes sowie der vorgegebenen Konstante in der Speichereinheit.
  • Erfindungsgemäß wird ein datenbasiertes Verfahren zur Abschätzung des Empfindlichkeitsfehlers bzw. der ungenauen Empfindlichkeit eines Inertialsensors vorgeschlagen. Mit dem erfindungsgemäßen Verfahren, und zwar mit dem Einsatz des oberen Einschränkungswertes und des unteren Einschränkungswertes, wird die beim Stand der Technik ungewünschte Überanpassung wirksam vermieden. Die erfindungsgemäße Zusammenarbeit des ersten und des zweiten künstlichen neuronalen Netzes und die erfindungsgemäße Strategie bezüglich der Entscheidung für die Ausgangswerte der beiden neuronalen Netze führen zu einer verbesserten Korrektur bzw. Kalibrierung der Empfindlichkeit des Inertialsensors.
  • Es ist erfindungsgemäß vorteilhaft, dass, wenn Signale vom Inertialsensor erfasst werden, mit der Ausgestaltung des ersten und zweiten künstlichen neuronalen Netzes die Verteilung der endgültigen Empfindlichkeit des Inertialsensors keine durch die Überanpassung verursachten Ausreißer aufweist, was fatale Fehler bezüglich der Empfindlichkeit des Inertialsensors vermeidet.
  • Beim erfindungsgemäßen Verfahren werden möglichst viele auf den Inertialsensor bezogene Informationen berücksichtigt und die relevanten Merkmale automatisch entnommen, ohne zusätzliche komplizierte Messungen an dedizierten speziellen Prüfständen durchführen zu müssen. Diese Informationen umfassen beispielhaft Testsignale und Umgebungsänderungen, die (von Auswertung-ASIC des Sensors) während der Betriebslebensdauer erhalten wurden, Prozesstoleranzen, strukturelle Asymmetrien und andere intrinsische Eigenschaften des Inertialsensors, die durch lineare Funktionen sehr schwierig zu behandeln sind. Bei Mehrachsensensoren berücksichtigt das erfindungsgemäße Verfahren aufgrund der mechanischen und elektrischen Kopplung der verschiedenen Achsen, die bei dem Design, dem Herstellungsprozess und der Verpackung eingeführt wurde, auch die Zusammenhänge zwischen den Achsen. Mit anderen Worten nutzt das erfindungsgemäße Verfahren Informationen über die übrigen Achsen, um die abgewichene Empfindlichkeit jeder Achse abzuschätzen. Die Empfindlichkeitsfehler bzw. Empfindlichkeitsabweichungen eines Inertialsensors können daher erfindungsgemäß genauer prognostiziert werden als mit den linearen Anpassungsfunktionen.
  • Erfindungsgemäß ist es außerdem vorteilhaft, bei der Trainingsphase des ersten künstlichen neuronalen Netzes einen ersten Ziel-Genauigkeitswert als Sollwert zum Vergleich mit dem ersten Output-Genauigkeitswert als Istwert festzusetzen.
  • Damit wird ein erwünschtes Trainingsergebnis für das erste künstliche neuronale Netz gewährleistet.
  • In einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens ist es vorgesehen, dass das Verfahren ferner folgende Schritte aufweist: Festsetzen eines zweiten Ziel-Genauigkeitswertes für das zweite künstliche neuronale Netz; Festlegen eines zweiten Output-Genauigkeitswertes basierend auf einem Vergleichsergebnis zwischen dem dritten Ausgangswert und den Testdaten; und Abspeichern von Gewichtungen und der nichtlinearen Aktivierungsfunktionen des zweiten künstlichen neuronalen Netzes sowie der vorgegebenen Konstante in der Speichereinheit, wenn der zweite Output-Genauigkeitswert größer als der zweite Ziel-Genauigkeitswert ist, oder Trainieren des zweiten künstlichen neuronalen Netzes wieder mit den Trainingsdaten, wenn der zweite Output-Genauigkeitswert geringer als der zweite Ziel-Genauigkeitswert ist.
  • Es ist besonders vorteilhaft, bei der Trainingsphase des zweiten künstlichen neuronalen Netzes einen zweiten Ziel-Genauigkeitswert als Sollwert zum Vergleich mit dem zweiten Output-Genauigkeitswert als Istwert festzusetzen. Damit wird ein erwünschtes Trainingsergebnis für das zweite künstliche neuronale Netz gewährleistet.
  • In einer weiteren bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens ist es vorgesehen, dass basierend auf den in der Speichereinheit abgespeicherten Gewichtungen und den linearen und/oder nichtlinearen Aktivierungsfunktionen des ersten künstlichen neuronalen Netzes, den Gewichtungen und den nichtlinearen Aktivierungsfunktionen des zweiten künstlichen neuronalen Netzes sowie der vorgegebenen Konstante ein statistisches Modell aufgebaut wird. Mit dem Modell ist es möglich, nach dem Einbau des Inertialsensors in ein Gerät die Empfindlichkeitsabweichungen zu erkennen und den Sensor selbst kalibrieren zu lassen.
  • In einer weiteren bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens ist es vorgesehen, dass durch den Inertialsensor Signale erfasst werden, und dass das statistische Modell angewendet wird, indem die erfassten Signale in das Modell eingegeben werden und das Modell einen vierten Ausgangswert ausgibt. Dieser vierte Ausgangswert kann als der erfindungsgemäße korrigierte Ausgangswert des Inertialsensors verwendet werden.
  • In einer weiteren bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens ist es vorgesehen, dass die erfassten Signale in das erste künstliche neuronale Netz und das zweite künstliche neuronale Netz des Modells eingegeben werden, um einen fünften Ausgangswert des ersten künstlichen neuronalen Netzes und einen sechsten Ausgangswert des zweiten künstlichen neuronalen Netzes zu ergeben.
  • In einer weiteren bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens ist es vorgesehen, dass der vierte Ausgangswert auf den sechsten Ausgangswert festgelegt wird, wenn der sechste Ausgangswert innerhalb des sich basierend auf dem fünften Ausgangswert und der vorgegebenen Konstante ergebenen Wertbereiches liegt, oder, dass der vierte Ausgangswert auf den fünften Ausgangswert festgelegt wird, wenn der sechste Ausgangswert nicht innerhalb des Wertbereiches liegt. So wird eine Selbstkalibrierung des Inertialsensors erreicht.
  • Gemäß einem zweiten Aspekt betrifft die Erfindung einen Inertialsensor zum Vornehmen des Verfahrens nach dem ersten Aspekt der Erfindung. Der Inertialsensor weist zumindest eine Speichereinheit, eine Steuereinheit und eine Multiply-Accumulate-Einheit auf.
  • In einer bevorzugten Ausführungsform des erfindungsgemäßen Inertialsensors ist es vorgesehen, dass die Speichereinheit so eingerichtet ist, die Gewichtungen und die linearen und/oder nichtlineare Aktivierungsfunktionen des ersten künstlichen neuronalen Netzes, die Gewichtungen und die nichtlinearen Aktivierungsfunktionen des zweiten künstlichen neuronalen Netzes, die vorgegebene Konstante sowie die erfassten Signale abzuspeichern, dass die Steuereinheit so eingerichtet ist, in der Speichereinheit Adressen zu generieren und den Speicherzugriff zu steuern, und dass die Multiply-Accumulate-Einheit so eingerichtet ist, die erfassten Signale bzw. Neuro-Outputs mit den entsprechenden Gewichtungen zu multiplizieren und die entsprechenden Produkte zu addieren.
  • Gemäß einem dritten Aspekt betrifft die Erfindung ein Computerprogramm, das Befehle umfasst, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, das Verfahren nach dem ersten Aspekt der Erfindung auszuführen.
  • Gemäß einem vierten Aspekt betrifft die Erfindung ein computerlesbares Medium, das Befehle umfasst, die bei der Ausführung durch einen Computer diesen veranlassen, das Verfahren nach dem ersten Aspekt der Erfindung auszuführen.
  • Figurenliste
  • Die vorliegende Erfindung wird nachfolgend anhand der in den schematischen Figuren angegebenen Ausführungsbeispiele näher erläutert. Es zeigen:
    • 1 ein stark vereinfachtes Blockdiagramm der wesentlichen Elemente einer Ausführungsform des erfindungsgemäßen computerimplementierten Verfahrens;
    • 2 beispielhaft zwei Verteilungen der kalibrierten Empfindlichkeit unter Verwendung einer linearen Anpassungsfunktion und eines künstlichen neuronalen Netzes mit einer nichtlinearen Aktivierungsfunktion;
    • 3 die Struktur eines herkömmlichen künstlichen neuronalen Netzes;
    • 4 ein Flussdiagramm einer weiteren Ausführungsform des erfindungsgemäßen computerimplementierten Verfahrens;
    • 5 ein Flussdiagramm einer weiteren Ausführungsform des erfindungsgemäßen computerimplementierten Verfahrens;
    • 6 ein schematisch dargestelltes Blockdiagramm eines Teils einer Ausführungsform des erfindungsgemäßen Inertialsensors;
    • 7 eine schematisch dargestellte Ausführungsform des erfindungsgemäßen Computerprogramms; und
    • 8 eine schematisch dargestellte Ausführungsform des erfindungsgemäßen computerlesbaren Mediums.
  • Ausführungsformen der Erfindung
  • In den Figuren bezeichnen gleiche Bezugszeichen gleiche bzw. funktionsgleiche Elemente.
  • Die in 1 gezeigten wesentlichen Elemente einer Ausführungsform des erfindungsgemäßen computerimplementierten Verfahrens sind ein erstes
    künstliches neuronales Netz 10, ein zweites künstliches neuronales Netz 20 und eine Einheit 25, insbesondere ein Prozessor, zur Kontrolle des Grenzwertes der Ausgabe des zweiten künstlichen neuronalen Netzes 20 und zur Festlegung des endgültigen Ausgangswertes.
  • Das erste und zweite künstliche neuronale Netz 10, 20 können jeweils auf ein herkömmliches künstliches neuronales Netz, dessen Struktur beispielsweise wie die in 3 gezeigte Struktur aussieht, aufgebaut werden. Das in 3 gezeigte herkömmliche künstliche neuronale Netz weist eine Eingabeschicht 11 mit drei Eingaben 13, eine verdeckte Schicht 15 mit drei Neuronen 17 und eine Ausgangsschicht 27 mit einem Neuron 19 auf. Der Ausgang des Neurons 19 ist mit dem Bezugszeichen 21 bezeichnet. Jedes Neuron weist eine Aktivierungsfunktion 23 auf.
  • Die Eingabedaten 2 werden sowohl dem ersten künstlichen neuronalen Netz 10, als auch dem zweiten künstlichen neuronalen Netz 20 zugeführt (siehe 1). Das erste künstliche neuronale Netz 10 nutzt lineare Aktivierungsfunktionen, um eine Prognose yc zu generieren. Das zweite künstliche neuronale Netz 20 nutzt nichtlineare Aktivierungsfunktionen, um eine Prognose yf zu generieren. Bei der Einheit 25 werden wie folgt basierend auf der Prognose yc und einer vorgegebenen Konstante c0 ein oberer Einschränkungswert bu und ein unterer Einschränkungswert bL für das zweite künstliche neuronale Netz 20 generiert: b U = y C + c 0 ,
    Figure DE102019214984A1_0001
    b L = y C c 0 .
    Figure DE102019214984A1_0002
    Die beiden Einschränkungswerte definieren den erlaubten Bereich der Prognose yf, in dem die Prognose yf als nicht überangepasst (engl. „overfit“) angesehen wird. Die Prognose yf wird mit der oberen und unteren Grenze verglichen. Liegt die Prognose yf dazwischen, wird diese als gültige Ausgabe 4 akzeptiert. Ansonsten wird die Prognose yf als Wert mit hoher Wahrscheinlichkeit für eine Überanpassung betrachtet und nicht als gültige Ausgabe akzeptiert. In diesem Fall wird stattdessen die Prognose yC als gültige Ausgabe 4 verwendet, um die Empfindlichkeitsabweichungen zu korrigieren.
  • Bevor das erfindungsgemäße Verfahren beim Einsatz eines Inertialsensors zur Selbstkalibrierung dieses verwendet wird, müssen zunächst das entsprechende erste und zweite künstliche neuronale Netz 10, 20 trainiert werden. Hierfür werden vorhandene Messdaten genutzt.
  • 4 zeigt ein Flussdiagramm einer Ausführungsform des erfindungsgemäßen computerimplementierten Verfahrens. Im Schritt S10 werden die oben erwähnten, auf den Inertialsensor bezogenen Messdaten festgelegt. Im Schritt S20 werden die Messdaten in Trainingsdaten und Testdaten unterteilt, und ein erster Ziel-Genauigkeitswert wird für das erste künstliche neuronale Netz 10 festgesetzt. Im Schritt S30 wird das erste künstliche neuronale Netz 10 initialisiert, wobei das erste künstliche neuronale Netz 10 mit den Trainingsdaten trainiert wird.
  • Im Schritt S40 werden die Testdaten in das trainierte erste künstliche neuronale Netz 10 eingegeben, um einen ersten Ausgangswert des ersten künstlichen neuronalen Netzes 10 zu erlangen, und ein erster Output-Genauigkeitswert wird basierend auf einem Vergleichsergebnis zwischen dem ersten Ausgangswert und den Testdaten festgelegt. Im Schritt S50 werden in einer Speichereinheit des Inertialsensors die Gewichtungen und die linearen Aktivierungsfunktionen des ersten künstlichen neuronalen Netzes 10 abgespeichert, wenn der erste Output-Genauigkeitswert größer als der erste Ziel-Genauigkeitswert ist. Ansonsten, nämlich, wenn der erste Output-Genauigkeitswert geringer als der erste Ziel-Genauigkeitswert ist, wird das erste künstliche neuronale Netz 10 im Schritt S35 wieder mit den Trainingsdaten trainiert.
  • Falls die Gewichtungen und der linearen Aktivierungsfunktionen des ersten künstlichen neuronalen Netzes 10 bereits abgespeichert wurden, werden ein oberer Einschränkungswert und ein unterer Einschränkungswert für das zweite künstliche neuronale Netz 20 basierend auf einer vorgegebenen Konstante und dem ersten Ausgangswert des ersten künstlichen neuronalen Netzes 10 festgelegt. Ein zweiter Ziel-Genauigkeitswert wird für das zweite künstliche neuronale Netz 20 festgesetzt. Im Schritt S60 wird das zweite künstliche neuronale Netz 20 initialisiert, wobei das zweite künstliche neuronale Netz 20 mit den Trainingsdaten trainiert wird.
  • Im Schritt S70 werden die Testdaten in das trainierte zweite künstliche neuronale Netz 20 eingegeben, um einen zweiten Ausgangswert des zweiten künstlichen neuronalen Netzes 20 zu erlangen. Der zweite Ausgangswert des zweiten künstlichen neuronalen Netzes 20 wird mit einem Wertbereich von dem oberen Einschränkungswert bis zu dem unteren Einschränkungswert verglichen. Ein dritter Ausgangswert bzw. die endgültige Ausgabe 4 wird als der zweite Ausgangswert festgelegt, wenn der zweite Ausgangswert innerhalb des Wertbereiches liegt. Ansonsten, also, wenn der zweite Ausgangswert nicht innerhalb des Wertbereiches liegt, wird die endgültige Ausgabe 4 als des ersten Ausgangswertes festgelegt. Ein zweiter Output-Genauigkeitswert wird basierend auf einem Vergleichsergebnis zwischen dem dritten Ausgangswert und den Testdaten festgelegt.
  • Wenn der zweite Output-Genauigkeitswert größer als der zweite Ziel-Genauigkeitswert ist, werden im Schritt S80 in der Speichereinheit die Gewichtungen und die nichtlinearen Aktivierungsfunktionen des zweiten künstlichen neuronalen Netzes 20 sowie die vorgegebene Konstante abgespeichert. Andernfalls wird im Schritt S65 das zweite künstliche neuronale Netz 20 wieder mit den Trainingsdaten trainiert.
  • 5 zeigt ein Beispiel, wie das erfindungsgemäße Verfahren zur Selbstkalibrierung eines Initialsensors mit Mehrachsen verwendet wird. Eine anwendungsspezifische integrierte Schaltung (engl. „ASIC“) des Initialsensors misst die elektrische Empfindlichkeit für jede Achse, bestimmt die aktuelle Temperatur und andere notwendige Systemparameter. Die in Echtzeit gemessenen Daten 30 und die gespeicherten Parameter bzw. Messdaten 32 werden als Eingangsvektor zusammengesetzt. Basierend auf den während des Trainings erhaltenen Modellparametern generieren das erste und zweite künstliche neuronale Netz 10, 20 ihre Ausgaben yC und yF. Zusätzlich werden der obere und untere Einschränkungswert bU und bL basierend auf der Ausgabe yC erzeugt. Eine Entscheidung über das Endergebnis wird im Schritt S90 getroffen, indem die Ausgabe yF mit den Einschränkungswerten bu und bL verglichen wird. Wenn die Ausgabe yF zwischen bu und bL liegt, wird die Ausgabe yF als die endgültig gültige Ausgabe behandelt. Andernfalls wird die Ausgabe yC verwendet.
  • 6 zeigt ein schematisch dargestelltes Blockdiagramm eines Teils einer Ausführungsform des erfindungsgemäßen Inertialsensors, welcher drei Speichereinheiten 34, 36, 38, eine Steuereinheit 40 und eine Multiply-Accumulate-Einheit 42 aufweist.
  • Die erste Speichereinheit 34 kann so eingerichtet werden, die Gewichtungen der beiden künstlichen neuronalen Netze 10, 20, die vorgegebene Konstante und die Aktivierungsfunktionen des ersten künstlichen neuronalen Netzes 10 wie Relu und/oder Satlin, die im Trainingsprozess erhalten wurden, abzuspeichern. Alternativ werden einfache nichtlineare Aktivierungsfunktionen wie Relu und/oder Satlin durch Programmierung direkt eingesetzt, ohne diese abgespeichert werden zu müssen. Dadurch wird der Prozess vereinfacht. Die zweite Speichereinheit 36 dient während der Berechnung zum Puffern der in Echtzeit erfassten Signalen und der Ausgaben von Neuronen. Die dritte Speichereinheit 38 ist eine Nachschlagetabelle, die so eingerichtet ist, die komplizierten nichtlinearen Aktivierungsfunktionen wie die Sigmoid- und/oder Tansig-Funktion abzuspeichern.
  • Die Steuereinheit 40 erzeugt Adressen für die Speichereinheiten 34, 36, 38 und kontrolliert in jedem Schritt, welche Adresse besucht wird. Die Multiply-Accumulate-Einheit 42 multipliziert die erfassten Signale oder die Neuro-Ausgaben mit ihren entsprechenden Gewichtungen und addiert das Produkt zu vorherigen Produkten, um eine kumulative Summe zu bilden.
  • In jedem Schritt erzeugt die Steuereinheit 40 zwei Adressen, die mit Bezugszeichen 48, 50 bezeichnet sind, um auf die Speichereinheiten 34, 36 zuzugreifen. Basierend auf der Adresse 48 gibt die Speichereinheiten 34 einen Gewichtungsfaktor wi, aus. Basierend auf der Adresse 50 erzeugt die Speichereinheit 36 einen Wert xi,, der entweder ein gemessener Wert oder eine Ausgabe eines vorherigen Neurons ist. Der Multiply-Accumulate-Einheit 42 ergibt wie folgt eine kumulative Summe: p i , j + 1 = x i , j × w i , j + p i , j ,
    Figure DE102019214984A1_0003
    wobei i und j das i-te Neuron und dessen j-te Eingabe/Gewichtung bezeichnen. pi, bezieht sich auf die kumulative Summe aller Produkte für das i-te Neuron im j-ten Schritt. Für jedes Neuron ist die erste kumulative Produktsumme pi,0 Null. Die Berechnung wird wiederholt, bis alle Eingaben eines Neurons beteiligt wurden (siehe Schritt S92). Danach wird die Endproduktsumme des i-ten Neurons als Eingabe an die Nachschlagetabelle 38 gesendet, und basierend auf den gespeicherten Aktivierungsfunktionen wird die endgültige Ausgabe des i-ten Neurons als ni bestimmt. Dieser Wert wird für die nächste Berechnung der Steuereinheit 36 zugeführt. Die Berechnung wird wiederholt, bis alle Neuronen des neuronalen Netzwerks behandelt wurden. Die in einem Puffer 44 abgespeicherte Ausgabe yc des ersten künstlichen neuronalen Netzes 10 und die Einschränkungswerte bU und bL werden verwendet, um bei einem Entscheider 46 die endgültige Entscheidung für die endgültige Ausgabe 4 zu treffen.
  • Die in 7 dargestellte Ausführungsform des erfindungsgemäßen Computerprogramms 200 umfasst Befehle 250, die bei der Ausführung des Programms 200 durch einen Computer diesen veranlassen, das Verfahren nach 4 auszuführen.
  • Die in 8 dargestellte Ausführungsform des erfindungsgemäßen computerlesbaren Mediums 300 umfasst Befehle 350, die bei der Ausführung durch einen Computer diesen veranlassen, das Verfahren nach 4 auszuführen.
  • Obwohl die vorliegende Erfindung anhand bevorzugter Ausführungsbeispiele vorstehend vollständig beschrieben wurde, ist sie darauf nicht beschränkt, sondern auf vielfältige Art und Weise modifizierbar. Beispielsweise kann das erfindungsgemäße Verfahren auch zur Überwachung von Systemzuständen angewendet werden, um Fehlfunktionen von defekten Chips zu erkennen. Das erfindungsgemäße Verfahren kann ferner verwendet werden, um neue Systemparameter vorherzusagen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2015/0121990 A1 [0009]

Claims (10)

  1. Computerimplementiertes Verfahren zur Selbstkalibrierung eines Inertialsensors, das folgende Schritte aufweist: - Festlegen (S10) von Daten, die sich auf den Inertialsensor beziehen; - Unterteilen (S20) der Daten in Trainingsdaten und Testdaten; - Festsetzen eines ersten Ziel-Genauigkeitswertes für ein erstes künstliches neuronales Netz (10), das lineare und/oder nichtlineare Aktivierungsfunktionen aufweist; - Trainieren (S30) des ersten künstlichen neuronalen Netzes (10) mit den Trainingsdaten; - Eingeben (S40) der Testdaten in das trainierte erste künstliche neuronale Netz (10), um einen ersten Ausgangswert des ersten künstlichen neuronalen Netzes (10) zu erlangen; - Festlegen eines ersten Output-Genauigkeitswertes basierend auf einem Vergleichsergebnis zwischen dem ersten Ausgangswert und den Testdaten; - Abspeichern (S50) von Gewichtungen und der linearen und/oder nichtlinearen Aktivierungsfunktionen des ersten künstlichen neuronalen Netzes (10) in einer Speichereinheit (34, 46, 38) des Inertialsensors, wenn der erste Output-Genauigkeitswert größer als der erste Ziel-Genauigkeitswert ist, oder Trainieren (S35) des ersten künstlichen neuronalen Netzes (10) wieder mit den Trainingsdaten, wenn der erste Output-Genauigkeitswert geringer als der erste Ziel-Genauigkeitswert ist; - Festlegen eines oberen Einschränkungswertes und eines unteren Einschränkungswertes für ein zweites künstliches neuronales Netz (20), das nichtlineare Aktivierungsfunktionen aufweist, basierend auf einer vorgegebenen Konstante und dem ersten Ausgangswert des ersten künstlichen neuronalen Netzes (10); - Trainieren (S60) des zweiten künstlichen neuronalen Netzes (20) mit den Trainingsdaten; - Eingeben (S70) der Testdaten in das trainierte zweite künstliche neuronale Netz (20), um einen zweiten Ausgangswert des zweiten künstlichen neuronalen Netzes (20) zu erlangen; - Vergleichen des zweiten Ausgangswertes des zweiten künstlichen neuronalen Netzes (20) mit einem Wertbereich von dem oberen Einschränkungswert bis zu dem unteren Einschränkungswert; - Festlegen eines dritten Ausgangswertes auf den zweiten Ausgangswert, wenn der zweite Ausgangswert innerhalb des Wertbereiches liegt, oder auf den ersten Ausgangswert, wenn der zweite Ausgangswert nicht innerhalb des Wertbereiches liegt; und - Abspeichern (S80) von Gewichtungen und der nichtlinearen Aktivierungsfunktionen des zweiten künstlichen neuronalen Netzes (20) sowie der vorgegebenen Konstante in der Speichereinheit (34, 46, 38).
  2. Computerimplementiertes Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Verfahren ferner folgende Schritte aufweist: - Festsetzen eines zweiten Ziel-Genauigkeitswertes für das zweite künstliche neuronale Netz (20); - Festlegen eines zweiten Output-Genauigkeitswertes basierend auf einem Vergleichsergebnis zwischen dem dritten Ausgangswert und den Testdaten; und - Abspeichern (S80) von Gewichtungen und der nichtlinearen Aktivierungsfunktionen des zweiten künstlichen neuronalen Netzes (20) sowie der vorgegebenen Konstante in der Speichereinheit (34, 46, 38), wenn der zweite Output-Genauigkeitswert größer als der zweite Ziel-Genauigkeitswert ist, oder Trainieren (S65) des zweiten künstlichen neuronalen Netzes (20) wieder mit den Trainingsdaten, wenn der zweite Output-Genauigkeitswert geringer als der zweite Ziel-Genauigkeitswert ist.
  3. Computerimplementiertes Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass basierend auf den in der Speichereinheit abgespeicherten Gewichtungen und den linearen und/oder nichtlinearen Aktivierungsfunktionen des ersten künstlichen neuronalen Netzes (10), den Gewichtungen und den nichtlinearen Aktivierungsfunktionen des zweiten künstlichen neuronalen Netzes (20) sowie der vorgegebenen Konstante ein statistisches Modell aufgebaut wird.
  4. Computerimplementiertes Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass durch den Inertialsensor Signale erfasst werden, und dass das statistische Modell angewendet wird, indem die erfassten Signale in das Modell eingegeben werden und das Modell einen vierten Ausgangswert ausgibt.
  5. Computerimplementiertes Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die erfassten Signale in das erste künstliche neuronale Netz (10) und das zweite künstliche neuronale Netz (20) des Modells eingegeben werden, um einen fünften Ausgangswert des ersten künstlichen neuronalen Netzes (10) und einen sechsten Ausgangswert des zweiten künstlichen neuronalen Netzes (20) zu ergeben.
  6. Computerimplementiertes Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass der vierte Ausgangswert auf den sechsten Ausgangswert festgelegt wird, wenn der sechste Ausgangswert innerhalb des sich basierend auf dem fünften Ausgangswert und der vorgegebenen Konstante ergebenen Wertbereiches liegt, oder, dass der vierte Ausgangswert auf den fünften Ausgangswert festgelegt wird, wenn der sechste Ausgangswert nicht innerhalb des Wertbereiches liegt.
  7. Inertialsensor zum Vornehmen des Verfahrens nach einem der Ansprüche 1 bis 6, mit zumindest einer Speichereinheit (34, 46, 38), einer Steuereinheit (40) und einer Multiply-Accumulate-Einheit (42).
  8. Inertialsensor nach Anspruch 7, dadurch gekennzeichnet, dass die Speichereinheit (34, 46, 38) so eingerichtet ist, die Gewichtungen und die linearen und/oder nichtlineare Aktivierungsfunktionen des ersten künstlichen neuronalen Netzes (10), die Gewichtungen und die nichtlinearen Aktivierungsfunktionen des zweiten künstlichen neuronalen Netzes (20), die vorgegebene Konstante sowie die erfassten Signale abzuspeichern, dass die Steuereinheit (40) so eingerichtet ist, in der Speichereinheit (34, 46, 38) Adressen zu generieren und den Speicherzugriff zu steuern, und dass die Multiply-Accumulate-Einheit (42) so eingerichtet ist, die erfassten Signale bzw. Neuro-Outputs mit den entsprechenden Gewichtungen zu multiplizieren und die entsprechenden Produkte zu addieren.
  9. Computerprogramm (200), umfassend Befehle (250), die bei der Ausführung des Programms (200) durch einen Computer diesen veranlassen, das Verfahren nach einem der Ansprüche 1 bis 6 auszuführen.
  10. Computerlesbares Medium (300), umfassend Befehle (350), die bei der Ausführung durch einen Computer diesen veranlassen, das Verfahren nach einem der Ansprüche 1 bis 6 auszuführen.
DE102019214984.7A 2019-09-30 2019-09-30 Inertialsensor und computerimplementiertes Verfahren zur Selbstkalibrierung eines Inertialsensors Pending DE102019214984A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102019214984.7A DE102019214984A1 (de) 2019-09-30 2019-09-30 Inertialsensor und computerimplementiertes Verfahren zur Selbstkalibrierung eines Inertialsensors
US17/032,672 US20210095995A1 (en) 2019-09-30 2020-09-25 Inertial sensor and computer-implemented method for self-calibration of an inertial sensor
CN202011055044.6A CN112577515A (zh) 2019-09-30 2020-09-29 惯性传感器、用于惯性传感器的自校准的方法和计算机可读的介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019214984.7A DE102019214984A1 (de) 2019-09-30 2019-09-30 Inertialsensor und computerimplementiertes Verfahren zur Selbstkalibrierung eines Inertialsensors

Publications (1)

Publication Number Publication Date
DE102019214984A1 true DE102019214984A1 (de) 2021-04-01

Family

ID=74872503

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019214984.7A Pending DE102019214984A1 (de) 2019-09-30 2019-09-30 Inertialsensor und computerimplementiertes Verfahren zur Selbstkalibrierung eines Inertialsensors

Country Status (3)

Country Link
US (1) US20210095995A1 (de)
CN (1) CN112577515A (de)
DE (1) DE102019214984A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112985463B (zh) * 2021-04-21 2021-08-03 智道网联科技(北京)有限公司 基于卷积神经网络模型的惯性测量单元标定方法及装置
CN115790642A (zh) * 2022-10-13 2023-03-14 北京自动化控制设备研究所 一种mems惯导系统参数误差置信度评测方法
CN116046018B (zh) * 2023-01-31 2023-11-14 无锡凌思科技有限公司 一种应用于mems陀螺仪的温度补偿方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150121990A1 (en) * 2009-05-19 2015-05-07 Robert Bosch Gmbh Self-test for yaw rate sensors
US20170158347A1 (en) * 2015-12-08 2017-06-08 Rosemount Aerospace Inc. Synthetic air data output generation

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202004021824U1 (de) * 2003-08-15 2011-04-28 Animas Technologies Llc Mikroprozessoren und Vorrichtungen zur Überwachung von physiologischen Analyten
EP2246755A1 (de) * 2009-04-22 2010-11-03 Powitec Intelligent Technologies GmbH Regelkreis
US11164082B2 (en) * 2017-02-28 2021-11-02 Anixa Diagnostics Corporation Methods for using artificial neural network analysis on flow cytometry data for cancer diagnosis
JP6729516B2 (ja) * 2017-07-27 2020-07-22 トヨタ自動車株式会社 識別装置
JP6476531B1 (ja) * 2018-03-06 2019-03-06 株式会社ツバサファクトリー 処理装置、処理方法、コンピュータプログラム及び処理システム
US20210303818A1 (en) * 2018-07-31 2021-09-30 The Regents Of The University Of Colorado, A Body Corporate Systems And Methods For Applying Machine Learning to Analyze Microcopy Images in High-Throughput Systems
DE102019111041A1 (de) * 2019-04-29 2020-10-29 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Ermittlung eines Schätzwertes des Schwimmwinkels eines Fahrzeugs

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150121990A1 (en) * 2009-05-19 2015-05-07 Robert Bosch Gmbh Self-test for yaw rate sensors
US20170158347A1 (en) * 2015-12-08 2017-06-08 Rosemount Aerospace Inc. Synthetic air data output generation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
FONTANELLA, Rita [u.a.]: MEMS gyros temperature calibration through artificial neural networks. In: Sensors and Actuators A: Physical, Vol. 279, 2018, S. 553-565. - ISSN 0924-4247 (P); 1873-3069 (E). DOI: 10.1016/j.sna.2018.04.008. URL: https://www.sciencedirect.com/science/article/pii/S0924424717312116/pdfft?md5=4d6c74473216a8eadbf475420915e163&pid=1-s2.0-S0924424717312116-main.pdf [abgerufen am 2019-11-29] *

Also Published As

Publication number Publication date
CN112577515A (zh) 2021-03-30
US20210095995A1 (en) 2021-04-01

Similar Documents

Publication Publication Date Title
DE102007001025B4 (de) Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE102017108169B4 (de) Produktionssystem, das einen Bestimmungswert einer Variablen in Bezug auf eine Produktabweichung festlegt
DE102019214984A1 (de) Inertialsensor und computerimplementiertes Verfahren zur Selbstkalibrierung eines Inertialsensors
EP1736745B1 (de) Verfahren zur adaptiven Korrektur von Drifterscheinungen bei einer Kraftmessvorrichtung sowie eine Kraftmessvorrichtung zur Durchführung des Verfahrens.
DE102004001318B4 (de) System und Verfahren einer Steer-by-wire-Regelung für Fahrzeuge unter Verwendung einer robusten Regelung
EP2999998B1 (de) Methode zur ermittlung eines modells einer ausgangsgrösse eines technischen systems
DE112019006789B4 (de) Arbeitsbestimmungsgerät und arbeitsbestimmungsverfahren
DE102009007875A1 (de) Verfahren zum Kompensieren eines Winkelübertragungsfehlers eines Aktuators
DE102004001319A1 (de) System und Verfahren einer Steer-by-wire-Regelung für Fahrzeuge durch Anwendung einer Mehrfach-Entkopplungs-Regelung
DE112020003050T5 (de) Fehlerkompensation in analogen neuronalen netzen
DE102019218591A1 (de) Verfahren zur Abschätzung des Zustands eines Energiespeichers
EP1327959B1 (de) Neuronales Netz zur Modellierung eines physikalischen Systems sowie Verfahren zur Bildung eines solchen neuronalen Netzes
EP0956530A1 (de) Verfahren zur transformation einer zur nachbildung eines technischen prozesses dienenden fuzzy-logik in ein neuronales netz
EP1252566B1 (de) Anordnung miteinander verbundener rechenelemente und verfahren zur rechnergestützten ermittlung eines zweiten zustands eines systems in einem ersten zustandsraum aus einem ersten zustand des systems in dem ersten zustandsraum
EP1148395A2 (de) Regler, insbesondere Lenkregler für Flugkörper
DE69919527T2 (de) Verfahren und Vorrichtung zur Identifizierung eines physikalischen Systems
EP0978052B1 (de) Rechnergestütztes verfahren zur auswahl von trainingsdaten für ein neuronales netz
DE112020006904T5 (de) Inferenzvorrichtung, Aktualisierungsverfahren und Aktualisierungsprogramm
DE102010001019A1 (de) Verfahren zur automatischen Orientierungserkennung
DE102019201045A1 (de) Verfahren, Vorrichtung und Computerprogramm zum Ermitteln einer Aktion oder Trajektorie eines Roboters
DE102019206977A1 (de) Vorrichtung und Verfahren zur Vermessung mindestens eines schräg im Raum stehenden Messobjekts
EP0814402A2 (de) Verfahren zum Entwurf oder zur Adaption eines Fuzzy-Reglers oder eines Systems von verknüpften Fuzzy-Reglern
DE102022205601A1 (de) Membransensor zur Kompensation einer Beschleunigung sowie entsprechenden Betriebsverfahren
DE19835137A1 (de) Vorrichtung zum Bestimmen der Konzentration einer Meßflüssigkeit
DE102016113310A1 (de) Verfahren zur Bewertung von Aussagen einer Mehrzahl von Quellen zu einer Mehrzahl von Fakten

Legal Events

Date Code Title Description
R163 Identified publications notified