DE102008057979A1 - Lerneinheit für ein Objekterkennungssystem und Objekterkennungssytem - Google Patents

Lerneinheit für ein Objekterkennungssystem und Objekterkennungssytem Download PDF

Info

Publication number
DE102008057979A1
DE102008057979A1 DE102008057979A DE102008057979A DE102008057979A1 DE 102008057979 A1 DE102008057979 A1 DE 102008057979A1 DE 102008057979 A DE102008057979 A DE 102008057979A DE 102008057979 A DE102008057979 A DE 102008057979A DE 102008057979 A1 DE102008057979 A1 DE 102008057979A1
Authority
DE
Germany
Prior art keywords
comparison
image
virtual
training images
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102008057979A
Other languages
English (en)
Other versions
DE102008057979B4 (de
Inventor
Klaus Dipl. Phys. Dr. Schertler
Jörg Dipl. Inf. Liebelt
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Airbus Defence and Space GmbH
Original Assignee
EADS Deutschland GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EADS Deutschland GmbH filed Critical EADS Deutschland GmbH
Priority to DE102008057979.3A priority Critical patent/DE102008057979B4/de
Publication of DE102008057979A1 publication Critical patent/DE102008057979A1/de
Application granted granted Critical
Publication of DE102008057979B4 publication Critical patent/DE102008057979B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

Eine Lerneinheit (10) für ein Objekterkennungssystem sowie ein Objekterkennungssystem zur Lokalisierung und Klassifizierung von unbekannten Prüfobjekten in einem zu analysierenden Bild, mit einer Bilderzeugungseinheit (14) zur Erzeugung von Trainingsbildern eines Vergleichsobjektes mittels Erstellung virtueller 3-D-Szenen mit einem virtuellen 3-D-Modell des Vergleichsobjekts und Rendern der Trainingsbilder aus den virtuellen 3-D-Szenen, wobei jedem Bildpunkt des Trainingsbildes der zugehörige 3-D-Punkt in der virtuellen 3-D-Szene zugeordnet ist.

Description

  • Die Erfindung betrifft eine Lerneinheit für ein Objekterkennungssystem sowie ein entsprechendes Objekterkennungssystem zur Lokalisierung und Klassifizierung von unbekannten Prüfobjekten in einem zu analysierenden Bild, bei dem in einer Vergleichseinheit eine Anzahl von gespeicherten Vergleichsobjekten mit einer Anzahl zugehöriger Vergleichsobjektmerkmale gespeichert sind, und aus dem Bild Merkmale eines Prüfobjektes ermittelbar und mit den Vergleichsobjektmerkmalen vergleichbar sind und bei einer ausreichenden Übereinstimmung der Prüfobjektmerkmale mit Vergleichsobjektmerkmalen das Prüfobjekt einem Vergleichsobjekt als erkannt zuordenbar ist.
  • An der Entwicklung und Verbesserung von Objekterkennungssystemen wird weltweit mit einer großen Anzahl unterschiedlicher Ansätze gearbeitet. Eine Vielzahl von Ansätzen basiert darauf, dass das Erscheinungsbild eines zu erkennenden Objektes oder eine Objektklasse anhand von fotografischen Trainingsbildern maschinell erlernt wird. Dabei wird aus den Trainingsbildern in einer Lerneinheit eine Menge von Merkmalen extrahiert und zu einem das zu erkennende Objekt repräsentierenden Datensatz – dem Objektmodell – zusammengefasst. Finden sich zwischen den aus einem unbekannten Bild extrahierten Merkmalen und den im Objektmodell repräsentierten Merkmalen eine als hinreichend definierte Übereinstimmung aufgrund eines Merkmalsvergleichs, so wird der dem Objektmodell entsprechende Objekttyp im zu analysierenden Bild als erkannt angenommen. Eine solche Übereinstimmung kann dabei nur dann erkannt werden, wenn die aus den Trainingsbildern extrahierten Merkmale und der zur Bestimmung der Übereinstimmung notwendige Merkmalsvergleich „robust” gegen die zu erwartenden Variationen des zu analysierenden Bildes im Vergleich zu den Trainingsbildern sind. Solche Variationen kön nen unterschiedliche Beleuchtungsbedingungen, Witterungsbedingungen, Aufnahmebedingungen bzw. Objekthintergründe sein, die zwischen den Trainingsbildern und dem zu analysierenden Bild vorhanden sind. Der Nachteil derartiger vorbekannter Verfahren besteht darin, dass diese Variationen entweder bei den Trainingsbildern repräsentiert sein müssen oder die Merkmalsextraktion bzw. der Merkmalsvergleich invariant gegenüber diese Variationen ausgelegt sein muss. Ersteres setzt eine sehr große Anzahl von Trainingsbildern voraus, was einen enormen Bilddaten-Akquisitionsaufwand darstellen kann. Letzteres erfordert einen hohen algorithmischen Entwicklungsaufwand, da die verschiedenen Variationen explizit bei der Entwicklung der Algorithmen zur Merkmalsextration und des Merkmalsvergleichs berücksichtigt werden müssen, was bei der Vielfalt der möglichen Variationen nur in sehr beschränktem Maße möglich ist.
  • Hiervon ausgehend besteht die Aufgabe der Erfindung darin, gegenüber diesen vorbekannten Lösungen zum einen eine Abhängigkeit von der Verfügbarkeit bestehender photographischer Trainingsbilder zu beseitigen und andererseits den Auswertungsaufwand sowohl bei der Bestimmung von Vergleichsobjekten als auch bei der Lokalisierung und Klassifizierung von unbekannten Prüfobjekten zu reduzieren.
  • Erfindungsgemäß wird diese Aufgabe durch die in den unabhängigen Ansprüchen aufgeführten Merkmale gelöst.
  • Bei der Erfindung werden durch computergrafische Methoden synthetische Trainingsbildsequenzen unter exakt vorgegebenen bzw. bekannten Bedingungen erzeugt und die Kenntnisse über die Bedingungen ausgenutzt, um die extrahierten Merkmale bezüglich ihrer Robustheit gegenüber Variationen zu selektieren und somit nur Merkmale in der Vergleichsobjektsammlung aufzunehmen, welche definierte Anforderungen bezüglich ihrer Robustheit gegenüber den Variationen besitzen d. h. bei denen die Veränderung aufgrund der Variation bezüglich des Merkmalsvergleichs in vorgebbaren Grenzen liegt.
  • Durch die Erfindung wird die Abhängigkeit von der Verfügbarkeit von fotografischen Trainingsbildern beseitigt, denn die Trainingsbilder werden synthetisch erzeugt. Dies ermöglicht neue Anwendungsmöglichkeiten in Bereichen, in denen keine fotografischen Ansichten verfügbar sind oder deren Gewinnung sehr teuer bzw. aufwendig ist.
  • Die Definition von zu erkennenden Objekten kann ausschließlich über standardisierte bzw. vorhandene 3D-Modelle stattfinden, so dass standardisierte Datenformate Verwendung finden können. Diese sind in großem Umfang kommerziell verfügbar. Darüber hinaus ist verbreitete Software zur Erzeugung von neuen Modellen oder der Anpassung existierender Modelle einsetzbar.
  • Die Vielfalt von möglichen Erscheinungsbildern von Objekten kann systematisch automatisiert und flexibel auf verschiedene Anwendungsfälle hin trainiert werden. Durch die gleichzeitig durchführbare Merkmalsselektion ergibt sich eine erhöhte Robustheit des Objekterkennungssystems gegen Bildvariationen und damit höhere Erkennungswahrscheinlichkeiten und niedrige Fehlalarmraten.
  • Neben der Lokalisierung von Objekten im zu analysierenden Bild ermöglicht die Kenntnis der projektiven Zusammenhänge auch Aussagen über die dreidimensionale Lokalisierung eines Objekts im zu analysierenden Bild (Position und Ausrichtung) relativ zum Sensor, also der Aufnahmekamera.
  • Bei der Erfindung wird entgegen den meisten vorbekannten Ansätzen kein Modell aus zweidimensionalen Merkmalen und deren geometrischer Bedingungen konstruiert, sondern es wird eine Datenbank generiert und darauf zugegriffen aus synthetisch erzeugten dreidimensionalen Modellen. Dabei wird eine dreidimensionale Darstellung für jede Objektkategorie erzeugt, welche eine Erkennbarkeit unabhängig vom Betrachtungspunkt ermöglicht. Bei der Bildung einer virtuellen 3D-Szene wird ein 3D-Modell vor unterschiedlichen Hintergründen und aus unterschiedlichen Ansichtspunkten generiert und daraus ein zweidi mensionales Trainingsbild generiert. Um einen Satz von Trainingsbildern zu erzeugen, wird die Entfernung des Ansichtspunktes sowie die räumliche Position (Seitenwinkel und Höhenwinkel) in diskreten Stufen verändert und dabei die geometrischen Daten des Ansichtspunktes mit den sonstigen Daten des dreidimensionalen Modells gespeichert.
  • Die Erfindung wird nachfolgend anhand eines bevorzugten Ausführungsbespiels anhand der beigefügten Zeichnungen näher erläutert. Dabei zeigt:
  • 1: ein Blockschaltbild einer Lerneinheit;
  • 2: ein Blockschaltbild eines Bilderkennungssystems unter Verwendung der Lerneinheit gemäß 1.
  • In 1 ist eine Lerneinheit 10 dargestellt, die eine 3D-Modellerzeugungseinheit 12 erfasst, in der virtuelle 3D-Modelle unter Verwendung der wesentlichen virtuellen 3D-Objekte unter verschiedenen Umgebungsbedingungen, insbesondere Beleuchtungs-, Witterungs-, Objektausprägungs- bzw. Objekthintergundsbedingungen bzw. unterschiedlichen Blickrichtungen generiert werden. Der Modellerzeugungseinheit 12 ist eine Bilderzeugungseinheit 14 nachgeschaltet, welche auf der Basis der in der Modellerzeugungseinheit 12 generierten virtuellen 3D-Modellen virtuelle 3D-Szenen 16 generiert und in der Rendereinheit 18 daraus zweidimensionale Trainingsbilder 20 erzeugt, wobei zu den Objekten der 3D-Szenen 16 und den 2D-Trainingsbildern 20 der projektive (räumliche) Zusammenhang 21 zwischen den dreidimensionalen Punkten der 3D-Szene 16 und den zugehörigen Punkten auf dem 2D-Trainingsbild 20 gespeichert werden.
  • Eine Merkmalextraktionseinheit 22 extrahiert aus den 2D-Trainingsbildern einzelne Merkmale des Objektes. Eine Merkmalsselektionseinheit 24 selektiert daraus unter Berücksichtigung der projektiven Zusammenhänge 26 mit den zugeordneten 3D-Szenen bzw. der Objekte und der Variationsparameter 28 und generiert ein Objektmodell 30.
  • 2 zeigt ein Objekterkennungsystem 30, umfassend eine Objektmodellsammlungseinheit 32 in der eine Vielzahl von Objekten mit ihren Merkmalen gespeichert sind. Eine Bildaufbereitungseinheit 34 fertigt ein zu analysierendes Bild mit einem unbekannten Prüfobjekt und führt dies einer Merkmalsextraktionseinheit 36 zu, in der von dem Bild Prüfobjektmerkmale extrahiert werden. In einer Merkmalsvergleichseinheit 38 werden die in der Objektmodellsammlungseinheit 32 gespeicherten Vergleichsobjektmerkmale mit den Prüfobjektmerkmalen verglichen und daraus in der Beurteilungseinheit 40 beurteilt, ob das Prüfobjekt einem Vergleichsobjekt zugeordnet werden kann.

Claims (10)

  1. Lerneinheit für ein Objekterkennungssystem zur Lokalisierung und Klassifizierung von unbekannten Prüfobjekten in einem zu analysierenden Bild, bei dem in einer Vergleichseinheit (38) eine Anzahl von gespeicherten Vergleichsobjekten mit einer Anzahl zugehöriger Vergleichsobjektmerkmale gespeichert sind, und aus dem Bild Merkmale eines Prüfobjektes ermittelbar und mit den Vergleichsobjektmerkmalen vergleichbar sind und bei einer ausreichenden Übereinstimmung der Prüfobjektmerkmale mit Vergleichsobjektmerkmalen das Prüfobjekt einem Vergleichsobjekt als erkannt zuordenbar ist, dadurch gekennzeichnet, dass die Lerneinheit folgende Bestandteile umfasst: eine Bilderzeugungseinheit (14) zur Erzeugung von Trainingsbildern eines Vergleichsobjektes mittels Erstellung virtueller 3D-Szenen mit einem virtuellen 3D-Modell des Vergleichsobjekts vor virtuellen Hintergrundbedingungen und/oder Vordergrundbedingungen und Rendern der Trainingsbilder aus den virtuellen 3D-Szenen aus verschiedenen räumlichen Positionen, wobei jedem Bildpunkt des Trainingsbildes der zugehörige 3D-Punkt in der virtuellen 3D-Szene zugeordnet ist; eine Merkmalsextraktionseinheit (22) zur Extraktion von Merkmalen aus den Trainingsbildern durch Auswertung der Trainingsbilder sowie der zugehörigen Daten; eine Merkmalsselektionseinheit (24) zur Auswahl von Vergleichsobjektmerkmalen anhand der Robustheit des Auftretens der Objektmerkmale unter wechselnden Vordergrund- und Hintergrundbedingungen und verschiedenen räumlichen Positionen in den verschiedenen Trainingsbildern.
  2. Lerneinheit nach Anspruch 1, dadurch gekennzeichnet, dass bei der Auswertung der Trainingsbilder Merkmale verworfen werden, wenn sich aus der Bild-Szenen-Zuordnung ergibt, dass diese nicht dem Vergleichsobjekt zugeordnet sind.
  3. Lerneinheit nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass bei der Erzeugung von Trainingsbildern das virtuelle 3D-Modell skaliert zur Erzeugung der virtuellen 3D-Szene und vor unterschiedlichen virtuellen Hintergründen plaziert wird und davon aus unterschiedlichen räumlichen Aufnahmewinkeln und/oder Entfernungen (Aufnahmepositionen) die Trainingsbilder gerendert werden.
  4. Lerneinheit nach Anspruch 3, dadurch gekennzeichnet, dass für jedes 3D-Modell Trainingsbilder vor neutralem Hintergrund sowie vor verschiedenen Hintergründen, jeweils mit geringfügig abweichenden Aufnahmepositionen erzeugbar und aus diesen Trainingsbildern die Objektmerkmale bestimmbar sind.
  5. Lerneinheit nach Anspruch 4, dadurch gekennzeichnet, dass bei der Bestimmung der Objektmerkmale eine Gewichtung aufgrund der Feststellungshäufigkeit unter verschiedenen Bedingungen erfolgt.
  6. Lerneinheit nach Anspruch 5, dadurch gekennzeichnet, dass für jedes Vergleichsobjektmerkmal ein Datensatz mit den verschiedenen Aufnahmepositionen und den zugehörigen Gewichtungen gespeichert ist.
  7. Lerneinheit nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass bei der Erzeugung der 3D-Szene unterschiedliche virtuelle Oberflächenbedingungen der Vergleichsobjekte, insbesondere Farbgebung, Texturierung, Reflektivität, erzeugt werden.
  8. Lerneinheit nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass bei der Erzeugung der 3D-Szene unterschiedliche virtuelle Zustandsbedingungen wie Nebel, Schneefall sowie Beleuchtungsbedingungen erzeugt werden.
  9. Objekterkennungssystem zur Lokalisierung und Klassifizierung von unbekannten Prüfobjekten in einem zu analysierenden Bild, bei dem eine Anzahl von gespeicherten Vergleichsobjekten mit einer Anzahl zugehöriger Vergleichsobjektmerkmale gespeichert sind, und aus dem Bild Merkmale eines Prüfobjektes ermittelbar und mit den Vergleichsobjektmerkmalen vergleichbar sind und in einer Vergleichseinheit (38) bei einer ausreichenden Übereinstimmung der Prüfobjektmerkmale mit Vergleichobjektmerkmalen das Prüfobjekt einem Vergleichsobjekt als erkannt zuordenbar ist, dadurch gekennzeichnet, dass diese eine Objektmodellsammlungseinheit (32) mit gespeicherten Vergleichsobjekten umfasst, die mittels der Lerneinheit (10) nach einem der vorherigen Ansprüche erzeugt sind.
  10. Objekterkennungssystem nach Anspruch 9, dadurch gekennzeichnet, dass in der Vergleichseinheit (38) Prüfobjektmerkmale aus dem Bild extrahiert und mit gespeicherten Vergleichsobjektmerkmalen in verschiedenen Positionierungen verglichen und gewichtet werden und daraus das Prüfobjekt als ein Vergleichsobjekt mit entsprechenden Positionsdaten erkannt wird.
DE102008057979.3A 2008-11-19 2008-11-19 Lerneinheit für ein Objekterkennungssystem und Objekterkennungssytem Expired - Fee Related DE102008057979B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102008057979.3A DE102008057979B4 (de) 2008-11-19 2008-11-19 Lerneinheit für ein Objekterkennungssystem und Objekterkennungssytem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102008057979.3A DE102008057979B4 (de) 2008-11-19 2008-11-19 Lerneinheit für ein Objekterkennungssystem und Objekterkennungssytem

Publications (2)

Publication Number Publication Date
DE102008057979A1 true DE102008057979A1 (de) 2010-05-20
DE102008057979B4 DE102008057979B4 (de) 2018-10-31

Family

ID=42105206

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102008057979.3A Expired - Fee Related DE102008057979B4 (de) 2008-11-19 2008-11-19 Lerneinheit für ein Objekterkennungssystem und Objekterkennungssytem

Country Status (1)

Country Link
DE (1) DE102008057979B4 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019236306A1 (en) * 2018-06-07 2019-12-12 Microsoft Technology Licensing, Llc Generating training data for a machine learning classifier
DE102021129359A1 (de) 2021-11-11 2023-05-11 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Überprüfung einer Fuge

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4105826A1 (de) 2021-06-16 2022-12-21 Volkswagen Aktiengesellschaft Computerimplementiertes verfahren und system zur erzeugung eines synthetischen trainingsdatensatzes zum trainieren eines maschinenlernenden rechnersichtmodells

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19636074C2 (de) 1996-09-05 1999-08-12 Siemens Ag Lernfähiges Bildverarbeitungssystem zur Klassierung
US7233931B2 (en) 2003-12-26 2007-06-19 Lee Shih-Jong J Feature regulation for hierarchical decision learning
US7574018B2 (en) 2005-12-07 2009-08-11 Trw Automotive U.S. Llc Virtual reality scene generator for generating training images for a pattern recognition classifier
DE102005062154B4 (de) 2005-12-22 2007-10-31 Daimlerchrysler Ag Erzeugung großer realistischer Trainingsproben für Klassifikatoren aus wenigen Beispielen

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019236306A1 (en) * 2018-06-07 2019-12-12 Microsoft Technology Licensing, Llc Generating training data for a machine learning classifier
US10909423B2 (en) 2018-06-07 2021-02-02 Microsoft Technology Licensing, Llc Generating training data for machine learning classifier
DE102021129359A1 (de) 2021-11-11 2023-05-11 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Überprüfung einer Fuge

Also Published As

Publication number Publication date
DE102008057979B4 (de) 2018-10-31

Similar Documents

Publication Publication Date Title
DE69511620T2 (de) Videoverarbeitungssystem
DE69226551T2 (de) System und Verfahren zur Einordnung und Gewinnung hervorstehender Konturen für Zielerkennung
EP2297701B1 (de) Videoanalyse
DE112012001984B4 (de) Integrieren von Video-Metadaten in 3D-Modelle
DE112016005059T5 (de) Unterkategorienbewusste faltende neuronale Netzwerke zur Objekterfassung
DE102017010210A1 (de) Bild-Matting mittels tiefem Lernen
DE102019006149A1 (de) Begrenzungsbewusste Objektentfernung und Contentfüllung
DE102005051638A1 (de) Objekterkennung mittels Querschnittanalyse
EP3347878B1 (de) Verfahren und vorrichtung zum überlagern eines abbilds einer realen szenerie mit einem virtuellen bild und mobiles gerät
CN110210519A (zh) 分类方法、计算机设备和存储介质
DE102011107458A1 (de) Verfahren zum Evaluieren einer Objekterkennungseinrichtung eines Kraftfahrzeugs
WO2014048481A1 (de) Verfahren und bildverarbeitungsanlage zum bestimmen von parametern einer kamera
EP1180258B1 (de) Mustererkennung mittels prüfung zusätzlicher merkmale nach teilverarbeitung
DE102008057979A1 (de) Lerneinheit für ein Objekterkennungssystem und Objekterkennungssytem
CN106682604A (zh) 一种基于深度学习的模糊图像检测方法
DE102018113621A1 (de) Verfahren zum Trainieren eines konvolutionellen neuronalen Netzwerks zum Verarbeiten von Bilddaten zur Anwendung in einem Fahrunterstützungssystem
DE102011013776A1 (de) Verfahren zur Erfassung und/oder Verfolgung von Objekten
Hepburn et al. Enforcing perceptual consistency on generative adversarial networks by using the normalised laplacian pyramid distance
DE60310766T2 (de) Beleuchtungsunabhängige gesichtserkennung
DE102022209528A1 (de) Visuelle Analysesysteme zur Diagnose und Verbesserung von Deep-Learning-Modellen für bewegbare Objekte beim autonomen Fahren
EP3876157B1 (de) Computerimplementiertes verfahren und system zum erzeugen synthetischer sensordaten und trainingsverfahren
EP1364337A1 (de) Verfahren zur kennzeichnung von gespeicherter information
DE102020126954A1 (de) System und Verfahren zum Erfassen einer räumlichen Orientierung einer tragbaren Vorrichtung
EP1544795B1 (de) Verfahren und Gerät zur Identifikation eines Objektes in einem Kamerabild
DE102019209228A1 (de) Verfahren und Vorrichtung zum Überprüfen der Robustheit eines künstlichen neuronalen Netzes

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R082 Change of representative

Representative=s name: ROESLER RASCH & PARTNER PATENT- UND RECHTSANWA, DE

R081 Change of applicant/patentee

Owner name: AIRBUS DEFENCE AND SPACE GMBH, DE

Free format text: FORMER OWNER: EADS DEUTSCHLAND GMBH, 85521 OTTOBRUNN, DE

Effective date: 20140819

R082 Change of representative

Representative=s name: ROESLER - RASCH - VAN DER HEIDE & PARTNER PATE, DE

Effective date: 20140819

Representative=s name: ISARPATENT - PATENTANWAELTE- UND RECHTSANWAELT, DE

Effective date: 20140819

Representative=s name: ROESLER RASCH & PARTNER PATENT- UND RECHTSANWA, DE

Effective date: 20140819

R082 Change of representative

Representative=s name: ISARPATENT - PATENT- UND RECHTSANWAELTE BEHNIS, DE

Representative=s name: ISARPATENT - PATENTANWAELTE- UND RECHTSANWAELT, DE

R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee