DE102019207411A1 - Verfahren und Vorrichtung zum sicheren Betreiben eines Schätzers - Google Patents

Verfahren und Vorrichtung zum sicheren Betreiben eines Schätzers Download PDF

Info

Publication number
DE102019207411A1
DE102019207411A1 DE102019207411.1A DE102019207411A DE102019207411A1 DE 102019207411 A1 DE102019207411 A1 DE 102019207411A1 DE 102019207411 A DE102019207411 A DE 102019207411A DE 102019207411 A1 DE102019207411 A1 DE 102019207411A1
Authority
DE
Germany
Prior art keywords
determined
estimator
robustness
input image
sem
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019207411.1A
Other languages
English (en)
Inventor
Roland Norden
Konrad Groh
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102019207411.1A priority Critical patent/DE102019207411A1/de
Priority to CN202010429479.6A priority patent/CN111986244A/zh
Publication of DE102019207411A1 publication Critical patent/DE102019207411A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/529Depth or shape recovery from texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

Verfahren zum Ermitteln einer Tiefen- und/oder Orientierungsinformation von mittels eines bildgebenden Sensors erfasste Objekten in einem Eingangsbild (x), wobei das Eingangsbild (x) mittels eines Segmentierers (61), insbesondere mittels eines ersten neuronalen Netzes, in eine texturfreie Darstellung (SEM) transformiert wird, und abhängig von der texturfreien Darstellung (SEM), mittels eines Schätzers (71) insbesondere mittels eines zweiten neuronalen Netzes, eine Objektliste (y), die im Eingangsbild (x) vorhandene Objekte und ihre jeweilige Tiefen- und/oder Orientierungsinformation charakterisiert, ermittelt wird.

Description

  • Die Erfindung betrifft ein Verfahren zum Ermitteln einer Tiefen- und/oder Orientierungsinformation, einen Lokalisierer, ein Verfahren zum Ermitteln eines Robustheitswerts des Lokalisierers, ein Verfahren zum Bereitstellen eines Ansteuerungssignals, ein Steuerungssystem, ein Verfahren zum Trainieren des Lokalisierers, ein Trainingssystem, ein Computerprogramm und ein maschinenlesbares Speichermedium.
  • Stand der Technik
  • Aus der nicht vorveröffentlichten DE 10 2018 206 848.8 ist ein Verfahren zum Ermitteln eines Tiefeninformationsbilds für ein Eingangsbild bekannt, um insbesondere abhängig von Tiefeninformationsbild Fahrzeugfunktionen anzusteuern, wobei das Eingangsbild mithilfe eines konvolutionellen neuronalen Netzes verarbeitet wird, wobei das konvolutionelle neuronale Netz mehrere Schichten aufweist, die das Eingangsbild sequentiell bearbeiten und jeweils eine Eingangsmerkmalskarte in eine Ausgangsmerkmalskarte umsetzen, wobei mindestens eine der Schichten als eine Tiefenkartenschicht ausgebildet ist, wobei das Tiefeninformationsbild abhängig von einer Tiefenkartenschicht ermittelt wird.
  • Vorteile der Erfindung
  • Eine Herausforderung beim Betreiben einer sicherheitskritischen Anwendung (die beispielsweise, aber nicht zwingend durch ein Kraftfahrzeug gegeben sein kann) abhängig von einer automatisiert (insbesondere mittels eines maschinellen Lernsystems wie eines neuronalen Netzes) ermittelten Tiefen- und/oder Orientierungsinformation, ist, sicherzustellen, dass keine Gefährdung durch eine falsch ermittelte Tiefen- und/oder Orientierungsinformation vorliegen kann.
  • Eine Beurteilung der Robustheit eines solchen Systems erfordert eine Vielzahl von Testfällen, die mit realen Bilddaten nur schwer darzustellen sind. Es ist daher wünschenswert, die Robustheit mit synthetischen Bilddaten zu ermitteln.
  • Allerdings ist bekannt, dass insbesondere neuronale Netze der Textur von Objekten bei der Zuordnung zu einer Klasse großes Gewicht beimessen. Eine realistische Bandbreite möglicher Strukturen nachweisbar zuverlässig synthetisch zu generieren ist ebenfalls sehr schwierig.
  • Das Verfahren mit den Merkmalen des unabhängigen Anspruchs 1 hat demgegenüber den Vorteil, dass eine Beurteilung seiner Robustheit mit synthetischen Daten möglich ist.
  • Dieser Aspekt der Erfindung ist Gegenstand des unabhängigen Anspruchs 1. Weitere Aspekte der Erfindung sind Gegenstand der nebengeordneten Ansprüche. Vorteilhafte Weiterbildungen sind Gegenstand der abhängigen Ansprüche.
  • Offenbarung der Erfindung
  • In einem ersten Aspekt der Erfindung ist ein Verfahren zum Ermitteln einer Tiefen- und/oder Orientierungsinformation von mittels eines bildgebenden Sensors erfasste Objekten in einem Eingangsbild vorgesehen, wobei das Eingangsbild mittels eines Segmentierers, insbesondere mittels eines ersten neuronalen Netzes, in eine texturfreie Darstellung transformiert wird, und abhängig von der texturfreien Darstellung, mittels eines Schätzers insbesondere mittels eines zweiten neuronalen Netzes, eine Objektliste, die im Eingangsbild vorhandene Objekte und ihre jeweilige Tiefen- und/oder Orientierungsinformation charakterisiert, ermittelt wird.
  • Es ist selbstverständlich möglich, dass die Objektliste nur ein einziges Objekt umfasst, oder auch leer ist. Entscheidend wurde hierbei erkannt, dass durch den Zwischenschritt einer texturfreien Darstellung des Eingangsbilds eine Beurteilung der Robustheit mit synthetischen Bilddaten möglich ist. Unter einer „Textur“ in einem Bild können insbesondere Variationen innerhalb eines Bereichs, der einem konstanten semantischen Wert zuzuordnen ist, verstanden werden.
  • Eine semantische Segmentierung ist damit texturfrei. Ebenso kann aber auch eine Darstellung in Stixeln oder eine Darstellung in einem Belegungsraster (Englisch: „occupancy grid“) vorgesehen sein.
  • Die Vorrichtung umfassend den Segmentierer und den Schätzer, die ausgebildet ist, dieses Verfahren auszuführen, wird nachfolgend auch Lokalisierer genannt..
  • In einem weiteren Aspekt betrifft die Erfindung ein Verfahren zum Ermitteln eines eine Robustheit dieses Lokalisierers charakterisierenden Robustheitswerts (b), mit den Schritten:
    • - Bereitstellen von wenigstens einer Szene;
    • - Ermitteln einer dieser Szene entsprechenden texturfreien Darstellung;
    • - Ermitteln, mittels des Schätzers, einer Objektliste umfassend eine Liste ermittelter Objekte und Tiefen- und/oder Orientierungs- und/oder Positionsinformation der ermittelten Objekte; und
    • - Ermitteln des Robustheitswerts abhängig von der ermittelten Objektliste und der bereitgestellten Szene.
  • Ein solches Verfahren zum Ermitteln der Robustheit kann besonders schnell eine große Vielzahl von Szenen in die Bewertung der Robustheit einfließen lassen, wodurch diese Bewertung besonders zuverlässig wird.
  • Der Robustheitswert kann hierbei einen Wert, der geringer Robustheit entspricht, annehmen, wenn die Objekte der ermittelten Objektliste und ihre in der Objektliste vorhandenen Parameter, insbesondere Tiefen- und/oder Orientierungs- und/oder Positionsinformation, nicht gut mit den tatsächlichen Parametern der bereitgestellten Szene übereinstimmen. Umgekehrt kann der Robustheitswert hierbei einen Wert, der hoher Robustheit entspricht, annehmen, wenn die Objekte der ermittelten Objektliste und ihre in der Objektliste vorhandenen Parameter, insbesondere Tiefen- und/oder Orientierungs- und/oder Positionsinformation, gut mit den tatsächlichen Parametern der bereitgestellten Szene übereinstimmen.
  • Die bereitgestellte Szene kann insbesondere zufällig erzeugt sein (typischerweise wird eine Vielzahl solcher Szenen bereitgestellt werden). Zum Einsatz des Lokalisierers in einem Kraftfahrzeug kann die Szene beispielsweise eine oder alle der folgenden Komponenten aufweisen:
    • - eine Straße eine eines zufälligen Typs (Landstraße, Autobahn, innerorts, ...) und/oder mit einem zufälligen Verlauf (rechts, links, S-förmig, verjüngend, verzweigend, mit Kreuzung, Kreisverkehr,) und oder mit Beschriftung;
    • - eine zufällige Umgebung (Stadt, Land, Dorf, Wald, ...)
    • - zufällige Fahrzeuge (unterschiedliche Typen, Positionen, Orientierungen, ...)
    • - zufälligen Personen (Größe, Positionen, Orientierung, ...).
  • In einer vorteilhaften Weiterbildung kann vorgesehen sein, dass die ermittelte texturfreie Darstellung vor Ihrer Zuführung zum Schätzer mit einem Fehler vorgebbarer Größe beaufschlagt wird. Derartige Variationen haben den Vorteil, dass sie die Zuverlässigkeit durch die größere abgedeckte Varianz noch weiter erhöhen.
  • In einem weiteren Aspekt betrifft die Erfindung ein Verfahren zum Bereitstellen eines Ansteuersignals insbesondere für einen Aktor mit den Schritten:
    • - Bereitstellen eines mittels eines Sensors aufgenommenen Eingangsbilds;
    • - Ermitteln einer Objektliste umfassend eine Liste ermittelter Objekte und Tiefen- und/oder Orientierungs- und/oder Positionsinformation der ermittelten Objekte in dem Eingangsbild; und
    • - Ermitteln des Ansteuersignals abhängig von der Objektliste.
  • Vorteilhafterweise wird hierbei der Robustheitswert mit dem oben beschriebenen Verfahren ermittelt, abhängig vom Wert des Robustheitswerts wird das Ansteuersignal entsprechend eines normalen Betriebsmodus des Aktors (wenn der Robustheitswert einer hohen Robustheit entspricht) oder entsprechend eines abgesicherten Betriebsmodus des Aktors (wenn der Robustheitswert einer niedrigen Robustheit entspricht) ermittelt.
  • In einem weiteren Aspekt betrifft die Erfindung ein Verfahren zum Trainieren des Lokalisierers, mit den Schritten:
    • - Bereitstellen wenigstens einer Szene;
    • - Ermitteln einer dieser Szene entsprechenden texturfreien Darstellung;
    • - Ermitteln, mittels des Schätzers, einer Objektliste umfassend eine Liste ermittelter Objekte und Tiefen- und/oder Orientierungs- und/oder Positionsinformation der ermittelten Objekte; und
    • - Anpassen von Parametern ϕ welche den Schätzer parametrieren abhängig von der ermittelten Objektliste und der bereitgestellten Szene.
  • Ein solches Verfahren zum Trainieren des Lokalisierers kann besonders schnell eine große Vielzahl von Szenen in das Training einfließen lassen, wodurch der Lokalisierer besonders zuverlässig wird.
  • In einer Weiterbildung kann die das Trainieren die folgenden Schritte umfassen:
    • - Ermitteln des Robustheitswerts mit einem der oben beschriebenen Verfahren; und
    • - abhängig vom Wert des Robustheitswerts wird das Training des Schätzers beendet (wenn der Robustheitswert einer hohen Robustheit entspricht), oder das Training weitergeführt (wenn der Robustheitswert einer niedrigen Robustheit entspricht).
  • Auf diese Weise lässt sich im Training besonders effizient eine vorgebbare Robustheit des Lokalisierers erreichen.
  • Selbstverständlich kann auch der Segmentierer des Lokalisierers trainiert werden, und zwar vorteilhafterweise durch ein Verfahren mit den folgenden Schritten:
    • - Bereitstellen von wenigstens einem Eingangsbild und einer zugehörigen Soll-Segmentierung;
    • - Ermitteln, mittels des Segmentierers, einer Segmentierung abhängig vom Eingangsbild; und
    • - Anpassen von Parametern welche den Segmentierer parametrieren abhängig von der ermittelten Segmentierung und der Soll-Segmentierung.
  • In weiteren Aspekten betrifft die Erfindung ein Computerprogramm und ein maschinenlesbares Speichermedium, die eingerichtet, die obigen Verfahren auszuführen.
  • Nachfolgend werden Ausführungsformen der Erfindung unter Bezugnahme auf die beiliegenden Zeichnungen näher erläutert. In den Zeichnungen zeigen:
    • 1 schematisch einen Aufbau einer Ausführungsform der Erfindung;
    • 2 schematisch ein Ausführungsbeispiel zur Steuerung eines wenigstens teilautonomen Roboters;
    • 3 schematisch ein Ausführungsbeispiel zur Steuerung eines Fertigungssystems;
    • 4 schematisch ein Ausführungsbeispiel zur Steuerung eines Zugangssystems;
    • 5 schematisch ein Ausführungsbeispiel zur Steuerung eines Überwachungssystems;
    • 6 schematisch einen beispielhaften Aufbau des Lokalisierers;
    • 7 schematisch einen Aspekt einer Trainingsvorrichtung zum Trainieren des Lokalisierers;
    • 8 schematisch einen weiteren Aspekt der Trainingsvorrichtung zum Trainieren des Lokalisierers;
    • 9 schematisch eine mögliche Anordnung zum Beurteilen der Robustheit des Lokalisierers.
  • Beschreibung der Ausführungsbeispiele
  • 1 zeigt einen Aktor 10 in seiner Umgebung 20 in Interaktion mit einem Steuerungssystem 40. Aktor 10 und Umgebung 20 werden gemeinschaftlich auch als Aktorsystem bezeichnet. In vorzugsweise regelmäßigen zeitlichen Abständen wird ein Zustand des Aktorsystems mit einem Sensor 30 erfasst, der auch durch eine Mehrzahl von Sensoren gegeben sein kann. Das Sensorsignal S - bzw. im Fall mehrerer Sensoren je ein Sensorsignal S - des Sensors 30 wird an das Steuerungssystem 40 übermittelt. Das Steuerungssystem 40 empfängt somit eine Folge von Sensorsignalen S. Das Steuerungssystem 40 ermittelt hieraus Ansteuersignale A, welche an den Aktor 10 übertragen werden.
  • Das Steuerungssystem 40 empfängt die Folge von Sensorsignalen S des Sensors 30 in einer optionalen Empfangseinheit 50, die die Folge von Sensorsignalen S in eine Folge von Eingangsbildern x umwandelt (alternativ kann auch unmittelbar je das Sensorsignal S als Eingangsbild x übernommen werden). Das Eingangsbild x kann beispielsweise ein Ausschnitt oder eine Weiterverarbeitung des Sensorsignals S sein. Das Eingangsbild x kann beispielsweise Bilddaten oder Bilder umfassen, oder einzelne Frames einer Videoaufzeichnung. Mit anderen Worten wird Eingangsbild x abhängig von Sensorsignal S ermittelt. Das Eingangsbild x wird dem Lokalisierer 60 zugeführt.
  • Der Lokalisierer 60 wird vorzugsweise parametriert durch Parameter ϕ, die in einem Parameterspeicher P hinterlegt sind und von diesem bereitgestellt werden.
  • Der Lokalisierer 60 ermittelt aus den Eingangsbildern x die Objektliste y. Die Objektliste y werden einer optionalen Umformeinheit 80 zugeführt, die hieraus Ansteuersignale A ermittelt, welche dem Aktor 10 zugeführt werden, um den Aktor 10 entsprechend anzusteuern.
  • Der Aktor 10 empfängt die Ansteuersignale A, wird entsprechend angesteuert und führt eine entsprechende Aktion aus. Der Aktor 10 kann hierbei eine (nicht notwendigerweise baulich integrierte) Ansteuerlogik umfassen, welches aus dem Ansteuersignal A ein zweites Ansteuersignal ermittelt, mit dem dann der Aktor 10 angesteuert wird.
  • In weiteren Ausführungsformen umfasst das Steuerungssystem 40 den Sensor 30. In noch weiteren Ausführungsformen umfasst das Steuerungssystem 40 alternativ oder zusätzlich auch den Aktor 10.
  • In weiteren bevorzugten Ausführungsformen umfasst das Steuerungssystem 40 eine Ein- oder Mehrzahl von Prozessoren 45 und wenigstens ein maschinenlesbares Speichermedium 46, auf dem Anweisungen gespeichert sind, die dann, wenn sie auf den Prozessoren 45 ausgeführt werden, das Steuerungssystem 40 veranlassen, das erfindungsgemäße Verfahren auszuführen.
  • In alternativen Ausführungsformen ist alternativ oder zusätzlich zum Aktor 10 eine Anzeigeeinheit 10a vorgesehen.
  • 2 zeigt ein Ausführungsbeispiel, in dem das Steuerungssystem 40 zur Steuerung eines wenigstens teilautonomen Roboters, hier eines wenigstens teilautonomen Kraftfahrzeugs 100, eingesetzt wird.
  • Bei dem Sensor 30 kann es sich beispielsweise um einen oder mehrere vorzugsweise im Kraftfahrzeug 100 angeordnete bildgebende Sensoren wie etwa einen oder mehrere optische Sensoren und/oder einen oder mehrere Videosensoren und/oder einen oder mehrere Radarsensoren und/oder einen oder mehrere Ultraschallsensoren und/oder einen oder mehrere LiDAR-Sensoren und/oder einen oder mehrere thermische Sensoren handeln.
  • Der Lokalisierer 60 kann aus den Eingangsbildern x beispielsweise Gegenstände in der Umgebung des wenigstens teilautonomen Roboters detektieren. Bei der Objektliste y kann es sich um eine Information handeln, die charakterisiert, wo in der Umgebung des wenigstens teilautonomen Roboters Gegenstände vorhanden sind. Das Ausgangssignal A kann dann abhängig von dieser Information und/oder entsprechend dieser Information ermittelt werden.
  • Bei dem vorzugsweise im Kraftfahrzeug 100 angeordneten Aktor 10 kann es sich beispielsweise um eine Bremse, einen Antrieb oder eine Lenkung des Kraftfahrzeugs 100 handeln. Das Ansteuersignal A kann dann derart ermittelt werden, dass der Aktor oder die Aktoren 10 derart angesteuert wird, dass das Kraftfahrzeug 100 beispielsweise eine Kollision mit den Lokalisierer 60 identifizierten Gegenständen verhindert, insbesondere, wenn es sich um Gegenstände bestimmter Klassen, z.B. um Fußgänger, handelt. Mit anderen Worten kann Ansteuersignal A abhängig von der ermittelten Klasse und/oder entsprechend der ermittelten Klasse ermittelt werden.
  • Alternativ kann es sich bei dem wenigstens teilautonomen Roboter auch um einen anderen mobilen Roboter (nicht abgebildet) handeln, beispielsweise um einen solchen, der sich durch Fliegen, Schwimmen, Tauchen oder Schreiten fortbewegt. Bei dem mobilen Roboter kann es sich beispielsweise auch um einen wenigstens teilautonomen Rasenmäher oder einen wenigstens teilautonomen Putzroboter handeln. Auch in diesen Fällen kann das Ansteuersignal A derart ermittelt werden, dass Antrieb und/oder Lenkung des mobilen Roboters derart angesteuert werden, dass der wenigstens teilautonome Roboter beispielsweise eine Kollision mit den vom Lokalisierer 60 identifizierten Gegenständen verhindert,
  • In einer weiteren Alternative kann es sich bei dem wenigstens teilautonomen Roboter auch um einen Gartenroboter (nicht abgebildet) handeln, der mit einem bildgebenden Sensor 30 und dem Lokalisierer 60 eine Art oder eine Orientierung von Pflanzen in der Umgebung 20 ermittelt. Bei dem Aktor 10 kann es sich dann beispielsweise um einen Applikator von Chemikalien handeln. Das Ansteuersignal A kann abhängig von der ermittelten Orientierung von Blättern der Pflanzen derart ermittelt werden, dass eine entsprechende Menge der Chemikalien aufgebracht wird.
  • 3 zeigt ein Ausführungsbeispiel, in dem das Steuerungssystem 40 zur Ansteuerung einer Fertigungsmaschine 11 eines Fertigungssystems 200 verwendet wird, indem ein diese Fertigungsmaschine 11 steuernder Aktor 10 angesteuert wird. Bei der Fertigungsmaschine 11 kann es sich beispielsweise um eine Maschine zum Stanzen, Sägen, Bohren und/oder Schneiden handeln.
  • Bei dem Sensor 30 kann es sich dann beispielsweise um einen optischen Sensor handeln, der z.B. Orientierungen von Fertigungserzeugnissen 12 erfasst. Es ist möglich, dass der die Fertigungsmaschine 11 steuernde Aktor 10 abhängig hiervon angesteuert wird, damit die Fertigungsmaschine 11 entsprechend einen nachfolgenden Bearbeitungsschritt dieses Fertigungserzeugnisses 12 ausführt. Es ist auch möglich, dass der Sensor 30 diese Eigenschaften des von der Fertigungsmaschine 11 bearbeiteten Fertigungserzeugnisses 12 ermittelt, und abhängig davon eine Ansteuerung der Fertigungsmaschine 11 für ein nachfolgendes Fertigungserzeugnis anpasst.
  • 4 zeigt ein Ausführungsbeispiel, bei dem das Steuerungssystem 40 zur Steuerung eines Zugangssystems 300 eingesetzt wird. Das Zugangssystem 300 kann eine physische Zugangskontrolle, beispielsweise eine Tür 401 umfassen. Bei dem Sensor 30 kann es sich beispielsweise um einen optischen Sensor (beispielsweise zur Erfassung von Bild- oder Videodaten) handeln, der eingerichtet ist, ein Gesicht zu erfassen. Mittels des Lokalisierers 60 kann dieses erfasste Bild interpretiert werden. Beispielsweise kann die Orientierung von Gliedmaßen ermittelt und hieraus eine Geste einer Person ermittelt werden. Der Aktor 10 kann ein Schloss sein, dass abhängig vom Ansteuersignal A die Zugangskontrolle freigibt, oder nicht, beispielsweise die Tür 401 öffnet, oder nicht. Hierzu kann das Ansteuersignal A abhängig von der der Interpretation des Lokalisierers 60 gewählt werden, beispielsweise abhängig von der ermittelten Geste der Person. An Stelle der physischen Zugangskontrolle kann auch eine logische Zugangskontrolle vorgesehen sein.
  • 5 zeigt ein Ausführungsbeispiel, bei dem das Steuerungssystem 40 zur Steuerung eines Überwachungssystems 400 verwendet wird. Von dem in 5 dargestellten Ausführungsbeispiel unterscheidet sich dieses Ausführungsbeispiel dadurch, dass an Stelle des Aktors 10 die Anzeigeeinheit 10a vorgesehen ist, die vom Steuerungssystem 40 angesteuert wird. Beispielsweise kann vom Lokalisierer 60 ermittelt werden, ob ein vom optischen Sensor aufgenommener Gegenstand verdächtig ist, und das Ansteuersignal A dann derart gewählt werden, dass dieser Gegenstand von der Anzeigeeinheit 10a farblich hervorgehoben dargestellt wird.
  • 6 zeigt schematisch einen beispielhaften Aufbau des Lokalisierers 60. Dieser umfasst den Segmentierer 61 und den Schätzer 71. Segmentierer 61 und Schätzer 71 können jeweils durch ein maschinelles Lernsystem, insbesondere je ein (insbesondere tiefes, d.h. mit mindestens 2, 3, 5, 10, 15 oder 20 verdeckten Schichten (Englisch: „hidden layers“)) neuronales Netz, gegeben sein. Das Eingangsbild x wird dem Segmentierer 61 zugeführt, der hieraus eine entsprechende pixelweise semantische Segmentierung SEM ermittelt. Diese wird dem Schätzer 71 zugeführt, der heraus die Objektliste y ermittelt. Dieser Lokalisierer 60 kann als Computerprogramm implementiert sein, das auf dem maschinenlesbaren Speichermedium 46 gespeichert ist und von Prozessor 45 ausgeführt wird.
  • 7 zeigt einen ersten Aspekt einer Trainingsvorrichtung 140 zum Trainieren des Lokalisierers 60, nämlich zum Trainieren des Schätzers 71. Schätzer 71 wird mit Parametern ϕ parametriert, die von einem Parameterspeicher P bereitgestellt werden.
  • Szenengenerator 68 erzeugt zufällig eine Vielzahl von Szenen ys. Diese Szenen werden einem Renderer 69 zugeführt, der hieraus eine texturfreie Darstellung ermittelt, nämlich eine semantische Segmentierung SEM der Szene aus Sicht der simulierten Position des Sensors 30. Diese semantische Segmentierung SEM wird dem Schätzer 71 zugeführt, der hieraus die Objektliste y ermittelt. Diese wird ebenso wie die Szene ys einem Vergleicher 75 zugeführt, der hieraus einen Grad der nicht-Übereinstimmung zwischen Szene ys und Objektliste y ermittelt. Beispielsweise werden aus der Szene ys die tatsächlichen in der Objektliste y bereitgestellten Eigenschaften der in Objektliste y bereitgestellten Objekte extrahiert, und abhängig von einem Grad der Abweichung zwischen entsprechenden Eigenschaften werden neue den Schätzer parametrierende Parameter ϕ' ermittelt und Parameterspeicher P zugeführt, wo sie die Parameter ϕ ersetzen.
  • Das beschriebene Verfahren kann als Computerprogramm implementiert auf einem maschinenlesbaren Speichermedium 146 hinterlegt sein und von einem Prozessor 145 ausgeführt werden.
  • 8 zeigt einen weiteren Aspekt einer Trainingsvorrichtung 140 zum Trainieren des Lokalisierers 60, nämlich zum Trainieren des Segmentierers 61. Schätzer 61 wird mit Parametern ϕ parametriert, die von einem Parameterspeicher P bereitgestellt werden.
  • Eingangsbild x wird bereitgestellt und dem Segmentierer 61 zugeführt, der hieraus die entsprechende semantische Segmentierung SEM ermittelt. Diese wird ebenso wie eine gemeinsam mit Eingangsbild x bereitgestellte Soll-Segmentierung SEMs einem Vergleicher 74 zugeführt. Aufgrund des Grads der Abweichung zwischen semantischer Segmentierung SEM und Soll-Segmentierung SEMs werden neue den Schätzer parametrierende Parameter ϕ' ermittelt und Parameterspeicher P zugeführt, wo sie die Parameter ϕ ersetzen.
  • Das beschriebene Verfahren kann als Computerprogramm implementiert auf einem maschinenlesbaren Speichermedium 146 hinterlegt sein und von einem Prozessor 145 ausgeführt werden.
  • 9 schematisch eine mögliche Anordnung zum Beurteilen der Robustheit des Lokalisierers.
  • 9 zeigt schematisch einen möglichen Aufbau eines Robustheitsbewerters 141 zum Beurteilen der Robustheit des Lokalisierers 60, insbesondere des Schätzers 71. Der Aufbau des Robustheitsbewerters 141 ist in weiten Teilen identisch zum in 7 gezeigten Aufbau des dort gezeigten Aspekts der Trainingsvorrichtung 140. Allerdings ist an Stelle des Vergleichers 75 ein Robustheitsschätzer 76 vorgesehen, der nicht neue Parameter ϕ' ermittelt, sondern den Robustheitswert b. Robustheitsbewerter 141 kann beispielsweise in das Steuerungssystem 40 integriert sein (nicht dargestellt), wo Robustheitswert b der Umformeinheit 80 zugeführt werden kann, damit diese das Ansteuersignal A entsprechend wählt. Alternativ oder zusätzlich kann Robustheitsbewerter 141 auch in das Trainingssystem 140 integriert sein (nicht dargestellt), wo abhängig von Robustheitswert b das Training des Schätzers 71 fortgesetzt oder beendet wird.
  • Der Begriff „Computer“ umfasst beliebige Geräte zur Abarbeitung vorgebbarer Rechenvorschriften. Diese Rechenvorschriften können in Form von Software vorliegen, oder in Form von Hardware, oder auch in einer Mischform aus Software und Hardware.
  • Es versteht sich ferner, dass die Verfahren nicht nur wie beschrieben vollständig in Software implementiert sein können. Sie können auch in Hardware implementiert sein, oder in einer Mischform aus Software und Hardware.
  • Bezugszeichenliste
  • A
    Ansteuersignal
    P
    Parameterspeicher
    S
    Sensorsignal
    SEM
    semantische Segmentierung
    SEMs
    Soll-Segmentierung
    b
    Robustheitswert
    x
    Eingangsbild
    y
    Objektliste
    ys
    Szene
    ϕ
    Parameter
    ϕ'
    neue Parameter
    10
    Aktor
    10a
    Anzeigeeinheit
    11
    Fertigungsmaschine
    12
    Fertigungserzeugnis
    20
    Umgebung
    30
    Sensor
    40
    Steuerungssystem
    45
    Prozessor
    46
    maschinenlesbares Speichermedium
    50
    Empfangseinheit
    60
    Lokalisierer
    61
    Segmentierer, erstes neuronales Netz
    68
    Szenengenerator
    69
    Renderer
    71
    Schätzer, zweites neuronales Netz
    74
    Vergleicher
    75
    Vergleicher
    76
    Robustheitsschätzer
    80
    Umformeinheit
    100
    Kraftfahrzeug
    140
    Trainingsvorrichtung
    141
    Robustheitsbewerter
    145
    Prozessor
    146
    maschinenlesbares Speichermedium
    200
    Fertigungssystem
    300
    Zugangssystem
    400
    Überwachungssystem
    401
    Tür
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102018206848 [0002]

Claims (15)

  1. Verfahren zum Ermitteln einer Tiefen- und/oder Orientierungsinformation von mittels eines bildgebenden Sensors (30) erfasste Objekten in einem Eingangsbild (x), wobei das Eingangsbild (x) mittels eines Segmentierers (61), insbesondere mittels eines ersten neuronalen Netzes, in eine texturfreie Darstellung (SEM) transformiert wird, und abhängig von der texturfreien Darstellung (SEM), mittels eines Schätzers (71) insbesondere mittels eines zweiten neuronalen Netzes, eine Objektliste (y), die im Eingangsbild (x) vorhandene Objekte und ihre jeweilige Tiefen- und/oder Orientierungsinformation charakterisiert, ermittelt wird.
  2. Verfahren nach Anspruch 1, wobei die texturfreie Darstellung (SEM) eine (pixelweise) semantische Segmentierung oder eine Darstellung in Stixeln ist oder ein Belegungsraster (Englisch: „occupancy grid“) umfasst.
  3. Lokalisierer (60) umfassend den Segmentierer (61) und den Schätzer (71), der ausgebildet ist, das Verfahren nach einem der Ansprüche 1 bis 2 auszuführen.
  4. Verfahren zum Ermitteln eines eine Robustheit des Lokalisierers (60) nach Anspruch 3 charakterisierenden Robustheitswerts (b), mit den Schritten: - Bereitstellen von wenigstens einer Szene (ys); - Ermitteln einer dieser Szene (ys) entsprechenden texturfreien Darstellung (SEM); - Ermitteln, mittels des Schätzers (71), einer Objektliste (y) umfassend eine Liste ermittelter Objekte und Tiefen- und/oder Orientierungs- und/oder Positionsinformation der ermittelten Objekte; und - Ermitteln des Robustheitswerts (b) abhängig von der ermittelten Objektliste (y) und der bereitgestellten Szene (ys).
  5. Verfahren nach Anspruch 4, wobei die ermittelte texturfreie Darstellung (SEM) vor Ihrer Zuführung zum Schätzer (71) mit einem Fehler vorgebbarer Größe beaufschlagt wird.
  6. Robustheitsbewerter (141), der eingerichtet ist, das Verfahren nach Anspruch 4 oder 5 auszuführen.
  7. Verfahren zum Bereitstellen eines Ansteuersignals (A), insbesondere für einen Aktor (10), mit den Schritten: - Bereitstellen eines mittels eines Sensors (30) aufgenommenen Eingangsbilds (x); - Ermitteln einer Objektliste (y) umfassend eine Liste ermittelter Objekte und Tiefen- und/oder Orientierungs- und/oder Positionsinformation der ermittelten Objekte in dem Eingangsbild (x); und - Ermitteln des Ansteuersignals (A) abhängig von der Objektliste (y).
  8. Verfahren nach Anspruch 7, ferner umfassend die Schritte: - Ermitteln des Robustheitswerts (b) mit dem Verfahren nach Anspruch 4 oder 5; und - abhängig vom Wert des Robustheitswerts (b) wird das Ansteuersignal (A) entsprechend eines normalen Betriebsmodus des Aktors (10) oder entsprechend eines abgesicherten Betriebsmodus ermittelt.
  9. Steuerungssystem (40), das eingerichtet ist, das Verfahren nach einem der Ansprüche 7 oder 8 auszuführen.
  10. Verfahren zum Trainieren des Lokalisierers (60) nach Anspruch 3, mit den Schritten: - Bereitstellen wenigstens einer Szene (ys); - Ermitteln einer dieser Szene (ys) entsprechenden texturfreien Darstellung (SEM); - Ermitteln, mittels des Schätzers (71), einer Objektliste (y) umfassend eine Liste ermittelter Objekte und Tiefen- und/oder Orientierungs- und/oder Positionsinformation der ermittelten Objekte; und - Anpassen von Parametern (ϕ) welche den Schätzer (71) parametrieren abhängig von der ermittelten Objektliste (y) und der bereitgestellten Szene (ys).
  11. Verfahren nach Anspruch 10, umfassend ferner die Schritte: - Ermitteln des Robustheitswerts (b) mit dem Verfahren nach Anspruch 4 oder 5; und - abhängig vom Wert des Robustheitswerts (b) wird das Training des Schätzers (71) beendet, oder das Training weitergeführt.
  12. Verfahren nach Anspruch 10 oder 11, umfassend ferner die Schritte: - Bereitstellen von wenigstens einem Eingangsbild (x) und einer zugehörigen Soll-Segmentierung (SEMs); - Ermitteln, mittels des Segmentierers (61), einer Segmentierung (SEM) abhängig vom Eingangsbild (x); und - Anpassen von Parametern (ϕ) welche den Segmentierer (61) parametrieren abhängig von der ermittelten Segmentierung (SEM) und der Soll-Segmentierung (SEMs).
  13. Trainingsvorrichtung (140), die eingerichtet ist, das Verfahren nach einem der Ansprüche 10 bis 12 auszuführen.
  14. Computerprogramm, das eingerichtet ist, das Verfahren nach einem der Ansprüche 1, 2, 5, 5, 7, 8 oder 10 bis 12 auszuführen.
  15. Maschinenlesbares Speichermedium (46, 146), das eingerichtet ist, das Verfahren nach einem der Ansprüche 1, 2, 5, 5, 7, 8 oder 10 bis 12 auszuführen.
DE102019207411.1A 2019-05-21 2019-05-21 Verfahren und Vorrichtung zum sicheren Betreiben eines Schätzers Pending DE102019207411A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102019207411.1A DE102019207411A1 (de) 2019-05-21 2019-05-21 Verfahren und Vorrichtung zum sicheren Betreiben eines Schätzers
CN202010429479.6A CN111986244A (zh) 2019-05-21 2020-05-20 用于安全地运行估计器的方法和设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019207411.1A DE102019207411A1 (de) 2019-05-21 2019-05-21 Verfahren und Vorrichtung zum sicheren Betreiben eines Schätzers

Publications (1)

Publication Number Publication Date
DE102019207411A1 true DE102019207411A1 (de) 2020-11-26

Family

ID=73052861

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019207411.1A Pending DE102019207411A1 (de) 2019-05-21 2019-05-21 Verfahren und Vorrichtung zum sicheren Betreiben eines Schätzers

Country Status (2)

Country Link
CN (1) CN111986244A (de)
DE (1) DE102019207411A1 (de)

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
PERIYASAMY, Arul Selvam; SCHWARZ, Max; BEHNKE, Sven. Robust 6D object pose estimation in cluttered scenes using semantic segmentation and pose regression networks. In: 2018 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). IEEE, 2018. S. 6660-6666 *
WANG, Chen, et al. DenseFusion: 6D Object Pose Estimation by Iterative Dense Fusion. arXiv preprint arXiv:1901.04780v1, 15. Januar 2019 *

Also Published As

Publication number Publication date
CN111986244A (zh) 2020-11-24

Similar Documents

Publication Publication Date Title
DE102018204494B3 (de) Erzeugung synthetischer Radarsignale
WO2020260020A1 (de) Verfahren und vorrichtung zum überprüfen der robustheit eines künstlichen neuronalen netzes
DE202017102381U1 (de) Vorrichtung zum Verbessern der Robustheit gegen "Adversarial Examples"
DE102008013366B4 (de) Verfahren zur Bereitstellung von Information für Fahrerassistenzsysteme
DE102016122481A1 (de) Oberflächenzustandserkennung für schneebedeckte fahrbahnen
DE102007058959A1 (de) Konfigurationsmodul für ein Überwachungssystem, Überwachungssystem, Verfahren zur Konfiguration des Überwachungssystems sowie Computerprogramm
WO2020239540A1 (de) Verfahren und vorrichtung zur detektion von rauch
EP3921819B1 (de) Überwachungsvorrichtung und verfahren zur man-overboard-überwachung eines schiffsabschnitts
EP3663881B1 (de) Verfahren zur steuerung eines autonomen fahrzeugs auf der grundlage von geschätzten bewegungsvektoren
DE10148070A1 (de) Verfahren zur Erkennung und Verfolgung von Objekten
DE102018222800A1 (de) Ortung und/oder Klassifikation von Objekten aus Radardaten mit verbesserter Verlässlichkeit bei unterschiedlichen Entfernungen
DE102009026091A1 (de) Verfahren und System zur Überwachung eines dreidimensionalen Raumbereichs mit mehreren Kameras
DE102018218834A1 (de) Verfahren und Vorrichtung zum Ermitteln eines Ansteuersignals
DE102020119954A1 (de) Verfahren zum Erzeugen einer Belegungsgitterkarte für zumindest ein statisches Objekt, Computerprogrammprodukt, computerlesbares Speichermedium sowie Assistenzsystem
DE102019207411A1 (de) Verfahren und Vorrichtung zum sicheren Betreiben eines Schätzers
DE102019213009A1 (de) Aufbereitung von Radarsignalen mit Unterdrückung von Bewegungsartefakten
EP3853778A1 (de) Verfahren und vorrichtung zum betreiben eines steuerungssystems
DE102022201679A1 (de) Verfahren und Vorrichtung zum Trainieren eines neuronalen Netzes
DE102018121158A1 (de) Verfahren zum Erfassen von Bodenabtastpunkten und Fahrerunterstützungssystem, das dafür konfiguriert ist, ein derartiges Verfahren auszuführen
EP3663800B1 (de) Verfahren zur objekterfassung mit einer 3d-kamera
WO2020260016A1 (de) Verfahren und vorrichtung zum trainieren eines maschinellen lernsystems
DE102021204040A1 (de) Verfahren, Vorrichtung und Computerprogramm zur Erstellung von Trainingsdaten im Fahrzeug
DE102019209228A1 (de) Verfahren und Vorrichtung zum Überprüfen der Robustheit eines künstlichen neuronalen Netzes
DE102019208008A1 (de) Verfahren und Vorrichtung zum sicheren Zuordnen identifizierter Objekte in Videobildern
DE102019211557A1 (de) Bahnsignalerkennung für autonome Schienenfahrzeuge

Legal Events

Date Code Title Description
R163 Identified publications notified