DE102019201990A1 - Verfahren und Vorrichtung zur Erkennung einer Störung in einem Bild - Google Patents

Verfahren und Vorrichtung zur Erkennung einer Störung in einem Bild Download PDF

Info

Publication number
DE102019201990A1
DE102019201990A1 DE102019201990.0A DE102019201990A DE102019201990A1 DE 102019201990 A1 DE102019201990 A1 DE 102019201990A1 DE 102019201990 A DE102019201990 A DE 102019201990A DE 102019201990 A1 DE102019201990 A1 DE 102019201990A1
Authority
DE
Germany
Prior art keywords
image
attribute
determined
artificial neural
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019201990.0A
Other languages
English (en)
Inventor
Jan Hendrik Metzen
Zeynep Akata
Arnold Smeulders
Sadaf Gulshad
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102019201990.0A priority Critical patent/DE102019201990A1/de
Priority to CN202010090355.XA priority patent/CN111563522A/zh
Publication of DE102019201990A1 publication Critical patent/DE102019201990A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

Computerimplementiertes Verfahren und Vorrichtung zur Erkennung einer Störung in einem Bild, wobei abhängig von einem Bild eine Klasse für ein Objekt aus dem Bild bestimmt wird (202), wobei durch eine Vorhersagefunktion, insbesondere ein künstliches neuronales Netzwerk, abhängig vom Bild ein Attribut für das Objekt bestimmt wird (206), und wobei abhängig vom Attribut und der Klasse bestimmt wird (210), ob das Bild eine für Vorhersagefunktionen, insbesondere künstliche neuronale Netzwerke feindselige Störung enthält oder nicht.

Description

  • Stand der Technik
  • Die Erfindung geht aus von einem Verfahren und einer Vorrichtung zur Verarbeitung von Bildern insbesondere mit einem künstlichen neuronalen Netzwerk.
  • Y. Dong, H. Su, J. Zhu, and F. Bao. Towards interpretable deep neural networks by leveraging adversarial examples. arXiv preprint arXiv: 1708.05493, 2017 offenbart Aspekte, die dem Verständnis einer Ausgabe eines künstlichen neuronalen Netzwerks dienen sollen. Dazu werden interne Zustände des künstlichen neuronalen Netzwerks betrachtet, die bei der Analyse von Bildern, die eine für künstliche neuronale Netzwerke feindselige Störung enthalten, auftreten. Die für künstliche neuronale Netzwerke feindselige Störung in einem zu analysierenden Bild dient dazu, eine vertrauenswürdige Ausgabe des künstlichen neuronalen Netzwerks zu erzielen, die vom Erzeuger dieses Bildes beabsichtigt jedoch gegenüber einem im Bild dargestellten Inhalt falsch ist. Beispielsweise wird in ein Bild eine bei der Betrachtung des Bildes für das menschliche Auge schwer oder nicht erkennbare Änderung, beispielsweise ein Rauschen, in das zu analysierende Bild integriert, durch die dieses Bild vom künstlichen neuronalen Netzwerk falsch klassifiziert wird.
  • Wünschenswert ist es, derartige Störungen in einem Bild zuverlässig zu erkennen.
  • Offenbarung der Erfindung
  • Dies wird durch den Gegenstand der unabhängigen Ansprüche erreicht.
  • In Verfahren zur Bilderkennung, welche auf Maschinenlernen basieren, wird einem Eingang x ∈ X ein Ausgang y ∈ Y zugeordnet, wobei X einen Eingangsraum und Y einen Ausgangsraum bezeichnet.
  • Ein Modell für die Bilderkennung umfasst eine Kompatibilitätsfunktion F: X × Y -> ℝ und eine Vorhersagefunktion f(x; w) = arg maxF(x, y; w), mit y ∈ Y .
  • Die Vorhersagefunktion f (x; w) umfasst einen Modellparametervektor w, die Kompatibilitätsfunktion F stellt ein Maß für die Kompatibilität eines Paares (x, y) bei einem gegebenen Parametervektor w dar.
  • Im Folgenden wird das Verfahren am Beispiel eines künstlichen neuronalen Netzwerks beschrieben. Das Verfahren ist auf jede parameterisierte und nach w ableitbare Funktion anwendbar.
  • Ausgehend von einer Trainingsmenge S = {(xn, yn), n = 1, ... N} von N Eingangs/Ausgangspaaren mit xn ∈ X und yn ∈ Y wird zum Training des Modells eine Vorhersage mit dem Ziel durchgeführt, eine Structured Joint Embedding Funktion f: X → Y zu erlernen indem ein empirisches Risiko 1 N n = 1 N Δ ( y n , f ( x n ) )
    Figure DE102019201990A1_0001
    minimiert wird, wobei Δ: Y × Y → ℝ die Kosten misst, die für die Vorhersage f (x) entstehen, wenn yn die zutreffende Klasse kennzeichnet. Beispielsweise wird Δ(yn, f(xn)) = 0, für yn = f(xn) und Δ(yn, f(xn)) = 1, für yn ≠ f(xn), d.h. ein 0/1 loss, verwendet.
  • Für den Eingangsraum X wird beispielsweise ein input embedding θ(xn): X → X̃ verwendet, d.h. eine Abbildung die den Eingangsraum X auf einen transformierten Eingang X̃ abbildet. Für den Ausgangraum Y wird beispielsweise ein output embedding ϕ: Y → Ỹ verwendet, d.h. eine Abbildung die einen transformierten Ausgang Ỹ auf den Ausgangsraum Y abbildet. Für das Training des Modells kann in diesem Fall der transformierte Eingang X̃ und der transformierte Ausgang Ỹ verwendet.
  • Attribute Label Embedding stellt eine Möglichkeit dar, label embeddings <p(y) = [ρy,1, ...,ρy,E] zu bestimmen. Für das output embedding ϕ wird von einer Anzahl E Attribute A = {ai, i = 1, ..., E} ausgegangen, die eine Anzahl C Klassen Y = {1, ..., C} beschreiben. Die Werte ρy,i stellen ein Maß für eine Zugehörigkeit eines Attributs ai zu einer Klasse y dar. Reihenweise übereinander angeordnet stellen die φ(y) aller C Klassen Y eine output embedding Matrix ϕ der Dimension E × C für die Attribute A dar.
  • Wird der Parametervektor w abhängig von einer Dimension D eines input embeddings θ(xn) und abhängig von einer Dimension E des output embeddings ϕ(y) als D × E Matrix W dargestellt, ist die Kompatibilitätsfunktion abhängig vom input embedding θ(xn) und vom output embedding ϕ(y) darstellbar als F(xn, yn; W) = θ(xn)TWϕ(yn).
  • Beispielsweise wird durch binäre Werte ρy,i festgelegt, ob das Attribut ai der Klasse y zugehörig ist. Anstelle der Verwendung von binären Werten kann ein Vertrauenswert aus einem kontinuierlichen Wertebereich verwendet, der das Maß für die Zugehörigkeit kontinuierlich angibt. Ausgehend von einem Datensatz, in dem eine Menge gekennzeichneter Bilder xn ∈ X enthalten sind, werden den Werten ρy,i beispielsweise in überwachtem Lernen binäre Werte, d.h. {0, 1}, oder Werte aus dem kontinuierlichen Wertebereich zugeordnet.
  • Die im Folgenden beschriebenen Aspekte sind nicht auf überwachtes Lernen beschränkt, sondern können auch in Verbindung mit unüberwachtem oder hierarchischem Lernen, insbesondere basierend auf Text, angewendet werden.
  • Diese und weitere Aspekte sind beispielsweise in Z. Akata, S. Reed, D. Walter, H. Lee, and B. Schiele: „Evaluation of output embeddings for fine-grained image classification" In Computer Vision and Pattern Recognition (CVPR), 2015 IEEE Conference on, pages 2927-2936. IEEE, 2015 beschrieben.
  • Der beschriebene Structured Joint Embeddings Algorithmus ist besonders geeignet, um Attribute mittels zero-shot Lernverfahren vorherzusagen. Mittels des zero-shot Lernverfahrens wird eine Klassifizierung von Bildern in Klassen trainiert, bei der Trainingsbilder und zu klassifizierende Bilder zu zwei disjunkten Mengen von Klassen zugeordnet sind.
  • Eine objektive Lernfunktion ist beispielsweise definiert als 1 N n = 1 N max { 0, l ( x n , y n , y ) }
    Figure DE102019201990A1_0002
    mit l ( x n , y n , y ) = Δ ( y n , y ) + θ ( x n ) T W ϕ ( y ) θ ( x n ) T W ϕ ( y n ) )
    Figure DE102019201990A1_0003
    Wobei ein stochastisches Gradientenabstiegsverfahren verwendet wird, um die Parameter in der Matrix W ausgehend von einer Stichprobe (xn, yn) zu bestimmen und die am höchsten bewertete Klasse y zu finden. Wenn die Klasse aus der Stichprobe yn nicht der zutreffenden Klasse entspricht, werden die Gewichte beispielsweise mit folgender Gleichung aktualisiert W t = W t 1 + η t θ ( x ) [ ϕ ( y ) ϕ ( y n ) ] T
    Figure DE102019201990A1_0004
    mit
  • t
    Berechnungsschritt
    ηt
    Lernrate im Berechnungsschritt t.
  • Bei einer Klassifizierung eines Bildes xn stellt Zn,y n =θ(xn)W eine Attributvorhersage, d.h. ein vorhergesagtes Attribut ai für das Bild xn dar, das einer Klasse yn zugeordnet ist.
  • Das Ergebnis der Klassifikation bezieht sich auf Objekte aus dem Bild, die in einem oder mehreren Bildausschnitten des Bildes, d.h. bounding boxes, enthalten sind. Bounding boxes definieren im Bild geometrische Umrisse, in denen ein Objekt lokalisiert ist. Zur Lokalisierung von bounding boxes in einem Bild wird beispielsweise ein Faster-Region-Based-Convolutional-Neural Network, Faster-RCNN, verwendet, das mit einem Visual-genome dataset trainiert wurden. Dieses Vorgehen ist beispielsweise in P. Anderson, X. He, C. Buehler, D. Teney, M. Johnson, S. Gould, and L. Zhang: „Bottom-up and top-down attention for image captioning and vqa“ arXiv preprint arXiv:1707.07998, 2017 beschrieben.
  • Einer bounding box, die einem Objekt zugeordnet ist, wird zudem ein Attribut ai zugeordnet. Im Beispiel umfasst ein Attributvektor A Attribute ai. Dazu wird ein künstliches neuronales Netzwerk eingesetzt, das mit dem margin-based ranking loss L r a n k = max ( 0, f c r i t i c ( A i n , I ) f c r i t i c ( A i p , I ) + 1 )
    Figure DE102019201990A1_0005
    trainiert wurde, wobei f c r i t i c ( A i n , I )
    Figure DE102019201990A1_0006
    für eine bezüglich des analysierten Bildes unzutreffende paarweise Zuordnung eines Attributs zu einer bounding box eine negative Kennzahl S i n
    Figure DE102019201990A1_0007
    ist und wobei f c r i t i c ( A i p , I )
    Figure DE102019201990A1_0008
    für eine bezüglich des analysierten Bildes zutreffende paarweise Zuordnung eines Attributs zu einer bounding box eine positive Kennzahl S i p
    Figure DE102019201990A1_0009
    ist. Für eine bounding box werden beispielsweise alle positiven Attribute A i p
    Figure DE102019201990A1_0010
    bestimmt und die übrigen Attribute als negative Attribute A i n
    Figure DE102019201990A1_0011
    verwendet. Von den im Bild lokalisierten bounding boxes wird die bounding box mit der höchsten Kennzahl bestimmt und beispielsweise zusammen mit dem Bild und der bounding box ausgegeben. Beispielsweise wird abhängig von den Kennzahlen eine Reihenfolge der bounding boxes festgelegt. Dieses Vorgehen zur Lokalisierung ist beispielsweise in L. A. Hendricks, R. Hu, T. Darrell, and Z. Akata: „Grounding visual explanations“ arXiv preprint arXiv: 1807.09685, 2018 beschrieben.
  • In den folgenden Aspekten wird zwischen sauberen Bildern und feindseligen Bildern unterschieden. Ein feindseliges Bild unterscheidet sich von einem sauberen Bild durch eine Störung. Die Störung ist vorzugsweise für einen menschlichen Betrachter nicht oder nur schwer erkennbar. Die Störung ist eine für künstliche neuronale Netzwerke feindselige Störung, die zu einer vertrauenswürdigen aber fehlerhaften Klassifikation des feindseligen Bildes führt. Das bedeutet, die Störung ist derart gestaltet, dass das künstliche neuronale Netzwerk das feindselige Bild in eine existierende aber für dieses Bild falsche Klasse klassifiziert.
  • Die Störung wird einem sauberen Bild x beispielsweise durch das in A. Kurakin, I. Goodfellow, and S. Bengio: „Adversarial examples in the physical world. arXiv preprint arXiv: 1607.02533, 2016“ beschriebene Vorgehen hinzugefügt. Dazu wird die folgende Optimierungsgleichung verwendet: x 0 a d v = x x n + 1 a d v = C l i p ε { x n a d v + α S i g n ( x n a d v J ( x n a d v , y t r u e ) ) }
    Figure DE102019201990A1_0012
    mit
  • n
    Schritt in der Berechnung,
    x
    sauberes Bild,
    Figure DE102019201990A1_0013
    gestörtes Bild in einem Schritt n,
    Figure DE102019201990A1_0014
    Gradient der Kostenfunktion für das gestörte Bild im Schritt n,
    Clipε
    Funktion, welche die maximale Distanz ihres Arguments von x auf ε beschränkt,
    ytrue
    wahre Klasse des Bildes x,
    a
    Schrittgröße, beispielsweise a = 1,
    ε
    wählbarer Hyperparameter.
  • Das feindselige Bild wird durch iterative Berechnung der Optimierungsgleichung mit einer wählbaren Anzahl an Iterationen bestimmt.
  • Weitere Aspekte derartiger Störungen sind beispielsweise in C. Szegedy, W. Zaremba, I. Sutskever, J. Bruna, D. Erhan, I. Goodfellow, and R. Fergus: „Intriguing properties of neural networks“ arXiv preprint arXiv:1312.6199, 2013 beschrieben.
  • Die folgenden Aspekte sind für derartige feindselige Bilder als auch für andere Störungen in feindseligen Bildern anwendbar.
  • Sowohl für die sauberen Bilder als auch für die feindseligen Bilder ist es möglich, wie zuvor beschrieben, eine bounding box oder mehrere bounding boxes und das Attribut mit der größten Kennzahl für die jeweilige bounding box zu bestimmen. In der Ausgabe kann das Attribut oder eine dem Attribut zugeordnete Klasse oder beide zusammen mit der bounding box enthalten sein. Diese können visualisiert werden, d.h. zusammen mit dem analysierten Bild angezeigt werden. Werden sowohl ein sauberes Bild als auch ein feindseliges Bild analysiert, können diese auch nebeneinander oder nacheinander dargestellt werden, um es einem Menschen zu ermöglichen, eine Güte der Lokalisierung der bounding boxes bezüglich eines Objekts, das in beiden Bildern enthalten ist, oder bezüglich einer Relevanz eines mit einer bounding box dargestellten Attributs oder einer mit der bounding box dargestellten Klasse für diese bounding box zu beurteilen. Alternativ dazu kann ein künstliches neuronales Netzwerk eingesetzt werden, das trainiert wurde diese Beurteilung vorzunehmen.
  • Ein computerimplementiertes Verfahren zur Erkennung einer Störung in einem Bild sieht vor, dass abhängig von einem Bild eine Klasse für ein Objekt aus dem Bild bestimmt wird, wobei durch eine Vorhersagefunktion, insbesondere ein künstliches neuronales Netzwerk, abhängig vom Bild ein Attribut für das Objekt bestimmt wird, und wobei abhängig vom Attribut und der Klasse bestimmt wird, ob das Bild eine für Vorhersagefunktionen, insbesondere künstliche neuronale Netzwerke, feindselige Störung enthält oder nicht. Durch eine Vorhersage eines Attributs für dasselbe Objekt, das in die Klasse klassifiziert wird, ist die Ausgabe des künstlichen neuronalen Netzwerks für dieses Objekt dahingehend analysierbar, ob in einem analysierten Bild eine für das künstliche neuronale Netzwerke feindselige Störung enthalten ist oder nicht.
  • In einem Fahrerassistenzsystem wird beispielsweise durch die Vorhersage von Attributen, insbesondere unter der Annahme, dass ein Angreifer keinen Zugriff auf die Attributvorhersage selbst hat, folgendes erreicht werden: Der Angreifer täuscht einen Objektdetektor, der die Klasse für das Objekt aus dem Bild bestimmt, sodass der Objektdetektor dem Objekt eine falsche Klasse zuordnet. Das Objekt ist beispielsweise eine Darstellung eines Stopp-Schilds gemäß der deutschen Straßenverkehrsordnung. Die zutreffende Klasse ist beispielsweise Stopp-Zeichen, die unzutreffende Klasse ist beispielsweise Person. Eine Attributvorhersage weist dem als Person erkannten Objekt wenigstens ein Attribut zu. Ein Attribut repräsentiert beispielsweise einen für Menschen verständlichen Begriff als Wortvektoren. Andere Repräsentationen von für Menschen verständliche Begriffe oder für Menschen unverständliche Attribute können ebenfalls vorgesehen sein. Beispielsweise werden die Attribute „Oktagon“, „weißer Text“, „roter Hintergrund“ zugewiesen, die nicht zu einer Person, wohl aber zu einem Stopp-Zeichen passen. Es können auch Attribute zugewiesen werden, die zu beiden Klassen, d.h. Person und Stopp-Zeichen passen. Aufgrund der Attribute, die nicht zur vorhergesagten Klasse passen, ist ein potentieller Täuschungsversuch erkennbar.
  • Anderen Anwendungsgebiete sind beispielsweise (semi-)autonome Roboter, die ebenfalls Objekte erkennen müssen und getäuscht werden können. Auch hier wird beispielsweise bei der Erkennung eines potentiellen Angriffs in einen Fallback-Modus gewechselt, der z.B. eine menschliche Fernsteuerung vorsieht.
  • In einem Aspekt des Verfahrens ist vorgesehen, dass das Attribut durch ein erstes künstliches neuronales Netzwerk bestimmt wird, wobei durch ein zweites künstliches neuronales Netzwerk bestimmt wird, ob die für künstliche neuronale Netzwerke feindselige Störung im Bild enthalten ist, oder nicht. Dadurch ist der Täuschungsversuch automatisiert erkennbar. Vorteilhaft ist es, wenn der Angreifer keine Kenntnis der Präsenz des zweiten neuronalen Netzes besitzt oder keinen Zugriff auf dieses hat. Durch entsprechende technische Maßnahmen, die das zweite neuronale Netz beispielsweise für einen potentiellen Angreifer unzugänglich machen, wird vermieden, dass eine Störung so erzeugbar ist, dass beide Netze gleichzeitig getäuscht werden.
  • Vorteilhafterweise ist vorgesehen, dass das Attribut für das Objekt mit dem Bild und/oder einer Region des Bildes für dieses Objekt für eine bildliche Darstellung ausgegeben wird. Dadurch ist eine Beurteilung einer Güte der Lokalisierung der Region bezüglich des Objekts oder einer Relevanz des Attributs für das Objekt durch einen Menschen auf einem Bildschirm beurteilbar.
  • Vorteilhafterweise ist vorgesehen, dass dem Attribut eine Region im Bild zugeordnet wird, wobei ein Maß für eine Lokalisierung der Region bezüglich des Objekts bestimmt wird, und wobei abhängig vom Maß für die Lokalisierung bestimmt wird, ob das Bild die für künstliche neuronale Netzwerke feindselige Störung enthält oder nicht. Das Maß für die Lokalisierung gibt beispielsweise an, wie gut die Region dem Objekt zuzuordnen ist. Beispielsweise wird das künstliche neuronale Netzwerk auf einem Trainingsdatensatz trainiert, der als Input Bounding-Box und beispielsweise manuell annotierte Attribut erhält, und lernt, vorherzusagen, ob eine Bounding-Box gut lokalisiert ist. Die manuell annotierten Bounding-Boxen des Trainingsdatensatzes werden als gut lokalisiert betrachtet. Durch zufällige Verschiebung dieser Bounding-Boxen können schlecht-lokalisierte Boxen erzeugt werden, die ebenfalls dem Training dienen können. Ein so trainiertes künstliches neuronale Netzwerk wird auf die vorhersagten Bounding-Boxen angewendet und prüft, ob die Bounding-Boxen als gut lokalisiert eingestuft werden kann. Schlecht lokalisierte Bounding-Boxen weisen auf Bilder mit Störung hin.
  • Vorzugsweise ist vorgesehen, dass wenigstens ein erstes Attribut für ein erstes Bild bestimmt wird, wobei ein erster Abstand zwischen dem wenigstens einen ersten Attribut für das erste Bild und wenigstens einem durch das künstliche neuronale Netzwerk für ein zweites, ungestörtes Bild vorhergesagten zweiten Attributs bestimmt wird, wobei in einem Vergleich der erste Abstand mit einem Schwellwert verglichen wird, und wobei abhängig vom Ergebnis des Vergleichs bestimmt wird, ob das erste Bild die für künstliche neuronale Netzwerke feindselige Störung enthält oder nicht. Das zweite, ungestörte Bild ist ein Bild, von dem bekannt ist, dass es keine feindselige Störung enthält. Der Schwellwert ist so wählbar, dass die Störung erkennbar ist. Für ein erstes Bild mit feindseliger Störung wird der Abstand beispielsweise größer als der Schwellwert. Für ein erstes Bild ohne feindselige Störung ist der Abstand kleiner oder gleich dem Schwellwert. Beispielsweise werden erste Attribute Ẑn,y und zweite Attribute Zn,y n bestimmt. Der Index yn bezieht sich auf eine für das erste Bild zutreffende Klasse yn. Der Index y bezieht sich auf wenigstens eine für das erste Bild unzutreffenden Klasse y. Zn,yn und Ẑn,y bezeichnen Attributvektoren. Beispielsweise wird der erste Abstand dZ = d{Zn,y n ,Ẑn,y} = ||Zn,y n - Ẑn,y ||2 bestimmt.
  • In diesem Aspekt ist der Schwellwert vorzugsweise abhängig von einem zweiten Abstand zwischen einer Vielzahl Attribute für eine für das erste Bild zutreffende Klasse und einer Vielzahl Attribute für wenigstens eine für das erste Bild unzutreffende Klasse definiert. Beispielsweise werden erste Attribute Ẑn,y, zweite Attribut Zn,y n die Vielzahl Attribute ϕ(y) für eine für das erste Bild unzutreffende Klasse y und die Vielzahl Attribute ϕ(yn) für eine für das erste Bild zutreffende Klasse yn bestimmt. Damit wird beispielsweise der zweite Abstand dϕ = d{ϕ(yn), ϕ{(y)} = ||ϕ(yn) - ϕ(y)||2 bestimmt. Ein Effekt für die Klassifizierung wird im Beispiel erkannt, wenn der erste Abstand dZ kleiner als der zweite Abstand dϕ ist.
  • Alternativ dazu kann der Schwellwert abhängig von einem zweiten Abstand zwischen dem wenigstens einen ersten Attribut für das erste Bild und wenigstens einem durch das künstliche neuronale Netzwerk für ein zweites, ungestörtes Bild aus einer für das erste Bild unzutreffenden Klasse vorhergesagten Attributs definiert sein. Beispielsweise wird für die zweiten Attribute Zm,y der zweite Abstand dZm = d{Zm,y,Ẑn,y} = ||Zm,y - Ẑn,y||2 bestimmt. Zm,y bezeichnet im Beispiel einen entsprechenden Attributvektor. In diesem Aspekt wird ein Effekt für die Klassifizierung beispielsweise erkannt, wenn der erste Abstand dZ gleich groß oder bis auf eine Toleranz ungefähr gleich groß ist, wie der zweite Abstand dZm.
  • Vorzugsweise ist in einem weiteren Aspekt vorgesehen, dass das wenigstens eine Attribut für das Bild bestimmt wird, wobei ein erster Abstand zwischen dem wenigstens einen Attribut für das Bild und einer Vielzahl Attribute für eine für das Bild unzutreffende Klasse bestimmt wird, wobei in einem Vergleich der erste Abstand mit einem Schwellwert verglichen wird, und wobei abhängig vom Ergebnis des Vergleichs bestimmt wird, ob das Bild die für künstliche neuronale Netzwerke feindselige Störung enthält oder nicht. Beispielsweise wird die Vielzahl Attribute ϕ(y) für die für das Bild unzutreffende Klasse y und der erste Abstand dy = d{Ẑn,y, ϕ(y)} = ||Ẑn,y - ϕ(y) ||2 bestimmt. Der Schwellwert ist so wählbar, dass der erste Abstand dy den Schwellwert überschreitet, wenn ein Bild mit einer feindseligen Störung vorliegt.
  • In diesem Aspekt ist vorzugsweise vorgesehen, dass der Schwellwert abhängig von einem zweiten Abstand zwischen dem wenigstens ein Attribut für das erste Bild und einer Vielzahl Attribute für eine für das erste Bild zutreffende Klasse definiert ist. Beispielsweise wird die Vielzahl Attribute ϕ(yn) für eine für das erste Bild zutreffende Klasse yn und der zweite Abstand dy n = d{Ẑn,y, ϕ(yn)} = ||Ẑn,y - ϕ(yn)||2 bestimmt. Beispielsweise wird der erste Abstand dy mit dem zweiten Abstand dy n verglichen. Für ein Bild, das eine feindselige Störung enthält, sind die Attribute näher an den Attributen der unzutreffenden Klasse, und weiter entfernt von den Attributen der zutreffenden Klasse.
  • Vorzugsweise wird ein Fahrerassistenzsystem abhängig vom Ergebnis der Erkennung in einem ersten Betriebsmodus oder in einem vom ersten Betriebsmodus verschiedenen zweiten Betriebsmodus betrieben, wobei im zweiten Betriebsmodus ein menschlicher Eingriff angefordert oder berücksichtigt wird, oder wobei das Ergebnis einer nicht auf maschinenlernen basierender Objekterkennung verwendet oder gegenüber dem ersten Betriebsmodus stärker gewichtet wird. Dies stellt ein gegenüber derartigen Störungen robustes Fahrerassistenzsystem dar.
  • Eine entsprechende Vorrichtung zur Erkennung einer Störung umfasst eine Recheneinrichtung, insbesondere wenigstens einen Microcontroller oder einen Prozessor und einen Speicher, wobei die Recheneinrichtung die ausgebildet ist das beschriebene Verfahren auszuführen.
  • Ein Fahrerassistenzsystem für ein Fahrzeug umfasst die beschriebene Vorrichtung, eine Schnittstelle für eine Verbindung zu einer Kamera zum Erfassen des Bildes und eine Schnittstelle zur Ansteuerung eines Fahrzeugs abhängig vom Ergebnis der Erkennung oder zur Ausgabe eines Ergebnisses der Erkennung und/oder eine Mensch-Maschine-Schnittstelle zur Ausgabe eines Ergebnisses der Erkennung.
  • Zudem kann ein Computerprogramm mit computerlesbaren Instruktionen vorgesehen sein, bei deren Ausführung durch einen Computer das beschriebene Verfahren ausgeführt wird. Zudem kann ein Computerprogrammprodukt vorgesehen sein, das einen computerlesbaren Speicher umfasst, in dem das Computerprogramm gespeichert ist.
  • Weitere vorteilhafte Ausführungen ergeben sich aus der folgenden Beschreibung und der Zeichnung. In der Zeichnung zeigt:
    • 1 eine schematische Darstellung einer Vorrichtung zur Erkennung einer Störung,
    • 2 Schritte in einem Verfahren zur Erkennung einer Störung,
    • 3 eine schematische Darstellung von Teilen des Verfahrens.
  • 1 stellt schematisch eine Vorrichtung 102 dar. Die Vorrichtung 102 umfasst eine Recheneinrichtung 104, die Ausgebildet ist, eine für ein künstliches neuronales Netzwerk feindselige Störung in einem Bild zu erkennen. In einem Aspekt umfasst ein Fahrerassistenzsystem für ein Fahrzeug die Vorrichtung 102. Das Fahrerassistenzsystem umfasst eine Schnittstelle 106 für eine Verbindung zu einer Kamera 108 zum Erfassen des Bildes und eine Schnittstelle 110 zur Ansteuerung eines Fahrzeugs abhängig vom Ergebnis der Erkennung oder zur Ausgabe eines Ergebnisses der Erkennung und/oder eine Mensch-Maschine-Schnittstelle 112 zur Ausgabe eines Ergebnisses der Erkennung umfasst. Diese sind durch Datenleitungen 114 zur Kommunikation verbindbar. Das Fahrerassistenzsystem ist ausgebildet, abhängig von dem Ergebnis der Erkennung angesteuert zu werden, um in einem ersten Betriebsmodus oder in einem zweiten Betriebsmodus betrieben zu werden. Im ersten Betriebsmodus wird das Bild im Beispiel als ungestörtes Bild für eine Fahrerassistenzfunktion verwendet. Im zweiten Betriebsmodus wird das Bild als gestörtes oder möglicherweise gestörtes Bild behandelt.
  • Ein computerimplementiertes Verfahren zur Erkennung einer Störung in einem Bild wird im Folgenden mit Bezug auf die 2. Das Verfahren beginnt beispielsweise, wenn ein zu analysierendes Bild bereitsteht.
  • Nach dem Start wird in einem Schritt 202 abhängig vom zu analysierenden Bild eine Klasse für ein Objekt aus dem Bild bestimmt.
  • Anschließend wird in einem Schritt 204 durch eine Vorhersagefunktion, im Beispiel ein künstliches neuronales Netzwerk abhängig vom Bild ein Attribut für das Objekt bestimmt. Das Attribut wird im Beispiel durch ein erstes künstliches neuronales Netzwerk bestimmt.
  • Anschließend wird in einem Schritt 206 dem Attribut eine Region im Bild zugeordnet.
  • Anschließend wird in einem Schritt 208 abhängig vom Attribut und der Klasse bestimmt, ob das Bild eine für künstliche neuronale Netzwerke feindselige Störung enthält oder nicht. Wenn im Bild keine Störung erkannt wird, wird ein Schritt 210 ausgeführt. Anderenfalls wird ein Schritt 212 ausgeführt. Es kann vorgesehen sein, durch ein zweites künstliches neuronales Netzwerk zu bestimmen, ob die für künstliche neuronale Netzwerke feindselige Störung im Bild enthalten ist, oder nicht. Das Attribut für das Objekt kann auch mit dem Bild und/oder einer Region des Bildes für dieses Objekt für eine bildliche Darstellung ausgegeben werden. Dann kann ein menschlicher Betrachter feststellen, ob es sich um ein Bild mit Störung oder ohne Störung handelt.
  • Es kann vorgesehen sein, dass ein Maß für eine Lokalisierung der Region bezüglich des Objekts, dem das Attribut zugeordnet ist, bestimmt wird. In diesem Aspekt kann zudem oder alternativ abhängig vom Maß für die Lokalisierung bestimmt werden, ob das Bild die für künstliche neuronale Netzwerke feindselige Störung enthält oder nicht.
  • In einem Aspekt wird im Schritt 204 zusätzlich oder alternative wenigstens ein erstes Attribut Ẑn,y für ein erstes Bild bestimmt. In diesem Aspekt wird ein erster Abstand dZ zwischen dem wenigstens einen ersten Attribut Ẑn,y und wenigstens einem zweiten Attribut Zn,yn bestimmt. Das wenigstens eine zweite Attribut Zn,yn wird beispielsweise durch das künstliche neuronale Netzwerk für ein zweites, ungestörtes Bild vorhergesagt.
  • In diesem Aspekt wird im Schritt 208 zudem oder alternativ in einem Vergleich der erste Abstand dZ mit einem Schwellwert verglichen und abhängig vom Ergebnis des Vergleichs bestimmt, ob das erste Bild die für künstliche neuronale Netzwerke feindselige Störung enthält oder nicht.
  • Der Schwellwert ist beispielsweise abhängig von einem zweiten Abstand d zwischen einer Vielzahl Attribute ϕ(yn) für eine für das erste Bild zutreffende Klasse yn und einer Vielzahl Attribute ϕ(y) für wenigstens eine für das erste Bild unzutreffende Klasse y definiert.
  • Der Schwellwert ist alternativ dazu beispielsweise abhängig von einem zweiten Abstand dZm zwischen dem wenigstens einen ersten Attribut Ẑn,y und wenigstens einem zweiten Attribut Zm,y definiert. Das wenigstens eine zweiten Attribut Zm,y ist beispielsweise einer für das erste Bild unzutreffenden Klasse y zugeordnet. Das wenigstens eine zweiten Attribut Zm,y wird beispielsweise durch das künstliche neuronale Netzwerk für ein zweites, ungestörtes Bild vorhergesagt. Alternativ oder zusätzlich dazu wird im Schritt 206 wenigstens ein Attribut Ẑn,y für das Bild bestimmt. Ein erster Abstand dy wird in diesem Aspekt zwischen dem wenigstens einen Attribut Ẑn,y und einer Vielzahl Attribute ϕ(y) für eine für das erste Bild unzutreffende Klasse y bestimmt.
  • Im Schritt 208 wird in diesem Aspekt alternativ oder zusätzlich der erste Abstand dy in einem Vergleich mit einem Schwellwert verglichen und abhängig vom Ergebnis des Vergleichs bestimmt, ob das Bild die für künstliche neuronale Netzwerke feindselige Störung enthält oder nicht.
  • In diesem Aspekt ist der Schwellwert beispielsweise abhängig von einem zweiten Abstand dy n zwischen dem wenigstens einen Attribut Ẑn,y für das erste Bild und einer Vielzahl Attribute ϕ(yn) für eine für das erste Bild zutreffende Klasse yn definiert.
  • Im Schritt 210 wird im Beispiel ein Fahrerassistenzsystem abhängig vom Ergebnis der Erkennung in einem ersten Betriebsmodus 212 betrieben.
  • Im Schritt 212 wird im Beispiel das Fahrerassistenzsystem in einem vom ersten Betriebsmodus verschiedenen zweiten Betriebsmodus betrieben.
  • Im zweiten Betriebsmodus wird beispielsweise für eine Funktion der Fahrerassistenz ein menschlicher Eingriff angefordert oder für die Funktion berücksichtigt. Zudem oder alternativ dazu kann vorgesehen sein, das Ergebnis einer nicht auf maschinenlernen basierender Objekterkennung für die Funktion zu verwendet oder gegenüber dem Ergebnis für die Funktion gegenüber einer Gewichtung im ersten Betriebsmodus stärker zu gewichten.
  • Anschließend wird in einem Schritt 214 überprüft, ob ein weiteres Bild zur Analyse vorliegt. Fall dies der Fall ist, wird der Schritt 202 ausgeführt. Anderenfalls wird der Betriebsmodus bis zum Eintreffen eines weiteren Bildes beibehalten. Dazu wird der Schritt 214 erneut ausgeführt.
  • Die 3 stellt einige Aspekte des Verfahrens schematisch dar.
  • Die Vorrichtung 102 ist ausgebildet, sowohl ungestörte Bilder 302 als auch auf den ungestörten Bildern 302 basierende, durch eine Störung 304 veränderte gestörte Bilder 306 verarbeiten.
  • Die ungestörten Bilder 302 bilden einen Eingang X für ein künstliches neuronale Netzwerk. Das künstliche neuronale Netzwerk bestimmt in einem Aspekt für ungestörte Bilder 302 wenigstens ein zutreffendes Attribut Zn,y n . Beispielhaft sind in 3 dafür mögliche Werte 308a, ..., 308e dargestellt. Die ungestörten Bilder 302 führen am Ausgang Y zu einer mit einem Ergebnis 310 mit zumindest überwiegend zutreffenden Attributen Ẑn,y und werden als Bilder erkannt, die frei von Störung sind.
  • Das künstliche neuronale Netzwerk bestimmt in einem anderen Aspekt für gestörte Bilder 304 wenigstens ein unzutreffendes Attribut Ẑn,y. Beispielhaft sind in 3 dafür mögliche Werte 312a, ..., 312e dargestellt. Die gestörten Bilder 306 führen zu einer mit einem Ergebnis 314 mit wenigstens einem oder zumindest überwiegend unzutreffenden Attributen Ẑn,y und werden als Bilder erkannt, die eine Störung enthalten.
  • Für das Training werden sowohl ungestörte Bilder 302 als auch daraus erzeugt gestörte Bilder 306 sowie deren jeweilige Klassifizierung als gestört oder ungestört verwendet. Das Training kann vorsehen, aus den ungestörten Bildern 302 gestörte Bilder 306 wie zuvor beschrieben zu erzeugen. Die Parameter der Parametervektoren w werden im Training wie zuvor beschrieben gelernt. Das derart trainierte künstliche neuronale Netzwerk ist anschließend zur Erkennung von Bildern, die für ein künstliches neuronales Netzwerk feindselige Störungen enthalten verwendbar.
  • Außer dem Einsatz in einem Fahrerassistenzsystem kann der Einsatz auch in jedem anderen System vorgesehen sein, in dem es wünschenswert ist, zuverlässig zu erkennen, ob ein zu analysierendes Bild eine derartige Störung enthält oder nicht.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • Z. Akata, S. Reed, D. Walter, H. Lee, and B. Schiele: „Evaluation of output embeddings for fine-grained image classification“ In Computer Vision and Pattern Recognition (CVPR), 2015 IEEE Conference on, pages 2927-2936. IEEE, 2015 [0015]

Claims (14)

  1. Computerimplementiertes Verfahren zur Erkennung einer Störung in einem Bild, dadurch gekennzeichnet, dass abhängig von einem Bild eine Klasse für ein Objekt aus dem Bild bestimmt wird (202), wobei durch eine Vorhersagefunktion, insbesondere ein künstliches neuronales Netzwerk, abhängig vom Bild ein Attribut für das Objekt bestimmt wird (206), und wobei abhängig vom Attribut und der Klasse bestimmt wird (210), ob das Bild eine für Vorhersagefunktionen, insbesondere künstliche neuronale Netzwerke feindselige Störung enthält oder nicht.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Attribut durch ein erstes künstliches neuronales Netzwerk bestimmt wird, wobei durch ein zweites künstliches neuronales Netzwerk bestimmt wird, ob die für künstliche neuronale Netzwerke feindselige Störung im Bild enthalten ist, oder nicht (210).
  3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Attribut für das Objekt mit dem Bild und/oder einer Region des Bildes für dieses Objekt für eine bildliche Darstellung ausgegeben wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass dem Attribut eine Region im Bild zugeordnet wird (208), wobei ein Maß für eine Lokalisierung der Region bezüglich des Objekts bestimmt wird, und wobei abhängig vom Maß für die Lokalisierung bestimmt wird, ob das Bild die für künstliche neuronale Netzwerke feindselige Störung enthält oder nicht (210).
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass wenigstens ein erstes Attribut (Ẑn,y) für ein erstes Bild bestimmt wird (206), wobei ein erster Abstand (dZ) zwischen dem wenigstens einen ersten Attribut (Ẑn,y) und wenigstens einem durch das künstliche neuronale Netzwerk für ein zweites, ungestörtes Bild vorhergesagten Attributs (Zn,y n ) bestimmt wird, wobei in einem Vergleich der erste Abstand (dZ) mit einem Schwellwert verglichen wird, und wobei abhängig vom Ergebnis des Vergleichs bestimmt wird, ob das erste Bild die für künstliche neuronale Netzwerke feindselige Störung enthält oder nicht (210).
  6. Verfahren nach Anspruch 5, wobei der Schwellwert abhängig von einem zweiten Abstand (d) zwischen einer Vielzahl Attribute (ϕ(yn)) für eine für das erste Bild zutreffende Klasse (yn) und einer Vielzahl Attribute (ϕ(y)) für wenigstens eine für das erste Bild unzutreffende Klasse (y) definiert ist.
  7. Verfahren nach Anspruch 5, wobei der Schwellwert abhängig von einem zweiten Abstand (dZm) zwischen dem wenigstens einen ersten Attribut (Ẑn,y) und wenigstens einem durch das künstliche neuronale Netzwerk für ein zweites, ungestörtes Bild aus einer für das erste Bild unzutreffenden Klasse vorhergesagten zweiten Attributs (Zm,y) definiert ist.
  8. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass wenigstens ein Attribut (Ẑn,y) für das Bild bestimmt wird (206), wobei ein erster Abstand (dy) zwischen dem wenigstens einen Attribut (Ẑn,y) und einer Vielzahl Attribute (ϕ(y)) für eine für das erste Bild unzutreffende Klasse (y) bestimmt wird, wobei in einem Vergleich der erste Abstand (dy) mit einem Schwellwert verglichen wird, und wobei abhängig vom Ergebnis des Vergleichs bestimmt wird, ob das Bild die für künstliche neuronale Netzwerke feindselige Störung enthält oder nicht (210).
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass der Schwellwert abhängig von einem zweiten Abstand (dy n ) zwischen dem wenigstens einen Attribut (Ẑn,y) für das erste Bild und einer Vielzahl Attribute (ϕ(yn)) für eine für das erste Bild zutreffende Klasse (yn) definiert ist.
  10. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein Fahrerassistenzsystem abhängig vom Ergebnis der Erkennung in einem ersten Betriebsmodus (212) oder in einem vom ersten Betriebsmodus verschiedenen zweiten Betriebsmodus (214) betrieben wird, wobei im zweiten Betriebsmodus ein menschlicher Eingriff angefordert oder berücksichtigt wird, oder wobei das Ergebnis einer nicht auf maschinenlernen basierender Objekterkennung verwendet oder gegenüber dem ersten Betriebsmodus stärker gewichtet wird (214).
  11. Vorrichtung (102) zur Erkennung einer Störung, dadurch gekennzeichnet, dass die Vorrichtung (102) eine Recheneinrichtung (104) umfasst, die ausgebildet ist ein Verfahren nach einem der Ansprüche 1 bis 10 auszuführen.
  12. Fahrerassistenzsystem (100) für ein Fahrzeug, dadurch gekennzeichnet, dass das Fahrerassistenzsystem (100) die Vorrichtung (102) nach Anspruch 11, eine Schnittstelle (106) für eine Verbindung zu einer Kamera (108) zum Erfassen des Bildes und eine Schnittstelle (110) zur Ansteuerung eines Fahrzeugs abhängig vom Ergebnis der Erkennung oder zur Ausgabe eines Ergebnisses der Erkennung und/oder eine Mensch-Maschine-Schnittstelle (112) zur Ausgabe eines Ergebnisses der Erkennung umfasst.
  13. Computerprogramm, dadurch gekennzeichnet, dass das Computerprogram computerlesbare Instruktionen enthält bei deren Ausführung durch einen Computer das Verfahren nach einem der Ansprüche 1 bis 11 ausgeführt wird.
  14. Computerprogrammprodukt, dadurch gekennzeichnet, dass das Computerprogrammprodukt einen computerlesbaren Speicher umfasst, in dem das Computerprogramm nach Anspruch 13 gespeichert ist.
DE102019201990.0A 2019-02-14 2019-02-14 Verfahren und Vorrichtung zur Erkennung einer Störung in einem Bild Pending DE102019201990A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102019201990.0A DE102019201990A1 (de) 2019-02-14 2019-02-14 Verfahren und Vorrichtung zur Erkennung einer Störung in einem Bild
CN202010090355.XA CN111563522A (zh) 2019-02-14 2020-02-13 用于识别图像中的干扰的方法和设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019201990.0A DE102019201990A1 (de) 2019-02-14 2019-02-14 Verfahren und Vorrichtung zur Erkennung einer Störung in einem Bild

Publications (1)

Publication Number Publication Date
DE102019201990A1 true DE102019201990A1 (de) 2020-08-20

Family

ID=71843865

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019201990.0A Pending DE102019201990A1 (de) 2019-02-14 2019-02-14 Verfahren und Vorrichtung zur Erkennung einer Störung in einem Bild

Country Status (2)

Country Link
CN (1) CN111563522A (de)
DE (1) DE102019201990A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021101363A1 (de) 2021-01-22 2022-07-28 Bayerische Motoren Werke Aktiengesellschaft Bildbasiertes Verfahren zum Vereinfachen einer fahrzeugexternen Kontrollübernahme über ein Kraftfahrzeug, Assistenzeinrichtung und Kraftfahrzeug

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HENDRICKS, Lisa Anne [u.a.]: Grounding visual explanations. 25-07-2018. 16 S. URL: https://arxiv.org/pdf/1807.09685v1 [abgerufen am 2019-06-06]. - arXiv:1807.09685v1 *
TAO, Guanhong, [et al.] Attacks meet interpretability: Attribute-steered detection of adversarial samples. In: Advances in Neural Information Processing Systems. 2018. S. 7717-7728. *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021101363A1 (de) 2021-01-22 2022-07-28 Bayerische Motoren Werke Aktiengesellschaft Bildbasiertes Verfahren zum Vereinfachen einer fahrzeugexternen Kontrollübernahme über ein Kraftfahrzeug, Assistenzeinrichtung und Kraftfahrzeug

Also Published As

Publication number Publication date
CN111563522A (zh) 2020-08-21

Similar Documents

Publication Publication Date Title
DE102017220307B4 (de) Vorrichtung und Verfahren zum Erkennen von Verkehrszeichen
EP2483836B1 (de) Verfahren zur verkehrszeichenerkennung
DE112017002799T5 (de) Verfahren und system zum generieren multimodaler digitaler bilder
DE102019209565A1 (de) Verfahren und Vorrichtung zum Überprüfen der Robustheit eines künstlichen neuronalen Netzes
DE102018111905A1 (de) Domänenspezifische Sprache zur Erzeugung rekurrenter neuronaler Netzarchitekturen
Rong et al. Urban road traffic condition pattern recognition based on support vector machine
DE112012003110T5 (de) Verfahren, Programmprodukt und System zur Datenidentifizierung
DE112018005089T5 (de) Inferenzvorrichtung, Inferenzverfahren, Programm und nicht transitorisches greifbares computerlesbares Medium
DE112017000669T5 (de) Semantische Segmentierung auf der Grundlage einer globalen Optimierung
DE112017007492T5 (de) System und Verfahren zur Erfassung von Objekten in einem digitalen Bild und System und Verfahren zur Neubewertung von Objekterfassungen
DE112020005572T5 (de) Tiefe Gesichtserkennung basierend auf Clustern über unbezeichnete Gesichtsdaten
DE112017008149B4 (de) Vorrichtung für eine von einem Fahrzeug ausgehende Kommunikation, Verfahren zum Kommunizieren von einem Fahrzeug nach außen Informationsverarbeitungsvorrichtung und computerlesbares Medium
DE112017006891T5 (de) Bewegungslerneinrichtung, fertigkeitendiskriminationseinrichtung und fertigkeitendiskriminationssystem
DE102021203020A1 (de) Generative-adversarial-network-modelle zur detektion kleiner strassenobjekte
DE102022202017A1 (de) Konzeptbasiertes kontradiktorisches Erzeugungsverfahren mit steuerbarer und diverser Semantik
DE202023102803U1 (de) System zur Erkennung von Emotionen und zur Stimmungsanalyse durch maschinelles Lernen
CN106529470A (zh) 一种基于多级深度卷积神经网络的手势识别方法
DE102018122019A1 (de) Computer implementiertes Verfahren zur Bewertung von Objektbilddaten eines Objektes
CN116704208B (zh) 基于特征关系的局部可解释方法
DE4407998C2 (de) Verfahren und Vorrichtung zur Erkennung eines Musters auf einem Beleg
DE102019201990A1 (de) Verfahren und Vorrichtung zur Erkennung einer Störung in einem Bild
DE112021006507T5 (de) Räumlich-zeitliches tiefes lernen für die verhaltensbiometrie
KR102035184B1 (ko) 비정상 움직임 탐지 장치 및 방법
DE102020211849A1 (de) Trainieren eines maschinellen lernmodells unter verwendung eines batch-basierten aktiven lernansatzes
Gavrilescu 3-Layer architecture for determining the personality type from handwriting analysis by combining neural networks and Support Vector Machines,”

Legal Events

Date Code Title Description
R163 Identified publications notified