DE102018212961A1 - Verfahren und Vorrichtung zur Analyse eines Bildes - Google Patents

Verfahren und Vorrichtung zur Analyse eines Bildes Download PDF

Info

Publication number
DE102018212961A1
DE102018212961A1 DE102018212961.4A DE102018212961A DE102018212961A1 DE 102018212961 A1 DE102018212961 A1 DE 102018212961A1 DE 102018212961 A DE102018212961 A DE 102018212961A DE 102018212961 A1 DE102018212961 A1 DE 102018212961A1
Authority
DE
Germany
Prior art keywords
image
partial images
analysis
computer
analysis result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018212961.4A
Other languages
English (en)
Inventor
Darno Alexander Ketterer
Tamara Piek
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102018212961.4A priority Critical patent/DE102018212961A1/de
Priority to EP19752955.5A priority patent/EP3830745A1/de
Priority to PCT/EP2019/070325 priority patent/WO2020025523A1/de
Publication of DE102018212961A1 publication Critical patent/DE102018212961A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/259Fusion by voting

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

Verfahren und Vorrichtung zur Analyse eines Bildes wobei das Verfahren folgende Schritte aufweist- Bereitstellen (301) eines Bildes auf einem Nutzerrechner (300);- Aufteilen (302) des bereitgestellten Bildes in mindestens zwei Teilbilder auf dem Nutzerrechner (300);- Übertragen (303, 305) der Teilbilder von dem Nutzerrechner (300) an mindestens einen Analyserechner (304, 306), um mittels des Analyserechners (304, 306) ein Analyseergebnis der zu analysierenden Teilbilder (T) zu ermitteln; und- Empfangen des Analyseergebnisses des Analyserechners (304, 306) mittels des Nutzerrechners (300).

Description

  • Stand der Technik
  • Die Erfindungsmeldung betrifft ein Verfahren und eine Vorrichtung zur Analyse eines Bildes.
  • WO 2015175736 A1 offenbart ein Verfahren zur Analyse eines Bildes. Hierbei werden in dem Bild Merkmale erkannt und den Merkmalen automatisch Schlagworte zugeordnet.
  • DE 102012109096 A1 offenbart ein Verfahren zur sequenziellen Bereitstellung von personalisierte Informationen repräsentierenden Daten, insbesondere in Form von Videos.
  • Demgegenüber ist es wünschenswert, die Analyse eines Bildes zu verbessern.
  • Offenbarung der Erfindung
  • Dies wird durch das Verfahren und die Vorrichtung nach den unabhängigen Ansprüchen erreicht.
  • Das Verfahren zur Analyse eines Bildes sieht folgende Schritte vor: Bereitstellen eines Bildes auf einem Nutzerrechner; Aufteilen des bereitgestellten Bildes in mindestens zwei Teilbilder auf dem Nutzerrechner; Übertragen der Teilbilder von dem Nutzerrechner an mindestens einen Analyserechner, um mittels des Analyserechners ein Analyseergebnis der zu analysierenden Teilbilder zu ermitteln; und Empfangen des Analyseergebnisses des Analyserechners mittels des Nutzerrechners. Das Bild selbst ist auf dem Analyserechner damit nicht unmittelbar analysierbar.
  • Unter einem Rechner kann ein lokaler oder ein entfernter Rechner verstanden werden. Der lokale Rechner kann ein Computer, ein Notebook, ein Smartphone oder ein alternatives Wearable mit Bildverarbeitungsmittel sein. Der entfernte Rechner kann bspw. eine Cloud oder ein Server sein. Bevorzugt ist der Nutzerrechner ein lokaler Rechner und der Analyserechner ein entfernter Rechner.
  • Unter einem Teilbild kann ein Teil eines Bildes, insbesondere ein zusammenhängender Teil eines Bildes verstanden werden. Denkbar ist, dass das Bild durch gleichmäßige oder ungleichmäßige Teilung in Teilbilder geteilt bzw. zerschnitten wird. Das Aufteilen des Bildes erfolgt bevorzugt in mindestens zwei Teilbilder, die keinen Überlappungsbereich aufweisen. Denkbar ist, dass das Bild horizontal oder vertikal oder diagonal in zwei Teilbilder halbiert wird. Alternativ, kann das Bild in 4, 9, 16, 25, 36, ... gleiche große Teilbilder geteilt bzw. gerastert werden. Denkbar ist auch, dass das Bild in ein oder mehrere äußere Randbereiche des Bildes und in ein oder mehrere innenliegende Innenbereiche des Bildes geteilt wird, um die Teilbilder zu erzeugen.
  • Vorteilhafterweise ist ein Schritt des Analysierens der Teilbilder auf dem Analyserechner vorgesehen, um das Analyseergebnis der zu analysierenden Teilbilder zu ermitteln. Dadurch können auch numerisch aufwändige Bildanalyseverfahren zur Analyse der Teilbilder verwendet werden, die auf dem Nutzerrechner nicht effizient durchgeführt werden können.
  • Vorteilhafterweise ist ein Schritt des Übertragens des Analyseergebnisses von dem Analyserechner an den Nutzerrechner vorgesehen. Das Übertragen kann mittels einer drahtlosen oder einer drahtgebundenen Kommunikationsverbindung erfolgen. Beispielsweise erfolgt das Übertragen mittels Mobilfunk. Dadurch kann das Analyseergebnis für einen Nutzer des Nutzerrechners bereitgestellt werden.
  • Vorteilhafterweise ist vorgesehen, dass die Teilbilder auf dem Analyserechner mittels eines Verfahrens zur Bilderkennung analysiert werden, um das Analyseergebnis zu ermitteln. Unter einem Verfahren zur Bilderkennung kann eine aus dem Stand der Technik bekannte Bilderkennungssoftware verstanden werden, die eingerichtet ist, ein Objekt in einem Bild zu erkennen und dem erkannten Objekt ein Schlüsselwort bzw. ein Schlagwort bzw. ein Stichwort zuzuordnen. Dies ermöglicht das Erkennen von Bildobjekten oder Teilen von Bildobjekten, die im Teilbild dargestellt sind.
  • Vorteilhafterweise ist vorgesehen, dass der Schritt des Analysierens der Teilbilder einen Schritt des Erkennens von je mindestens einem Bildobjekt in dem jeweiligen Teilbild umfasst, um basierend auf den erkannten Bildobjekten das Analyseergebnis der Teilbilder zu ermitteln. Dies ermöglicht es, erkannte Bildobjekte aus Teilbildern im Analyseergebnis oder auf dem Nutzerrechner zu verknüpfen.
  • Vorteilhafterweise ist vorgesehen, dass der Schritt des Analysierens der Teilbilder einen Schritt des Erzeugens mindestens je eines Schlüsselwortes für das in dem jeweiligen Teilbild erkannte Bildobjekt umfasst, um basierend auf den erzeugten Schlüsselworten das Analyseergebnis der Teilbilder zu ermitteln. Dadurch werden Schlüsselworte für eine Interpretation des Bildes bereitgestellt.
  • Vorteilhafterweise umfasst das Verfahren einen Schritt des Ermittelns eines Analysegesamtergebnisses des Bildes, insbesondere einer semantischen Beschreibung des Bildes, auf dem Nutzerrechner basierend auf dem empfangenen Analyseergebnis der Teilbilder, insbesondere basierend auf den erzeugten Schlüsselworten der erkannten Bildobjekte. Die semantische Beschreibung des Bildes kann zum Beispiel eine sprachliche Beschreibung des Bildes sein. Dies verbessert den Datenschutz bei der Verwendung kommerzieller Bildverarbeitungsdienstleister.
  • Vorteilhafterweise umfasst das Verfahren einen Schritt des Ermittelns je eines Gewichts der Teilbilder, um unter Verwendung der ermittelten Gewichte der Teilbilder das Analysegesamtergebnis des Bildes, insbesondere die semantische Beschreibung des Bildes, zu ermitteln. Unter einem Gewicht eines Teilbildes eines Bildes kann ein quantitatives Maß für eine Bedeutung bzw. Wichtigkeit eines Teilbildes relativ zu dem Bild bzw. weiteren Teilbildern des Bildes verstanden werden. Damit ist es möglich, nicht alle Bildobjekte für die Beschreibung des Bildes zu verwenden.
  • Vorteilhafterweise ist vorgesehen, dass beim Ermitteln des Analysegesamtergebnisses des Bildes, insbesondere der semantischen Beschreibung des Bildes, das empfangene Analyseergebnis nur für die Teilbilder berücksichtigt wird, deren ermitteltes Gewicht größer oder gleich einem vorgegebenen und/oder vorgebbaren Schwellenwert ist. Dies ermöglicht es Schlüsselworte für eine Interpretation des Bildes in wichtige und unwichtige zu unterteilen.
  • Vorteilhafterweise ist vorgesehen, dass die Gewichte der Teilbilder basierend auf einer Farbanalyse der einzelnen Teilbilder und/oder einer Farbanalyse des Bildes und/oder auf einer Position der Teilbilder in dem Bild ermittelt werden. Alternativ oder zusätzlich können die Gewichte der Teilbilder auch auf Flächeninhalten bzw. Größen der Teilbilder basieren. Die Farbanalyse verbessert das Analyseergebnis, da Zusammenhänge basierend auf derselben oder ähnlichen Farben erkennbar sind.
  • Vorteilhafterweise ist vorgesehen, dass die Teilbilder des Bildes in vorgegebenen und/oder vorgebbaren Zeitabständen an denselben Analyserechner oder an verschiedene Analyserechner übertragen werden. Dies verbessert den Datenschutz, da Teilbilder nicht oder nicht zeitgleich beim gleichen Analyserechner analysiert werden.
  • Eine Vorrichtung, die ausgebildet ist dieses Verfahren auszuführen, ein Computerprogramm, umfassend Befehle, die bewirken, dass die Vorrichtung die Verfahrensschritte ausführt und ein Computerprogrammprodukt, das das Computerprogramm umfasst, sind ebenfalls Gegenstand der Erfindung.
  • Weitere vorteilhafte Ausgestaltungen ergeben sich aus der folgenden Beschreibung und der Zeichnung. In der Zeichnung zeigt
    • 1 schematisch ein erstes Bild,
    • 2 schematisch ein zweites Bild,
    • 3 schematisch Schritte in einem Verfahren zur Analyse eines Bildes.
  • In 1 ist schematisch ein zu analysierendes erstes Bild 100 dargestellt.
  • Das Bild 100 wird beispielsweise auf einem Nutzerrechner dargestellt, der ausgebildet ist das Bild 100 in Teilbilder aufzuteilen.
  • In 1 ist ein Gitternetz mit Spalten A bis E und Zeilen 1 bis 3 dargestellt, in dem die resultierenden rechteckförmigen Teilbilder T als Gitterfelder A1, A2, A3, B1, B2, B3, C1, C2, C3, D1, D2, D3, E1, E2, E3 identifiziert sind.
  • In 1 ist ein Fahrzeug 101 in der Mitte des zu analysierenden ersten Bildes 100 dargestellt.
  • In 2 ist schematisch ein zu analysierendes zweites Bild 200 dargestellt. Im zweiten Bild ist ein Tier 201 in einem ersten Bereich 202 dargestellt. Das Bild 200 ist im Beispiel nach dem goldenen Schnitt aufgeteilt, wobei der erste Bereich 202 ein Drittel der gesamten Breite des zweiten Bildes 200 einnimmt und ein zweiter Bereich 203 zwei Drittel der gesamten Breite des zweiten Bildes 200 einnimmt.
  • Außer der Aufteilung nach geometrischen Verhältnissen wie Breite oder Länge einer Bildseite, kann eine Aufteilung durch die Bildumstände erfolgen. Beispielsweise können sich voneinander absetzende Farben verschiedener Bildobjekte oder Bildobjekte, die nicht zu anderen Bildobjekte im Bild passen oder sich massiv davon unterscheiden, für die Aufteilung eines Bildes in Teilbilder verwendet werden. Dabei kann ein unterschiedlicher Fokus für die Aufteilung auch auf Grund von Alter, Kultur, Geschlecht und persönlichen Erfahrungen/Wissen gesetzt werden.
  • Der inhaltliche Fokus eines Bildes kann in unterschiedlichen Bereichen liegen und somit zu unterschiedlichen Aussagen über eine gesamte Szene oder unterschiedlichen Kontext für eine Interpretation einer gesamten Szene führen.
  • Allgemein kann ein Bild unterschiedlich Interpretiert werden, wenn der inhaltliche Fokus oder eine Hauptszene eines Bildes eindeutig verstanden und auch der Hintergrund oder die Umgebung richtig interpretiert wird, wie die folgenden Beispiele zeigen:
    • Bsp. 1: Bild mit weinendem Kind.
  • Das Kind kann vor Schmerz weinen. Dies wäre an einem Fahrrad erkennbar, das im selben Bild auf einer Straße im Hintergrund liegt. Im Gesamtkontext ist dann verständlich, dass das Kind von seinem Fahrrad gestürzt sein muss.
  • Alternativ kann das Kind vor Freude weinen. Dies wäre an einer Geburtstagstorte im Vordergrund des Bildes erkennbar. Im Gesamtkontext ist dann verständlich, dass das Kind von der Geburtstagstorte zu Tränen gerührt ist.
    • Bsp. 2: Bild eines Wohnzimmers.
  • Dieses Wohnzimmer enthält beispielsweise einen Fernseher, ein Sofa, einen Teppich, eine Katze, einen Kamin und ein Rotweinglas. Je nach Persönlichkeit oder Umständen sind für verschiedene Menschen verschiedene Bildobjekte in diesem Zimmer hervorzuheben und als die Hauptaussage im Bild zu beschreiben.
  • Personen unterschiedlichen Geschlechtes und Alters sehen auf diesem Bild als erstes unterschiedliche Bildobjekte. Beispielsweise würde ein Kind als erstes bzw. hauptsächlich die Katze, eine Frau würde das Rotweinglas oder ein Mann den Fernseher sehen.
  • Das bedeutet, dass der inhaltliche Fokus desselben Bildes je nach Betrachter und Situation variabel sein kann.
  • Durch die separate Analyse von Teilbildern des Bildes statt einer zusammenhängenden Analyse aller Bildobjekten im (Gesamt-) Bild sind Zusammenhänge zwischen den einzelnen Bildobjekten nicht erkennbar. Dadurch ist eine zusammenhängende, einheitliche Aussage über die eigentliche Intention des Bildes nicht automatisiert möglich. Mit anderen Worten: Wird ein Objekt isoliert vom Rest des Bildes betrachtet und analysiert, besteht die Gefahr, dass die Intention des Gesamtbildes nicht erfasst wird und somit verloren geht.
  • Daher wird eine Situationsanalyse in der automatischen Bilderkennung vorgeschlagen, durch die eine zuverlässigere Gesamtbildaussage erfolgt.
  • Im Folgenden wird ein Lösungsansatz beschrieben, der in der Lage ist, separat analysierten Bildobjekte eines Bildes so weitgehend zu analysieren, dass ein logischer Zusammenhang erkannt wird. Konkreter wird das fokussierte Objekt oder werden die fokussierten Bildobjekte des Bildes auf der Grundlage eines hierfür entwickelten Algorithmus herausgestellt.
  • In der folgenden Beschreibung werden Schlüsselworte für die Beschreibung von Teilbildern des Bildes und die Beschreibung des Bildes verwendet.
  • Beispielhaft liefert eine herkömmliche Bilderkennungssoftware als Ergebnis einer Erkennung des Bildes aus 1 die folgende Beschreibung:
    • {„tags“: [„palm“, „outdoor“, „truck“, „road“, „car“, „front“, „street“, „green“, „light“, „parked“, „decorated“, „tree“, „driving“, „beach“, „board“, „yellow“, „white“, „blue“, „standing“, „traffic“, „surfing“, „red“, „riding“, „ocean“], „captions“:
      • [{ „text“: „a truck is parked in front of a palm tree“, „confidence“: 0.936380148 }]}
  • Mit Tags werden die Schlüsselwörter bezeichnet. Eine beispielhafte Detaillierung der Beschreibung beinhaltet zudem einzelne Vertrauenswerte bzw. Konfidenzwerte für bestimmte Tags:
    • [{ „name“: „tree“, „confidence“: 0.999907732 }, { „name“:
      • „palm“, „confidence“: 0.9944944}, {„name“: „sky“, „confidence“: 0.988993347}, {„name“: „outdoor“, „confidence“: 0.9762288}, {„name“: „truck“, „confidence“: 0.9679184 }, {„name“: „road“, „confidence“: 0.966806054}]
  • Diese Gesamtbildanalyse wird, wie im Folgenden anhand der 1 und der 3 beschrieben, weiter verbessert. Dasselbe Vorgehen kann auch auf das Bild aus 2 angewendet werden.
  • Eine Vorrichtung, insbesondere der Nutzerrechner 300, ist ausgebildet, ein bereitgestelltes Bild, im Beispiel das Bild aus 1, in mindestens zwei Teilbilder T aufzuteilen.
  • Der Nutzerrechner 300 ist ausgebildet, die Teilbilder T an mindestens einen Analyserechner 304, 306 insbesondere durch Befehle nach dem Hypertext Transfer Protokoll for secure communication (HTTPS) zu übertragen. Der Nutzerrechner 300 ist konfiguriert den Analyserechner 304, 306 im Internet zu lokalisieren und anzusteuern.
  • Der Nutzerrechner 300 ist ausgebildet, ein auf dem Analyserechner 304, 306 mittels Analysieren der Teilbilder T ermitteltes Analyseergebnis der Teilbilder T zu empfangen. Dazu werden beispielsweise HTTPS Antworten empfangen.
  • Der Nutzerrechner 300 ist ausgebildet ein Analysegesamtergebnis des Bildes, insbesondere eine semantische Beschreibung des Bildes, basierend auf dem empfangenen Analyseergebnis der Teilbilder T zu ermitteln.
  • Der Nutzerrechner 300 ist dazu beispielsweise ausgebildet, je ein Gewicht der Teilbilder T zu ermitteln, um unter Verwendung der ermittelten Gewichte der Teilbilder T das Analysegesamtergebnis des Bildes, insbesondere die semantische Beschreibung des Bildes, zu ermitteln. Vorzugsweise werden die Gewichte der Teilbilder T basierend auf einer Farbanalyse der einzelnen Teilbilder T und/oder einer Farbanalyse des Bildes und/oder auf einer Position der Teilbilder T in dem Bild ermittelt.
  • Ein Computerprogramm, umfassend Befehle, die bewirken, dass die Vorrichtung die im Folgenden beschriebenen Verfahrensschritte ausführt, ist ebenfalls vorgesehen. Vorzugsweise ist ein Computerprogrammprodukt, das das Computerprogramm umfasst, vorgesehen.
  • In einem Schritt 301 erfolgt ein Bereitstellen eines Bildes, im Beispiel des Bildes 100 aus 1, auf dem Nutzerrechner 300. Das Bereitstellen eines Bildes 100 auf dem Nutzerrechner 300 umfasst auch die Möglichkeit, dass das Bild vom Nutzerrechner 300 selbst erzeugt wird, z.B. durch Aufnahme eines Bildes.
  • In einem anschließenden Schritt 302 erfolgt auf dem Nutzerrechner 300 eine Bildaufteilung in mindestens zwei Teilbilder T. Im Beispiel werden dazu die Gitterfelder verwendet.
  • Die Anzahl und Größe der Gitterfelder ist dabei im Beispiel abhängig von der Pixelanzahl und dem Format (Hoch- oder Querformat) des Bildes 100. Je feiner ein Raster des Gitternetzes, desto mehr Details können später ermittelt werden. Vorteilhafterweise ist die Einteilung symmetrisch, ungerade und alle Gitterfelder sind gleich groß.
  • In einem anschließenden Schritt 303 wird ein erstes Teilbild A1 an einen ersten Analyserechner 304 gesendet.
  • In einem anschließenden vierten Schritt 305 wird ein zweites Teilbild A2 an einen zweiten Analyserechner 306 gesendet. Das zweite Teilbild A2 kann auch alternativ oder zusätzlich an den ersten Analyserechner 304 gesendet werden.
  • Allgemein erfolgt ein Übertragen der Teilbilder T von dem Nutzerrechner 300 an mindestens einen Analyserechner.
  • In einem anschließenden Schritt erfolgt ein Analysieren der Teilbilder T auf dem Analyserechner, um ein Analyseergebnis der zu analyiserenden Teilbilder T zu ermitteln.
  • Der erste Analyserechner 304 analysiert im Beispiel das erste Teilbild A1 in einem Schritt 307 durch eine erste Bilderkennungssoftware.
  • Der zweite Analyserechner 306 analysiert das zweite Teilbild A2 in dem Schritt 308 durch eine zweite Bilderkennungssoftware. Die zweite Bilderkennungssoftware kann auch dieselbe sein, wie die erste Bilderkennungssoftware.
  • In weiteren Schritten, die in 3 nicht dargestellt sind, werden die übrigen Teilbilder ebenfalls an einen der beiden Analyserechner 304, 306 oder an andere entfernte Analyserechner zur Analyse gesendet. Teilbilder T, die an denselben Analyserechner gesendet werden, können alle oder teilweise in vorgebbaren Zeitabständen an denselben Analyserechner versendet werden. Teilbilder T desselben Bildes 100 können teilweise oder alle auch an verschiedene entfernte Analyserechner gesendet werden. Dadurch erhält derselbe Analyserechner nicht oder zumindest nicht zeitgleich das vollständige Bild.
  • Der erste Analyserechner 304 sendet ein erstes Ergebnis einer Analyse des ersten Teilbilds A1 in einem Schritt 309 an den Nutzerrechner 300.
  • Der zweite Analyserechner 306 sendet ein zweites Ergebnis einer Analyse des zweiten Teilbilds A2 in einem Schritt 310 an den Nutzerrechner 300.
  • Allgemein erfolgt ein Übertragen des Analyseergebnisses von dem Analyserechner an den Nutzerrechner 300.
  • In weiteren Schritten, die in 3 nicht dargestellt sind, werden die übrigen Ergebnisse der übrigen Analysen der übrigen Teilbilder an den Nutzerrechner 300 gesendet.
  • Die Teilbilder T werden beispielsweise jeweils einzeln an möglichst viele kommerzielle Recognition-Anbieter bzw. Analyserechner gesendet. Diese Analyserechner geben anschließend als Rückmeldung ihrer durchgeführten Teilbildanalyse an den Nutzerrechner zurück.
  • Vorzugweise werden die Teilbilder T des Bildes in vorgegebenen und/oder vorgebbaren Zeitabständen an denselben Analyserechner oder an verschiedene Analyserechner übertragen.
  • Allgemein werden die Teilbilder mittels eines Verfahrens zur Bilderkennung analysiert, um das jeweilige Analyseergebnis zu ermitteln. Das Format der Ergebnisse entspricht beispielsweise dem oben für die Gesamtbildanalyse angegebenen Format. Es können auch andere Formate verwendet werden.
  • Der Schritt des Analysierens der Teilbilder T umfasst vorzugsweise einen Schritt des Erkennens von je mindestens einem Bildobjekt in dem jeweiligen Teilbild T, um basierend auf den erkannten Bildobjekten das Analyseergebnis der Teilbilder T zu erzeugen.
  • Der Schritt des Analysierens der Teilbilder T umfasst vorzugsweise einen Schritt des Erzeugens mindestens je eines Schlüsselwortes des in dem jeweiligen Teilbild T erkannten Bildobjektes, um basierend auf den erzeugen Schlüsselworten das Analyseergebnis der Teilbilder T zu erzeugen.
  • Der Nutzerrechner 300 empfängt beispielsweise für jedes der versendeten Teilbilder T eine Teilbildanalyse, in der Schlüsselwörter enthalten sind, die den Bildobjekten zugeordnet sind, die durch die Teilbildanalyse im Teilbild erfasst wurden. Die Daten der Teilbildanalyse können auch umfangreicher sein und beispielsweise eine Position im Teilbild oder eine relative Position von Bildobjekten zueinander darstellen.
  • Der Nutzerrechner 300 ist beispielsweise ausgebildet, die empfangenen Teilbildanalysen zu speichern bis alle Teilbildanalysen vorliegen.
  • Der Nutzerrechner 300 ist ausgebildet, in einem Schritt 311, vorzugsweise nach dem Erhalt aller Teilbildanalysen, Gewichte der entsprechenden Teilbilder zu ermitteln. Weiter kann abhängig von einem Ergebnis für die Gewichte eine Beschreibung des Bildes erzeugt werden. Der Nutzerrechner 300 kann ausgebildet sein, eine eigene Analyse zu den Teilbildern T zu erstellen und seine Ergebnisse mit den empfangenen Teilbildanalysen abzugleichen.
  • Hierbei ist vorzugsweise ein Schritt des Ermittelns eines Analysegesamtergebnisses des Bildes, insbesondere einer semantischen Beschreibung des Bildes, auf dem Nutzerrechner 300 basierend auf dem übertragenen Analyseergebnis der Teilbilder T, insbesondere basierend auf den erzeugten Schlüsselworten der erkannten Bildobjekte, vorgesehen.
  • Vorzugsweise ist ein Schritt des Ermittelns je eines Gewichts der Teilbilder T vorgesehen, um unter Verwendung der ermittelten Gewichte der Teilbilder T das Analysegesamtergebnis des Bildes, insbesondere die semantische Beschreibung des Bildes, zu ermitteln. Beim Ermitteln des Analysegesamtergebnisses des Bildes, insbesondere der semantischen Beschreibung des Bildes, wird vorzugsweise das übertragene Analyseergebnis nur für die Teilbilder T berücksichtigt, deren ermitteltes Gewicht größer oder gleich einem vorgegebenen und/oder vorgebbaren Schwellenwert ist.
  • Vorzugsweise werden die Gewichte der Teilbilder T basierend auf einer Farbanalyse der einzelnen Teilbilder T und/oder einer Farbanalyse des Bildes und/oder auf einer Position der Teilbilder T in dem Bild ermittelt.
  • In einem Beispiel ist der Nutzerrechner 300 ausgebildet, das Bild 100 in eine Vielzahl Teilbilder T aufzuteilen. Jedes der Teilbilder T wird zur Objekt-Erkennung analysiert. Der Nutzerrechner 300 ist ausgebildet, jedem durch die Objekt-Erkennung erkannten Schlüsselwort ein Gewicht zuzuordnen, und die Beschreibung des Bildes 100 aus den Schlüsselworten zu erzeugen, deren zugeordnetes Gewicht einen Schwellwert überschreitet.
  • Das Ermitteln der Gewichte umfasst die Frage, wann der Algorithmus ein Objekt wichtiger empfindet als ein anderes bezüglich der Bedeutung des Teilbildes zum Beitrag zur Beschreibung des Gesamtbildes. Dies kann abhängig von mehreren Kriterien festgelegt werden.
  • Beispielsweise werden Teilbilder in der Mitte des Bildes 100 für die Bildinterpretation, im Verhältnis zu Teilbilder in den Bildrandbereichen höher gewichtet. Kriterien können auch auf Basis einer tiefgehenden Studie mit verschiedenen Gewichten bewertet werden. Mit Hilfe eines Scoring Modelles (auch Rangfolge-Modell oder Nutzwertanalyse genannt) können den Teilbildern im Bild 100 Gewichte zugeteilt werden, aufgrund derer sich eine Priorisierung feststellen lässt.
  • Beispielsweise wird durch eine Größe der Anteile bzw. Anzahl von Teilbildern eines Bildobjektes am Gesamtbild eine inhaltliche Aussage über die Erkennung der einzelnen Bildobjekte im Bild hinaus erstellt.
  • Am Beispiel aus 1:
    • Teilbilder mit Bildobjekten: Strand, Meer, Palme, Bus Szenario 1:
      • Gewichte: Teilbild mit Palme (40%), Teilbild mit Meer (35%), Teilbild mit Strand (15%), Teilbild mit Bus (10%)
      • Gesamtaussage: Bild mit Palme im Urlaub (eventuell Werbung für ein Urlaubsziel)
    • Szenario 2:
      • Gewichte: Teilbild mit Bus (40%), Teilbild mit Strand (35%), Teilbild mit Palme (15%), Teilbild mit Meer (10%)
      • Gesamtaussage: Bild von Bus am Strand (eventuell Werbung für ein Auto)
  • Die Gesamtaussage in diesem Beispiel hängt von den Gewichten der Teilbilder mit den einzelnen Bildobjekten ab, zum Beispiel der Gewichte des Teilbildes bzw. der Teilbilder mit dem Bildobjekt „Bus“.
  • Die Geschichte eines Bildes wird basierend auf den korrekt ermittelten Gewichten der Teilbilder richtig erzählt, da Bilder, die mehrere Bildobjekte enthalten, richtig analysiert werden. Dies erfolgt durch die Lenkung des Fokus auf die relevanten Teilbilder und somit auf das relevante Objekt (Bus oder Palme).
  • Der Nutzerrechner 300 kann ausgebildet sein, Teilbilder in der Bildmitte (Bus) stärker zu gewichten als Teilbilder am Rand. Alternativ kann der Nutzrechner 300 ausgebildet sein, Teilbilder (Tier 201 in 2) im ersten Bereich 202 des goldenen Schnitts stärker zu gewichten als Teilbilder im zweiten Bereich des goldenen Schnitts.
  • Teilbilder können ihr Gewicht nicht nur abhängig von einer Position eines Bildobjektes im Teilbild T oder Bild 100 erhalten, sondern auch abhängig von einer Position relativ zu einem anderen Objekt aus demselben Teilbild T oder Bild 100, 200.
  • Zudem kann eine Farberkennung erfolgen. Damit werden die wichtigsten Bestandteile beispielsweise eines Fotos identifiziert. Hierbei wird eine Änderungsrate der Bildpunkte betrachtet. Dazu werden Pixel des Fotos mit Abweichungstoleranzwerten analysiert, die je nach Skalenwerten von Farben anzugeben sind. Entdeckt die Bilderkennungssoftware in einem gewissen Teilbild T eine starke farbliche Änderung der Bildpunkte, so wird im Beispiel davon ausgegangen, dass sich hier ein wichtiger Bestandteil des Fotos befindet. Ein entsprechendes Teilbild wird höher gewichtet.
  • Bei den beschriebenen Analyserechnern 304, 306 kann es sich um Server oder eine verteilte Rechnerarchitektur handeln. Der Nutzerrechner 300 kann ein Arbeitsplatzrechner sein. Alternativ kann der Nutzerrechner durch eine Vorrichtung mit einer Kamera ausgebildet sein, zum Beispiel durch ein mobiles Endgerät wie ein Smartphone. So kann der Nutzerrechner ein zu analysierendes Bild selbst aufnehmen. Die Rechner umfassen wenigstens einen Mikroprozessor und Arbeitsspeicher, die ausgebildet sind, das Computerprogramm zur Durchführung von Schritten des beschriebenen Verfahrens auszuführen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • WO 2015175736 A1 [0002]
    • DE 102012109096 A1 [0003]

Claims (18)

  1. Verfahren zur Analyse eines Bildes (100) mit folgenden Schritten: - Bereitstellen (301) eines Bildes (100) auf einem Nutzerrechner (300); - Aufteilen (302) des bereitgestellten Bildes (100) in mindestens zwei Teilbilder (T) auf dem Nutzerrechner (300); - Übertragen (303, 305) der Teilbilder (T) von dem Nutzerrechner (300) an mindestens einen Analyserechner (304, 306), um mittels des Analyserechners (304, 306) ein Analyseergebnis der zu analysierenden Teilbilder (T) zu ermitteln; und - Empfangen des Analyseergebnisses des Analyserechners (304, 306) mittels des Nutzerrechners (300).
  2. Verfahren nach Anspruch 1, gekennzeichnet durch einen Schritt des Analysierens (307, 308) der Teilbilder (T) auf dem Analyserechner (304, 306), um das Analyseergebnis der zu analysierenden Teilbilder (T) zu ermitteln.
  3. Verfahren nach Anspruch 1 oder 2, gekennzeichnet durch einen Schritt des Übertragens (309, 310) des Analyseergebnisses von dem Analyserechner (304, 306) an den Nutzerrechner (300).
  4. Verfahren nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass die Teilbilder (T) auf dem Analyserechner (304, 306) mittels eines Verfahrens zur Bilderkennung analysiert werden, um das Analyseergebnis zu ermitteln.
  5. Verfahren nach einem der Ansprüche 2 bis 4, dadurch gekennzeichnet, dass der Schritt des Analysierens der Teilbilder (T) einen Schritt des Erkennens von je mindestens einem Bildobjekt in dem jeweiligen Teilbild (T) umfasst, um basierend auf den erkannten Bildobjekten das Analyseergebnis der Teilbilder (T) zu ermitteln.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass der Schritt des Analysierens der Teilbilder (T) einen Schritt des Erzeugens mindestens je eines Schlüsselwortes für das in dem jeweiligen Teilbild (T) erkannte Bildobjekt umfasst, um basierend auf den erzeugten Schlüsselworten das Analyseergebnis der Teilbilder (T) zu ermitteln.
  7. Verfahren nach einem der vorherigen Ansprüche, gekennzeichnet durch einen Schritt (311) des Ermittelns eines Analysegesamtergebnisses des Bildes, insbesondere einer semantischen Beschreibung des Bildes, auf dem Nutzerrechner (300) basierend auf dem empfangenen Analyseergebnis der Teilbilder (T), insbesondere basierend auf den erzeugten Schlüsselworten der erkannten Bildobjekte.
  8. Verfahren nach Anspruch 7, gekennzeichnet durch einen Schritt des Ermittelns je eines Gewichts der Teilbilder (T), um unter Verwendung der ermittelten Gewichte der Teilbilder (T) das Analysegesamtergebnis des Bildes, insbesondere die semantische Beschreibung des Bildes, zu ermitteln.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass beim Ermitteln des Analysegesamtergebnisses des Bildes, insbesondere der semantischen Beschreibung des Bildes, das empfangene Analyseergebnis nur für die Teilbilder (T) berücksichtigt wird, deren ermitteltes Gewicht größer oder gleich einem vorgegebenen und/oder vorgebbaren Schwellenwert ist.
  10. Verfahren nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass die Gewichte der Teilbilder (T) basierend - auf einer Farbanalyse der einzelnen Teilbilder (T) und/oder einer Farbanalyse des Bildes und/oder - auf einer Position der Teilbilder (T) in dem Bild ermittelt werden.
  11. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die Teilbilder (T) des Bildes - in vorgegebenen und/oder vorgebbaren Zeitabständen an denselben Analyserechner (304, 306) oder - an verschiedene Analyserechner (304, 306) übertragen werden.
  12. Vorrichtung, insbesondere Nutzerrechner (300), zur Analyse eines Bildes, die ausgebildet ist, - ein bereitgestelltes Bild in mindestens zwei Teilbilder (T) aufzuteilen, - die Teilbilder (T) an mindestens einen Analyserechner (304, 306) zu übertragen, und - ein auf dem Analyserechner (304, 306) mittels Analysieren der Teilbilder (T) ermitteltes Analyseergebnis der Teilbilder (T) zu empfangen.
  13. Vorrichtung nach Anspruch 12, dadurch gekennzeichnet, dass die Vorrichtung ausgebildet ist, ein Analysegesamtergebnis des Bildes, insbesondere eine semantische Beschreibung des Bildes, basierend auf dem empfangenen Analyseergebnis der Teilbilder (T) zu ermitteln.
  14. Vorrichtung nach Anspruch 13, dadurch gekennzeichnet, dass die Vorrichtung ausgebildet ist, je ein Gewicht der Teilbilder (T) zu ermitteln, um unter Verwendung der ermittelten Gewichte der Teilbilder (T) das Analysegesamtergebnis des Bildes, insbesondere die semantische Beschreibung des Bildes, zu ermitteln.
  15. Vorrichtung nach Anspruch 14, dadurch gekennzeichnet, dass die Vorrichtung ausgebildet ist, die Gewichte der Teilbilder (T) basierend - auf einer Farbanalyse der einzelnen Teilbilder (T) und/oder einer Farbanalyse des Bildes und/oder - auf einer Position der Teilbilder (T) in dem Bild zu ermitteln.
  16. System zur Analyse eines Bildes mit einer ersten Vorrichtung, insbesondere einem Nutzerrechner (300), nach einem der Ansprüche 12 bis 15 und einer zweiten Vorrichtung, insbesondere einem Analyserechner (304, 306), die ausgebildet ist, - von der ersten Vorrichtung übertragene Teilbilder (T) zu empfangen, - die empfangenen Teilbilder (T) zu analysieren, um das Analyseergebnis der zu analysierenden Teilbilder (T) zu ermitteln, und - das Analyseergebnis an die erste Vorrichtung zu übertragen.
  17. Computerprogramm, umfassend Befehle, die bewirken, dass die Vorrichtung nach einem der Ansprüche 12 bis 15 und/oder das System nach Anspruch 16 die Verfahrensschritte nach einem der Ansprüche 1 bis 11 ausführt.
  18. Computerprogrammprodukt, dadurch gekennzeichnet, dass das Computerprogrammprodukt ein Computerprogramm nach Anspruch 17 umfasst.
DE102018212961.4A 2018-08-02 2018-08-02 Verfahren und Vorrichtung zur Analyse eines Bildes Pending DE102018212961A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102018212961.4A DE102018212961A1 (de) 2018-08-02 2018-08-02 Verfahren und Vorrichtung zur Analyse eines Bildes
EP19752955.5A EP3830745A1 (de) 2018-08-02 2019-07-29 Verfahren und vorrichtung zur analyse eines bildes
PCT/EP2019/070325 WO2020025523A1 (de) 2018-08-02 2019-07-29 Verfahren und vorrichtung zur analyse eines bildes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018212961.4A DE102018212961A1 (de) 2018-08-02 2018-08-02 Verfahren und Vorrichtung zur Analyse eines Bildes

Publications (1)

Publication Number Publication Date
DE102018212961A1 true DE102018212961A1 (de) 2020-02-06

Family

ID=67620390

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018212961.4A Pending DE102018212961A1 (de) 2018-08-02 2018-08-02 Verfahren und Vorrichtung zur Analyse eines Bildes

Country Status (3)

Country Link
EP (1) EP3830745A1 (de)
DE (1) DE102018212961A1 (de)
WO (1) WO2020025523A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7099510B2 (en) * 2000-11-29 2006-08-29 Hewlett-Packard Development Company, L.P. Method and system for object detection in digital images
US8532390B2 (en) * 2010-07-28 2013-09-10 International Business Machines Corporation Semantic parsing of objects in video

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004061807A1 (de) * 2004-12-22 2006-07-06 Robert Bosch Gmbh Bilderfassungssystem
WO2007000999A1 (ja) * 2005-06-27 2007-01-04 Pioneer Corporation 画像分析装置および画像分析方法
JP2008234623A (ja) * 2007-02-19 2008-10-02 Seiko Epson Corp カテゴリー識別装置、カテゴリー識別方法、及び、プログラム
DE102012109096A1 (de) 2012-09-26 2014-03-27 Iqser Ip Ag Verfahren zur sequenziellen Bereitstellung von personalisierte Informationen repräsentierenden Daten, insbesondere in Form von Videos und dergleichen, insbesondere für ein personalisiertes Fernsehprogramm
US11222044B2 (en) 2014-05-16 2022-01-11 Microsoft Technology Licensing, Llc Natural language image search
JP2018072957A (ja) * 2016-10-25 2018-05-10 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像加工方法、画像加工システム及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7099510B2 (en) * 2000-11-29 2006-08-29 Hewlett-Packard Development Company, L.P. Method and system for object detection in digital images
US8532390B2 (en) * 2010-07-28 2013-09-10 International Business Machines Corporation Semantic parsing of objects in video

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KARPATHY, A.; FEI-FEI, L. Deep Visual-Semantic Alignments for Generating Image Descriptions. IEEE transactions on pattern analysis and machine intelligence, 2017, 39. Jg., Nr. 4, S. 664-676 *
VOGEL, Julia; SCHIELE, Bernt. Semantic modeling of natural scenes for content-based image retrieval. International Journal of Computer Vision, 2007, 72. Jg., Nr. 2, S. 133-157 *

Also Published As

Publication number Publication date
EP3830745A1 (de) 2021-06-09
WO2020025523A1 (de) 2020-02-06

Similar Documents

Publication Publication Date Title
DE102018121808A1 (de) Verfeinern von synthetischen daten mit einem generative adversarial network unter verwendung von hilfseingaben
DE102019005423A1 (de) Raum-Zeit-Speicher- bzw. Ablagenetzwerk zum Lokalisieren eines Zielobjektes in Videocontent
DE102018007937A1 (de) Entfernen und Ersetzen von Objekten in Bildern entsprechend einem geführten Nutzerdialog
DE102018008161A1 (de) Detektieren von Objekten unter Nutzung eines schwach überwachten Modells
DE102016125783A1 (de) Bereitstellen von Vorschlägen für die Interaktion mit einem automatisierten Assistenten in einem Multi-User-Nachrichtenaustausch-Thread
DE102012102797B4 (de) Kamerabasiertes Mobilfunkgerät zur Konvertierung eines Dokuments anhand von aufgenommenen Bildern in ein Format zur optimierten Anzeige auf dem kamerabasierten Mobilfunkgerät
DE112016005555T5 (de) CAPTCHA-Aufgaben auf Bildbasis
DE112016001830T5 (de) Das Entdecken von Unternehmen aus Bildern
DE102012218966A1 (de) Verfahren und System zum Kennzeichnen von durch Dinge im Internet der Dinge erzeugten Originaldaten
DE102017005964A1 (de) Techniken zum Auswählen von Objekten in Bildern
DE102019102866A1 (de) Identifizierung eines Herstellungsteils unter Verwendung von Computervision und Maschinenlernen
DE112015005985T5 (de) Klassifizierung und speicherung von dokumenten
DE112015005186T5 (de) Strukturierte Entitätsinformationsseite
DE112016002275T5 (de) Koordinierte benutzerwortauswahl zum übersetzen und erhalten von kontextinformtionen für das ausgewählte wort
DE102021203020A1 (de) Generative-adversarial-network-modelle zur detektion kleiner strassenobjekte
DE102014113817A1 (de) Vorrichtung und Verfahren zur Erkennung eines Objekts in Einem Bild
DE102020120953A1 (de) Digitalzwilling-überwachungssysteme und -verfahren
EP3765999B1 (de) System und verfahren zur objekterkennung mittels verteilter neuronaler netze
DE112018001711T5 (de) Generator von Unterrichtsnotizen auf Blickrichtungsgrundlage
DE112015003801T5 (de) System und verfahren zum automatischen pushen von standortspezifischem inhalt an benutzer
DE102018113621A1 (de) Verfahren zum Trainieren eines konvolutionellen neuronalen Netzwerks zum Verarbeiten von Bilddaten zur Anwendung in einem Fahrunterstützungssystem
DE102018212961A1 (de) Verfahren und Vorrichtung zur Analyse eines Bildes
DE102019220335A1 (de) Semantische segmentierung unter verwendung von fahreraufmerksamkeitsinformationen
DE102018132627A1 (de) Verfahren zum Erfassen einer Umgebung eines Kraftfahrzeugs mittels zeitlicher Fusion von Bildern durch ein künstliches neuronales Netz; Steuereinheit, Fahrerassistenzsystem; Computerprogrammprodukt
DE102021119725A1 (de) Überlagern von metadaten über videoströme on-demand zur intelligenten videoanalytik

Legal Events

Date Code Title Description
R163 Identified publications notified
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009500000

Ipc: G06V0030184000