DE102011003201A1 - System für kreative Bildnavigation und Untersuchung - Google Patents

System für kreative Bildnavigation und Untersuchung Download PDF

Info

Publication number
DE102011003201A1
DE102011003201A1 DE102011003201A DE102011003201A DE102011003201A1 DE 102011003201 A1 DE102011003201 A1 DE 102011003201A1 DE 102011003201 A DE102011003201 A DE 102011003201A DE 102011003201 A DE102011003201 A DE 102011003201A DE 102011003201 A1 DE102011003201 A1 DE 102011003201A1
Authority
DE
Germany
Prior art keywords
images
features
feature
user
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102011003201A
Other languages
English (en)
Inventor
Sandra SKAFF
Luca Marchesotti
Tommaso Colombino
Ana Fucs
Gabriela Csurka
Yanal Wazaefi
Marco Bressan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xerox Corp
Original Assignee
Xerox Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xerox Corp filed Critical Xerox Corp
Publication of DE102011003201A1 publication Critical patent/DE102011003201A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/54Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations

Abstract

Es werden ein System und ein Verfahren zum Unterstützen eines Nutzers bei der Navigation durch einen Bilddatensatz offenbart. Das Verfahren umfasst das Empfangen einer Textanfrage des Nutzers, das Abrufen von Bildern in Reaktion auf die Anfrage aus einem Bilddatensatz, das Sorgetragen dafür, dass die Auswahl des Nutzers für ein erstes Merkmal, das aus einer Gruppe aus verfügbaren ersten Merkmalen ausgewählt wird, empfangen wird über eine graphische Anwenderschnittstelle, das Sorgetragen dafür, dass die Auswahl des Nutzers für ein zweites Merkmal, das aus einer Gruppe verfügbarer zweiter Merkmale ausgewählt ist, die sich von den ersten Merkmalen unterscheiden, über die graphische Anwenderschnittstelle ausgewählt wird, und Darstellen mindestens einiger der abgerufenen Bilder auf der graphischen Anwenderschnittstelle. Die dargestellten Bilder sind angeordnet, beispielsweise gruppiert, gemäß Ebenen und/oder Kombinationen des vom Nutzer ausgewählten ersten und zweiten Merkmals.

Description

  • Hintergrund
  • Die anschauliche Ausführungsform betrifft das Gebiet der Bildgewinnung und Auswahl. Es findet insbesondere Anwendung im Zusammenhang mit einem Navigationssystem und einem Verfahren zum Durchsuchen einer Datenbank aus Bildern.
  • Digitale Bilder werden aufgenommen und in großer Menge für die spätere Verwendung in Verbindung mit einer Reihe von Anwendungen gespeichert, etwa für die kommerzielle Gestaltung, redaktionelle Arbeiten, für die professionelle Digitalphotographie und für die Bestandsverwaltung. Das Abrufen bzw. Gewinnen von Bildern mittels konventioneller Suchverfahren ist häufig zeitaufwendig. Wenn beispielsweise eine Gruppe in geeigneter Weise markiert wurde, kann ein Nutzer eine Textanfrage eingeben, etwa „Blume” und kann eine große Anzahl an Bildern in Reaktion auf die Abfrage abrufen, beispielsweise jene, die manuell als solche markiert wurden, die Blumen enthalten. Andere Verfahren zum Abrufen bzw. Gewinnen von Bildern beruhen auf Merkmalsextraktionstechniken. Beispielsweise kann ein automatisiertes System Markierungen manuell gekennzeichneter Bilder auf ungekennzeichnete Bilder auf der Grundlage einer Ähnlichkeit von extrahierten Merkmalen übertragen. Oder der Nutzer kann ein Bild einer Blume eingeben und es werden ähnliche Bilder automatisch abgerufen, indem die Merkmale des eingespeisten Bildes mit jenen der gespeicherten Bilder verglichen werden.
  • Das Auffinden von Bildern beinhaltet allgemein einen Kompromiss zwischen einer engen Definition und Abgrenzung des Suchraumes durch die Verwendung expliziter Kriterien, und der Durchsuchung einer ausreichend großen Ansammlung an verfügbaren Bildern, um damit sicherzustellen, dass die best passendsten oder ästhetisch am ansprechendsten nicht übersehen werden. Dies führt für den Nutzer zu einer relativ grollen Teilmenge an Bildern. Somit bleibt das Durchsuchen das wesentliche Verfahren für die Auswahl von Bildern.
  • Aktuelle Systeme, etwa Google Images und FLICKR-Bildsysteme führen Bildsuchvorgänge auch auf der Grundlage des Inhalts aus und bieten sehr grundlegende Optionen für ästhetische Verfeinerungen. Jedoch bieten diese keine Werkzeuge für Merkmalskombinationssuchvorgänge. Diese ermöglichen es höchstens den Nutzern, eine Sequenz aus Verfeinerungskriterien auszuwählen und miteinander zu verketten. Beispielsweise kann in Google Images ein Nutzer eine inhaltsbezogene Suche ausführen, etwa durch die Abfrage „Himmel” und kann dann auf das „blaue” Feld klicken, um Bilder mit blauem Himmel zu erhalten. Diese Art der Durchsuchung macht das Vorwärts- und Rückwärtsbewegen zwischen ausgewählten Merkmalsverfeinerungen und der Untersuchung unterschiedlicher Kombinationen aus Merkmalen unpraktisch.
  • Kurze Beschreibung
  • Gemäß einem Aspekt der anschaulichen Ausführungsform wird ein Verfahren zum Assistieren eines Nutzers bei der Navigation in Bilddatensatz bereitgestellt. Das Verfahren umfasst das Erhalten einer Textanfrage des Nutzers, das Abrufen von Bildern in Reaktion auf die Textanfrage aus einem Bilddatensatz, das Vorsehen, dass die Auswahl des Nutzers eines ersten Merkmals, das aus einer Gruppe aus verfügbaren Merkmalen ausgewählt wird, empfangen wird, das Vorsehen, dass die Auswahl des Nutzers eines zweiten Merkmals empfangen wird, das aus der Gruppe aus verfügbaren Merkmalen ausgewählt ist. Das Verfahren umfasst ferner das Anzeigen mindestens einiger der abgerufenen Bilder auf der graphischen Anwenderschnittstelle gleichzeitig in einer Anordnung. Die Anordnung aus Bildern gibt unterschiedliche Ebenen des ersten Merkmals wieder, wenn nur ein erstes Merkmal ausgewählt ist. Die Anordnung gibt unterschiedliche Kombinationen aus Ebenen des vom Nutzer ausgewählten ersten und zweiten Merkmals wieder, wenn ein erstes und ein zweites Merkmal ausgewählt sind.
  • In einer Ausführungsform des Verfahrens aus Anspruch 6 umfasst das Anzeigen von Gruppen aus Bildern in einem zweidimensionalen Array, wobei das erste Merkmal in einer ersten Dimension in der Ebene aufsteigend und wobei das zweite Merkmal in einer zweiten Dimension in seiner Ebene aufsteigend angeordnet ist.
  • In einer Ausführungsform des Verfahrens aus Anspruch 2 unterscheidet sich jede Gruppe aus Bildern in der Anzeige in einer Kombination aus quantitizierten Werten des ersten und des zweiten Merkmals von jeder der anderen Gruppen.
  • In einer weiteren Ausführungsform wird für jedes Merkmal in der Gruppe aus Merkmalen eine Mehrzahl aus Quantisierungsebenen für die unterschiedlichen Werten des Merkmales bereitgestellt und jedes der Bilder in der Datenmenge aus Bildern wird einer entsprechenden Quantisierungsebene für jedes der Merkmale zugeordnet.
  • In einer weiteren Ausführungsform gibt es für jedes Merkmal in der Gruppe aus Merkmalen mindestens drei Quatisierungsebenen.
  • In einer weiteren Ausführungsform umfasst das Vorsehen, dass die Auswahl des Nutzers für das erste und das zweite Merkmal empfangen wird, das Vorsehen, dass die Auswahl des Nutzers über die graphische Anwenderschnittstelle empfangen wird.
  • In einer weiteren Ausführungsform umfasst das Verfahren ferner das Abrufen mindestens eines nächsten Nachbarn und/oder nahezu identischer Bilder für ein vom Nutzer ausgewähltes Bild und/oder eine nutzerausgewählte Gruppe aus Bildern und das Darstellen des mindestens einen nächsten Nachbarn und/oder der nahezu identischen Bilder auf der graphischen Anwenderschnittstelle.
  • In einer weiteren Ausführungsform umfassen die Bilder Photographien.
  • In einer weiteren Ausführungsform umfasst das Verfahren das automatische Klassifizieren zumindest eines Teils der Bilder in der Datenmenge gemäß dem Inhalt, und wobei das Abrufen von Bildern in Reaktion auf eine Textabfrage auf der Inhaltsklassifizierung der Bilder basiert.
  • In einer weiteren Ausführungsform umfasst das Verfahren ferner das Anzeigen eines Dokuments mit einem Platzhalter zum Aufnehmen eines Bildes gleichzeitig mit einer nutzerausgewählten Gruppe der Bilder, wodurch ein Anwender ein Bild aus der dargestellten Gruppe auswählen kann, das in dem Platzhalter eingefügt wird.
  • In einer weiteren Ausführungsform sind die dargestellten Bilder Miniaturbilder, die aus den entsprechenden Bildern in der gespeicherten Datenmenge abgeleitet sind.
  • In einer weiteren Ausführungsform umfasst das Anzeigen das Anzeigen eines Arrays der abgerufenen Bilder, wobei die Position von Bildern in dem Array der Kombination aus Merkmalsebenen entspricht.
  • In einem weiteren Aspekt umfasst eine Vorrichtung zur Navigation in einer Bilddatenmenge ein Navigationssystem, das Befehle umfasst, die in einem Speicher gespeichert sind, und dazu dienen: eine Textfrage eines Nutzers zu empfangen, Bilder in Reaktion auf die Textanfrage aus einer zugeordneten Bilddatenmenge abzurufen, die Auswahl des Nutzers eines ersten Merkmals, das aus einer Gruppe verfügbarer Merkmale ausgewählt ist, zu empfangen, die Auswahl des Nutzers eines zweiten Merkmals, das aus der Gruppe verfügbarer Merkmale ausgewählt ist, zu empfangen, die abgerufenen Bilder in Gruppen einzuteilen auf der Grundlage von Ebenen der ausgewählten Merkmale und zumindest einige der Gruppen aus abgerufenen Bildern auf einer zugehörigen graphischen Anwenderschnittstelle darzustellen. Ein Prozessor, der mit dem Speicher in Verbindung steht, führt die Befehle aus.
  • In einer weiteren Ausführungsform umfassen die Befehle Befehle zum Anzeigen einer Auswahleinrichtung zum Auswählen des ersten Merkmals aus einer ersten Gruppe aus Merkmalen und eine zweite Auswahleinheit zum Auswählen des zweiten Merkmals aus einer zweiten Gruppe aus Merkmalen.
  • In einer weiteren Ausführungsform enthalten die Befehle zum Darstellen Befehle zum Darstellen von Gruppen von Bildern in einer zweidimensionalen Anordnung, wobei das erste Merkmal in seinem Wert in einer ersten Dimension und das zweite Merkmal in seinem Wert in einer zweiten Dimension zunimmt, wobei jede Gruppe in der Anzeige sich in einer Kombination der ersten und zweiten Merkmalswerte von jeder anderen Gruppe unterscheidet.
  • In einer weiteren Ausführungsform werden für jedes Merkmal in der ersten und der zweiten Gruppe aus Merkmalen mehrere Quantisierungsebenen entsprechend den unterschiedlichen Werten des Merkmals bereitgestellt, wobei jedes der Bilder in der Datenmenge aus Bildern einer entsprechenden Quatisierungsebene für jedes der Merkmale zugeordnet ist.
  • In einem weiteren Aspekt umfasst ein Verfahren zum Hinzufügen von Bildern zum Dokument das Speichern eines Dokuments mit mindestens einem Platzhalter zur Aufnahme eines Bildes, das Empfangen einer Textanfrage eines Nutzers, das Abrufen von Bildern in Reaktion auf die Textanfrage aus einer Bilddatenmenge, wobei jedes der Bilder in der Datenmenge gemäß dem Inhalt klassifiziert ist und Merkmalswerten für jedes aus einer Gruppe von Merkmalen zugeordnet ist. Das Verfahren umfasst ferner das Empfangen der Auswahl des Nutzers eines ersten und eines zweiten Merkmals aus der Gruppe aus Merkmalen, das Darstellen mindestens eines der abgerufenen Bilder auf der graphischen Anwenderschnittstelle, wodurch die dargestellten Bilder gemäß dem ersten und zweiten Merkmal, die vom Nutzer ausgewählt sind, gruppiert werden, und das Bereitstellen einer Auswahlmöglichkeit für einen Nutzer für ein Bild aus der dargerstellten Gruppe aus Bildern, so dass ein Einfügen in einem der Platzhalter möglich ist.
  • Kurze Beschreibung der Zeichnungen
  • Die Patentanmeldung enthält mindestens eine Zeichnung, die in Farbe ausgeführt ist. Kopien dieser Patentschrift oder der Patentanmeldung für eine Offenlegung mit Farbzeichnungen werden durch das Amt auf Anforderung und Bezahlung der notwendigen Gebühren bereitgestellt.
  • 1 ist eine Blockansicht einer Übersichtsdarstellung eines anschaulichen Systems und Verfahrens für die Bildnavigation;
  • 2 ist eine funktionale Blockansicht einer Bildnavigationsvorrichtung;
  • 3 ist ein Flussdiagramm, das ein Verfahren darstellt, um einen Nutzer bei der Bildnavigation zu unterstützen;
  • 4 ist eine Bildschirmaufnahme einer anschaulichen graphischen Anwenderschnittstelle der Vorrichtung aus 2, wobei Bilder in Reaktion auf eine inhaltsbasierte Abfrage dargestellt wenden;
  • 5 ist eine Bildschirmaufnahme der graphischen Anwenderschnittstelle der Vorrichtung aus 2, wobei Bilder in einem zweidimensionalen Array angezeigt werden, wobei sich die Anzeige aus einer Auswahl zweier Merkmale F1, F2 ergibt, mit denen die Bilder partizioniert werden; und
  • 6 ist eine Bildschirmaufnahme der graphischen Anwenderschnittstelle der Vorrichtung aus 2, wobei eine Gruppe aus Bildern von einer der Partionen des Arrays aus 5 gezeigt ist, wobei diese benachbart zu einer Schablone dargestellt sind, die mit den ausgewählten Bildern zu füllen ist.
  • Detaillierte Beschreibung
  • Die anschauliche Ausführungsform betrifft ein System, eine Vorrichtung und ein Verfahren zum Navigieren und Durchsuchen einer Datenbank aus Bildern. Das System, die Vorrichtung und das Verfahren ermöglichen eine Kombination aus inhaltsbasierten Suchtechniken mit einer merkmalsbasierten Durchsuchung. Die ausgewählten Merkmale können ästhetische und/oder emotionale Merkmale sein. Beim Navigieren in einer Datenmenge aus Bildern ermöglicht das System das Erzeugen eines Suchraumes dadurch, dass einem Nutzer ermöglicht wird, eine spezielle semantische Kategorie (beispielsweise Blumen) mit einer Textanfrage auszuwählen und anschließend zumindest eine Teilmenge der Bilder in der ausgewählten Kategorie iterativ zu untersuchen, wobei unterschiedliche Kombinationen aus Merkmalen verwendet werden. In der anschaulichen Ausführungsform wird der Nutzer in die Lage versetzt, aus einer Gruppe von Merkmalen auszuwählen, die ästhetische Merkmale (Licht, Kontrast, Verschmierung, Farbe, etc.) und emotionale Merkmale (beispielsweise Einschätzung, Aktivität) beinhalten.
  • Es können diverse Visualisierungsstrategien (Clusterbildung bzw. Ansammlung, Mosaik, etc.) für die Nutzer bereitgestellt werden, um durch die Bilddatenbank mit unterschiedlichen Auflösungsraden zu navigieren (Cluster, Untersuchung von nächerungsweise Duplikate, etc.) und um interativ Dokumententwürfe mit geeigneten Bildern zu erzeugen.
  • Gemäß 1 ist ein Überblick über das anschauliche System und Verfahren gezeigt. Das System und das Verfahren beruhen auf einer Datenbank 10 aus Einträgen, etwa einer großen Ansammlung (beispielsweise Hunderte, Tausende oder Millionen) an Bildern, etwa Photographien und/oder graphischen Bildern. Eine Merkmalsextraktion 12 ermöglicht die Auswahl von Bildern aus der Datenbank 10 auf der Grundlage eines oder mehrerer inhaltsbasierter Merkmale 14, auf der Grundlage emotionaler Merkmale 16 und auf der Grundlage ästhetischer Merkmale 18. Die Suchraumerzeugung 20 nimmt eine Teilgruppe aus Bildern aus der Datenbank und unterteilt diese in einer Weise, die es ermöglicht, die Bilder auf der Grundlage von Kombinationen aus Merkmalen unter Anwendung von Verfahren/Komponenten für die Kategorisierung 22, die Clusterbildung 24 und das Abrufen 26 in Cluster anzuordnen bzw. als Ansammlung anzuordnen und darzustellen. Die Visualisierung 28 erzeugt eine Darstellung zumindest eines Teils der Bilderteilgruppe für die Betrachtung durch einen Nutzer 30.
  • In 2 ist eine spezielle Ausführungsform einer Vorrichtung 40 zur Unterstützung eines Nutzers bei der Navigation durch eine Datenmenge aus Bildern gezeigt, wobei diese in Form einer digitalen Verarbeitungseinrichtung, etwa als ein Computer, vorgesehen ist. Der Computer 40 umfasst einen digitalen Prozessor 42, etwa die CPU des Computers, und einen zugehörigen Speicher, der hier als Hauptspeicher 44 und Datenspeicher 46 gezeigt ist.
  • Der dargestellte Computer 40 umfasst eine Eingabeschnittstelle 50 und eine Ausgabeschnittstelle 52, die kombiniert oder separat vorgesehen sein können. Die Schnittstelle 50 empfängt eine Datenmenge aus elektronischen Datenobjekten 54 (Bildern), die in dem Datenspeicher 46 gespeichert sind, der als die Datenbank 10 dient. Es sollte beachtet werden, dass die Datenbank 10 entfernt zu dem Computer 10 angeordnet sein kann und über geeignete Kommunikationsverbindungen abgefragt werden kann. Alle oder ein Teil 56 der Bilder 54 in der Datenmenge 10 sind mit Inhaltsmarkierungen versehen. Die Inhaltsmarkierungen können die Beschreibung eines Nutzers des Bildinhalts und/oder einige Kommentare über das Bild mit einschließen. Beispielsweise kann ein Bild 54 mit der Beschreibung „Frühlingsblumen” und einem Kommentar, etwa „mein stimmungsvoller Garten im März” markiert sein. In Fallen, in denen das Bild von dem Text umgeben ist, können die Inhaltsmarken aus dem umgebenden Text abgeleitet werden. Es können automatische Markierungsverfahren angewendet werden, um nicht bezeichnete Bilder mit Markierungen zu versehen.
  • Die Bilder 54 in der Datenbank 10 können ein beliebiges geeignetes Dateienformat besitzen, etwa JPEG, TIFF, und dergleichen. Die Bilder können individuelle Bilder oder Videobilder sein. Im Allgemeinen enthält jedes digitale Bild Bilddaten für ein Array aus Pixel, die das Bild darstellen. Die Bilddaten können Farbwerte, etwa Graustufenwerte, für jede aus einer Gruppe aus Farbseparationen, etwa RGB, enthalten, oder die Bilddaten können in einem weiteren Farbraum ausgedrückt sein, in welchem unterschiedliche Farben dargestellt werden können. Im Allgemeinen betrifft der Begriff „Graustufe” den optischen Mittelwert des beliebigen einzelnen Farbkanals, wie auch immer dieser ausgedrückt ist (RGB, YCbCr, etc.).
  • Die Schnittstelle 50 oder eine separate Schnittstelle kann ferner so ausgebildet sein, dass ein Dokument 58, etwa eine anschauliche Schablone, mit einem Platzhalter (Raum) 60 empfangen wird, um damit ein oder mehrere Bilder aus der Datenbank aufzunehmen.
  • Die Schnittstelle 52 gibt ein modifiziertes Dokument 62 aus, welchem ein oder mehrere ausgewählte Bilder 54 hinzugefügt sind.
  • Beispielhafte Eingabe- und Ausgabe-Schnittstellen 50, 52 enthalten verdrahtete und drahtlose Netzwerkschnittstellen, etwa Modems, oder lokale Schnittstellen, etwa USB-Anschlüsse, Laufwerke und dergleichen. Die Komponenten 42, 44, 46, 50, 52 des Computers sind miteinander kommunikativ mittels eines Daten/Steuerbusses 64 verbunden.
  • Eine graphische Anwenderschnittstelle (GUI) 70 umfasst einen Anzeigebildschirm 72, etwa einen Farbmonitor oder einen LCD-Bildschirm und eine Nutzereingabevorrichtung, etwa eine Tastatur 74, eine Eingabefläche, einen berührungsempfindlichen Bildschirm, eine Zeigersteuerungsvorrichtung 76, Mikrophon mit zugehörigem Sprach-zu-Text-Umwandler, oder eine Kombination davon, um eine Textanfrage einzugeben. Die GUI 70 ist kommunikativ mit dem Computer 40 über eine oder mehrere verdrahtete oder drahtlose Verbindungen 78 verbunden. In der anschaulichen Ausführungsform ist die GUI 70 lokal zu dem Computer 40 angeordnet, obwohl in anderen Ausführungsformen die GUI 70 über einen Klientenrechner (nicht gezeigt) angeschlossen ist, der wiederum mit dem Computer 40 über einen Netzwerk-Browser, ein verdrahtetes oder drahtloses Netzwerk oder eine andere Kommunikationsverbindung verbunden ist.
  • Der digitale Prozessor 42 kann auf diverse Arten eingerichtet sein, etwa in Form eines Einzelkernprozessors, eines Doppelkernprozessors (oder allgemeiner als Mehrfachkernprozessor), als ein digitaler Prozessor, der mit einem Mathematikcoprozessor in Verbindung steht, in Form einer digitalen Steuerung, und dergleichen. Der Computer 40 kann ein oder mehrere spezielle Recheneinrichtungen oder Recheneinrichtungen für Allgemeinzwecke, etwa einen Server-Computer, einen Tischrechner oder einen tragbaren Computer, einen Handcomputer, einen tragbaren digitalen Assistenten (PDA), eine Kamera, oder eine andere Recheneinrichtung umfassen, die in der Lage ist, Befehle für das Ausführen des anschaulichen Verfahrens auszuführen.
  • Die Speicher 44, 46 können separat sein oder können kombiniert sein und repräsentieren eine beliebige Art an computerlesbarem Medium, etwa einen Speicher mit wahlfreiem Zugriff (RAM), einen Nur-Lese-Speicher (ROM), eine Magnetplatte oder ein Magnetband, eine optische Diskette, einen Flash-Speicher oder einen holographischen Speicher. In einer Ausführungsform umfasst der Speicher 44, 46 eine Kombination aus einem Speicher mit wahlfreiem Zugriff und einen Nur-Lese-Speicher.
  • Der Begriff „Software”, wie er hierin verwendet ist, soll jegliche Ansammlungen oder eine Gruppe aus Befehlen umfassen, die von einem Computer oder einem anderen digitalen System ausführbar ist, so dass der Computer oder ein anderes digitales System so konfiguriert werden, dass die Aufgabe ausgeführt wird, die durch die Software beabsichtigt ist. Der Begriff „Software”, wie er hierin verwendet ist, soll derartige Befehle umfassen, die in einem Speicher mit wahlfreiem Zugriff, etwa einem RAM, einer Festplatte, einer optischen Diskette, oder dergleichen, gespeichert sind, und der Begriff soll auch eine sogenannte „Firmware” umfassen, die eine Software ist, die in einem ROM oder desgleichen gespeichert ist. Eine derartige Software kann auf diverse Weisen organisiert sein und kann Softwarekomponenten enthalten, die als Bibliotheken, als internetbasierte Programme, die auf einem entfernten Server oder dergleichen gespeichert sind, als Quellencodierung, als übersetzende Codierung, als Objektcodierung, als direkt ausführbare Codierung usw. organisiert sind. Zu beachten ist, dass die Software eine Codierung auf Systemebene aufrufen kann oder Aufrufe zu einer anderen Software tätigen kann, die auf einem Server abgelegt ist oder an einer anderen Stelle abgelegt ist, um gewisse Funktionen auszuführen.
  • Der Computer 40 ist durch eine geeignete Programmierung und/oder durch eine fest verdrahtete Firmware konfiguriert, um Bildnavigationssystem 80 zu bilden. Das anschauliche Navigationssystem 80 liegt in Form von Softwarebefehlen vor, um das anschauliche Verfahren auszuführen, das in dem Speicher 44 gespeichert ist und von dem Prozessor 42 ausgeführt wird.
  • Das Navigationssystem 80 umfasst eine Merkmalsextraktionskomponente 12, eine Suchraumerzeugungskomponente 20 und eine Visualisierungskomponente 28, wobei jede Komponente ein oder mehrere separate Softwaremittel (wie sie in 1 gezeigt sind) enthalten kann oder wobei diese Mittel als ein einzelnes Werkzeug kombiniert sind.
  • Die Merkmalsextraktionskomponente 12 kann die gespeicherten Bilder 54 vor der Eingabe einer Suchanfrage durch einen Nutzer verarbeiten. In der anschaulichen Ausführungsform umfasst ein Inhaltsmerkmalsextraktor 14 (1) der Merkmalsextraktionskomponente 12 einen Klassifizierer (oder eine Gruppe aus binären Klassifizierern), die ausgebildet sind, inhaltsbasierte Marken (semantische Markierungen) unmarkierten Bildern 54 zuzuordnen. Die Ausbildung kann auf einer Übungsgruppe beruhen, die bezeichnete Bilder (etwa die markierten Bilder 56 in der Datenmenge) umfasst. Die Bezeichnungen repräsentieren eine a priori-Information über die Klassifikationen der Bilder, etwa manuell vorgesehene Klassenbezeichnungen. Für eine rein binäre Klassifikation können die Bezeichnungen beispielsweise „+1” sein, wenn das Objekt einer speziellen Klasse zugeordnet ist, und können ansonsten „–1” sein. Für eine weiche binäre Klassifizierung können die Bezeichnungen beispielsweise Werte im Bereich von [0,1] sein, die die Wahrscheinlichkeit der Mitgliedschaft in der Klasse angeben. In anderen Ausführungsformen kann die gesamte Datenmenge 10 mit Inhaltsmerkmalen markiert sein, wodurch der Bedarf für eine Klassifizierung entfällt. Inhaltsmarkierungen können zusätzlich oder alternativ aus einem Textinhalt, der dem Bild zugeordnet ist, extrahiert werden.
  • Der bzw. die emotionalen Merkmalsextraktoren 16 extrahierten Merkmale, die mit Emotionen aus den Bildern in Verbindung stehen und ordnet Bezeichnungen den Bildern zu, die den Merkmalswerten für jedes aus einer Gruppe aus verfügbaren Emotionsmerkmalen entsprechen.
  • Der bzw. die ästhetischen Merkmalsextraktoren 18 extrahieren Merkmale, die mit ästhetischen Eigenschaften aus den Bildern verknüpft sind und ordnen Bezeichnungen den Bildern entsprechend ihren Merkmalswerten für jedes aus einer Gruppe aus verfügbaren ästhetischen Merkmalen zu.
  • 3 zeigt ein computerimplementiertes Verfahren, das mit der Vorrichtung aus 2 ausgeführt werden. Das Verfahren, dessen Details nachfolgend genauer beschrieben sind, beginnt mit S100.
  • Bei S102 wird eine Datenmenge 10 aus Bildern 54 eingespeist und wird in dem Computerspeicher 46 durch Verarbeitung gespeichert.
  • Bei S104 (Merkmalsextraktion) werden Merkmale, etwa Inhaltsmerkmale, ästhetische Merkmale und emotionale Merkmale, für jedes Bild in der Datenbank extrahiert und gespeichert, beispielsweise als zugehörige Meterdaten oder andere Markierungen.
  • Bei S106 wird eine Textanfrage eines Nutzers über die GUI 70 empfangen und es wird eine Teilgruppe aus Datensatzbildern in Reaktion auf die Anfrage, beispielsweise jene, die mit einer „Inhalts”-Bezeichnung entsprechend dem Abfragebegriff markiert sind, abgerufen.
  • Bei S108 (Suchraumerzeugung) wird auf der Grundlage der Inhaltsauswahl des Nutzers ein Suchraum erzeugt und wird dargestellt, wie dies in der Bildschirmdarstellung 84 in 4 gezeigt ist. Dabei können in dieser Phase alle abgerufenen Bilder dargestellt werden.
  • Bei S110 wird dafür gesorgt, dass der Nutzer 30 gewisse auswählbare ästhetische/emotionale Merkmale auswählen kann und die Auswahl des Nutzers für ästhetische und/oder emotionale Merkmale werden über die GUI 70 empfangen. Es sollte beachtet werden, dass die Auswahl von Inhaltsmerkmalen, ästhetischen und/oder emotionalen Merkmalen in einer beliebigen Reihenfolge stattfinden kann.
  • Bei S112 wird auf der Grundlage der Auswahl durch den Nutzer über Inhaltsmerkmale, ästhetische oder emotionale Merkmale der Suchraum unterteilt, wodurch die Bilder gruppiert werden. Die Bilder können verarbeitet und gruppiert werden unter Anwendung eines Satzes aus Software-Mitteln, etwa K-Mitteln und dergleichen, um visuell kohärente Suchräume zu erzeugen. Das Gruppieren kann ausgeführt werden unter Anwendung einer K-Mittel-Cluster-Bildung oder durch Partitionierung des Raumes gemäß den Merkmalen, die durch den Anwender ausgewählt sind, wie dies auch nachfolgend beschrieben ist.
  • Bei S114 (Visualisierung) wird der durch den Anwender durch die Merkmalsauswahl erzeugte Suchraum visualisiert. Es können unterschiedliche Modalitäten (beispielsweise Cluster, Mosaike oder andere Arten von Gruppen) verfügbar sein, um den Suchraum zu visualisieren. In der anschaulichen Ausführungsform wird in der Visualisierungsphase ein zweidimensionales Array aus n = 9 Bildgruppen 92, 94, 96 (eine leere Gruppe), 98, 100, 102, 104, 106 und 108 für zwei ausgewählte Merkmale erzeugt, wie dies in der Bildschirmaufnahme 86 in 5 dargestellt ist. Es sollte beachtet werden, dass die Anzahl n an Gruppen, in die die abgerufenen Bilder partitioniert und entsprechend angezeigt werden, eine beliebig geeignete Anzahl sein kann, etwa 4, 6, 8, 9, 10, 12 oder mehr. Für eine größere Anzahl an Gruppen können die Gruppen kaskadiert werden, wobei der Nutzer auf eine ausgewählte Menge an Gruppen für die Betrachtung klickt oder diese anderweitig auswählt. Jede Gruppe kann visuell von den anderen Gruppen unterschieden sein, beispielsweise durch die Platzierung der Gruppen in unterschiedlichen Bereichen des Bildschirms und/oder durch Bereitstellen visueller Grenzen 87 zwischen den Gruppen. In einer Ausführungsform werden die Gruppen einfach in einem Array als Cluster bzw. Ansammlung angeordnet, ohne dass Grenzen zwischen den Gruppen ersichtlich werden, wobei jedoch generell die Reihenfolge jeweils der Merkmalsebenen in zueinander senkrechten Richtungen beibehalten wird. Wenn mehr als zwei Merkmale ausgewählt sind, können andere Verfahren geeigneter sein, um es dem Nutzer zu ermöglichen, die Gruppen zu betrachten, etwa in Form einer hierarchischen Anzeige.
  • Bei S116 wählt ein Nutzer einen der Cluster aus, der ein oder mehrere interessierende Bilder aufweist, die dann auf der GUI angezeigt werden. Ein Anwender kann eine der Gruppen für eine nähere Untersuchung auswählen, beispielsweise durch Anklicken der Gruppe aus Bildern oder eines Bereichs, in welchem die Bildergruppe angeordnet ist. Daraufhin wird die Gruppe aus ausgewählten Bildern auf einem Teil des Bildschirms dargestellt. Die verbleibenden Gruppen werden aus der Anzeige entfernt.
  • Es kann ein gleichzeitiges Betrachten der Dokumentenschablone bzw. Dokumentenvorlage 58, beispielsweise benachbart zu der dargestellten Gruppe aus Bildern vorgesehen werden durch Auswahl durch einen Gestaltungsentwurfsknopf 142. Der Nutzer kann eines der ausgewählten Bilder in einen geeigneten Platzhalter 60 auf der Vorlage bzw. Schablone hineinziehen und dort ablegen, wie dies auf der Bildschirmdarstellung 88 in 6 gezeigt ist. Alternativ oder zusätzlich können ausgewählte Bilder zunächst in ein Lichtfeld 110 gezogen werden und werden darin dargerstellt, bis der Nutzer entscheidet, eines oder mehrere Bilder in das Lichtfeld auf der Vorlage bzw. Schablone 58 zu ziehen und dort abzulegen. Das Lichtfeld 110 kann ebenfalls zuvor ausgewählte Bilder enthalten, die während früherer Phasen gespeichert wurden.
  • Durch die Auswahl des Nutzers kann das Verfahren zum Schritt S100 zurückkehren, in welchem der Nutzer unterschiedliche Kombinationen an ästhetischen/emotionalen Merkmalen auswählen kann, oder er kann zum Schritt 106 zurückkehren, in welchem eine neue Inhaltssuche eingegeben wird.
  • Bei S118 kann der Nutzer ggf. wünschen, Bilder anzuschauen, die ähnlich sind zu einem oder mehreren jener dargestellten Bilder in der ausgewählten Gruppe. In einer Ausführungsform ist der Anwender in der Lage, eine Anzahl k an nächsten Nachbarn auszuwählen, die aus der Datenbank abgerufen werden, oder er kann anfordern, dass näherungsweise Duplikate ermittelt werden. Diese Nachbar-Duplikate werden aus der Datenbank auf der Grundlage von Kriterien ausgewählt, die unterschiedlich sind zu jenen in der dargestellten Gruppe. Auf diese Weise können Bilder, die nicht mit der gleichen inhaltsbasierten Markierung versehen sind, abgerufen und dargestellt werden. Beispielsweise können die nächsten Nachbarn auf der Grundlage der Ähnlichkeit ihrer Farbhistogramme abgerufen werden. Es können folglich Bilder mit ähnlichen Farben dargestellt werden, selbst wenn ihr Inhalt ganz unterschiedlich ist. Nahezu gleiche Bilder bzw. Duplikate können auf der Grundlage der Gleichheit von Merkmalen auf niedriger oder hoher Ebene im Vergleich zu jenen von einen oder allen Bilder in der Gruppe ermittelt werden.
  • Es gibt diverse Verfahren zum Erkennen der K-nächsten Nachbarn (KNN). Beispielsweise können Farbhistogramme verwendet werden. Beispielsweise wird der Bereich von jeweils rot, grün und blau in 16 Unterstufen quantisiert. Das Histogramm des Bildes wird in diesem quantisierten Raum ermittelt. Die K-nächsten Nachbarn werden auf der Grundlage von Ähnlichkeiten ihrer Histogramme ermittelt. Verfahren zum Erkennen der nächsten Nachbarn sind beispielsweise in Matthieu Guillaumin, Thomas Mensik, Jakob Verbeek und Cordelia Schmid, TagProp: diskriminatives Erlernen von Maßen in Modellen mit nächsten Nachbarn für die Bildautoerkennung, ICCV 2009.
  • Bei S120 wird, wenn der Nutzer mit der Dokumentenvorlage zufrieden ist, die gefüllte Vorlage bzw. Schablone 62 ausgegeben, d. h. beispielsweise zu einem Drucker, zu einer Anzeige 72 oder zu einem anderen Ausgabegerät, oder die Dokumentenvorlage wird im Speicher für eine spätere Abfrage gespeichert. Im Falle, dass ein Nutzer einfach ein Bild oder eine Bildergruppe auswählt, können das bzw. die Bilder mit einer speziellen Markierung für ein späteres Abrufen markiert werden, oder die Bilder können aus dem System herausgenommen werden.
  • Das Verfahren endet bei S122.
  • Das anschauliche Verfahren kann auf einem oder mehreren Computer für Allgemeinzwecke, auf speziellen Computern bzw. einem speziellen Computer, einem programmierten Mikroprozessor oder einer Mikrosteuerung oder peripheren integrierten Schaltungselementen, einem ASIC oder einer anderen integrierten Schaltung, einem digitalen Signalprozessor, einer fest verdrahteten Elektronik oder einer logischen Schaltung, etwa einer Schaltung mit diskreten Elementen, einem programmierbaren Logikbauelement, etwa einem PLD, einem PLA, einem FPGA, einer graphischen Karte CPU (GPU) oder einem PAL oder dergleichen eingerichtet werden. Im Allgemeinen kann ein beliebiges Gerät, das in der Lage ist, einen finiten Zustandsautomaten bzw. eine finite Zustandsmaschine einzurichten, die wiederum in der Lage ist, das in 3 gezeigte Flussdiagramm einzurichten, verwendet werden, um das Verfahren einzurichten, so dass ein Nutzer beim Navigieren bzw. Bearbeiten eines Bilddatensatzes unterstützt wird.
  • Das in 3 gezeigte Verfahren kann in einem materiellen Computerprogrammprodukt oder Produkten eingerichtet werden, das auf einem Computer ausführbar ist. Das Computerprogrammprodukt kann ein materielles computerlesbares Speichermedium sein, auf welchem ein Steuerprogramm aufgezeichnet ist, etwa eine Diskette, eine Festplatte oder dergleichen, die ausgebildet sind, das Verfahren auszuführen. Übliche Formen von computerlesbaren Medien enthalten beispielsweise Disketten, flexible Disketten, Festplatten, Magnetbänder oder andere magnetische Speichermedien, CD-ROM, DVD oder andere optische Medien, ein RAM, einen PROM, einen EPROM, einen FLASH-EPROM oder andere Speicherchips oder Speicherkarten, oder ein anderes materielles Medium, aus welchem ein Computer auslesen und Daten verwenden kann. Das Computerprogrammprodukt kann in dem Computer 40 integriert sein (beispielsweise eine interne Festplatte oder ein RAM), oder kann separat dazu vorgesehen sein (beispielsweise als eine externe Festplatte, die funktional mit dem Computer 40 verbunden ist), oder das Produkt kann separat sein und kann über ein digitales Datennetzwerk angesprochen werden, etwa ein Nahbereichsnetzwerk (LAN) oder das Internet (beispielsweise als ein redundantes Array aus preisgünstigen oder unabhängigen Disketten (RAID) oder einem anderen Netzwerkserverspeicher, der indirekt von dem Computer 40 über ein digitales Netzwerk angesprochen werden kann). Alternativ kann das Verfahren in einer übertragbaren Trägerwelle implementiert sein, in der das Steuerprogramm als ein Datensignal unter Anwendung von Übertragungsmedien eingebettet ist, etwa als akustische Wellen oder Lichtwellen, etwa jene, wie sie während der Nutzung von Funkwellenkommunikationen oder Infrarotdatenkommunikationsereignissen und dergleichen erzeugt werden.
  • Diverse Aspekte des Verfahrens und der Vorrichtung werden nunmehr detaillierter beschrieben.
  • Wie zuvor beschrieben ist, ermöglichen das anschauliche System 18, das Verfahren und die graphische Anwenderschnittstelle 70 das Navigieren und Durchsuchen einer Datenbank 10 aus kreativen Bestandteilen 54. Ein Vorteil des Systems 80 gegenüber bestehenden Systemen besteht darin, dass es eine Kombination aus bestehenden inhaltsbasierten Suchtechniken mit ästhetischen/emotionalen Merkmalen ermöglicht. Anwender bzw. Nutzer können Suchräume erzeugen, indem eine spezielle semantische Kategorie (beispielsweise Blumen) ausgewählt wird und indem Bilder in der Kategorie interativ unter Anwendung unterschiedlicher Kombinationen ästhetischer und/oder emotionaler Merkmale (beispielsweise Licht, Kontrast, Verschmieren, Farbe, Bewertung, Aktivität) untersucht werden.
  • In der anschaulichen Ausführungsform des Systems 80 werden die Merkmale im Voraus berechnet (d. h. vor dem Absenden einer Anfrage durch den Nutzer). Als Beispiel seien die folgenden Merkmale verwendet.
  • 1. Inhaltsbasierte Merkmale
  • In der anschaulichen Ausführungsform ist der Nutzer in der Lage, zunächst eine Suche auf der Grundlage eines semantischen Inhalts auszuführen und nachfolgend die abgerufenen Bilder mittels unterschiedlicher Merkmale, etwa ästhetischer Eigenschaften oder Emotionen der Bilder zu durchsuchen. Die Klassenbezeichnungen für die inhaltsbasierten Merkmale können gemeinsame visuelle Objektkategorien, etwa Blumen, Landschaften, Meereslandschaften, Himmel, Fahrzeuge, Leute, Gebäude, Tiere, etc. und/oder spezielle Themen, etwa Party, Hochzeit, Sportereignisse (Sommer, Winter und dergleichen) enthalten. In einer Ausführungsform können die Klassen speziell so zugeschnitten werden, dass diese speziellen interessierenden Gebiete des graphischen Gestalters entsprechen. Die Anzahl der inhaltsbasierten Klassen ist nicht beschränkt, beträgt jedoch mindestens zwei und kann beispielsweise ungefähr 5 bis 50 oder mehr betragen.
  • Allgemein können Kategorisierungstechniken auf der Grundlage eines Bildinhalts auch eine Gruppe aus Operationen mit einschließen, die Bildeingabewerte in üblicherweise verständliche Beschreibungen umwandeln. Automatisierte Techniken wurden entwickelt, die Schlüsselwörter einem Bild auf der Grundlage seines Inhalts auf höherer Ebene zuordnen. Diese Techniken können die gesamte Darstellung oder einen Schwerpunkt von Objekten innerhalb des Bildes analysieren. Die Schlüsselwortzuordnung kann mit einem Konfidenzwert verknüpft sein. Das Bild wird dann mit Schlüsselwerten bezeichnet, für die der Konfidenzwert einen Schwellwertkonfidenzwert überschreitet.
  • Als ein Beispiel für das Markieren von Bildern, die für eine textbasierte Suche geeignet sind, können Bilddarstellungen, etwa Fisher-Darstellungen, mittels eines generischen visuellen Klassifizierers (GVC) verwendet werden, der automatisch die Bilder mit vordefinierten und vortrainierten Kategorien bezeichnet.
  • In dieser Vorgehensweise werden für jeden Bereich einer Gruppe aus Bereichen des Bildes Bilddeskriptoren auf unterer Ebene extrahiert, beispielsweise als ein Merkmalsvektor. Für jeden Bereich wird eine Darstellung (beispielsweise ein Fisher-Vektor) auf der Grundlage der extrahierten Bilddeskriptoren auf unterer Ebene, beispielsweise durch Verkettung, erzeugt. Es wird eine Darstellung des Bildes auf höherer Ebene extrahiert auf Grundlage der Bereichsdarstellungen oder der Bilddeskriptoren unterer Ebene. In der beispielhaften Ausführungsform ist die Darstellung auf höherer Ebene ein Vektor (beispielsweise ein Fisher-Vektor).
  • In einer Ausführungsform wird ein visuelles Vokabular für jede Merkmalsart unter Anwendung Gaussischer Mischmodelle aufgebaut. Die Modellierung des visuellen Vokabulars in den Merkmalsraum mit einem GMM kann gemäß dem Verfahren ausgeführt werden, das in F. Perronnin, C. Dance, G. Csurka und M. Bressan, beschrieben ist, „angepasste Vokabularien für generische visuelle Kategorisierung", ECCV (2006). Während einige Vorgehensweisen ein einzelnes visuelles Vokabular, das allgemein auf der gesamten Übungsmenge aufgebaut ist, verwenden, wird in anderen Ausführungsformen das Leistungsvermögen verbessert, indem das visuelle Vokabular (universell), das auf die gesamte Übungsmenge trainiert wurde, auf jede Kategorie unter Anwendung kategoriespezifischer Bilder angepasst wird. Ein Bild ist dann durch eine Gruppe aus zweiteiligen Histogrammen, d. h. eine pro Kategorie, charakterisiert, wobei jedes Histogramm beschreibt, ob der Bildinhalt durch das universelle Vokabular am besten moduliert wird, oder durch das entsprechende Kategorienvokabular. Ein derartiges Verfahren ist in der US-Offenlegungsschrift 20070005356 beschrieben.
  • Es bestehen diverse Verfahren zum Erzeugen einer Darstellung auf höherer Ebene eines Bildes, die hierin verwendet werden können, wie dies beispielsweise in der US-Offenlegungsschrift 2007/0005356 ; 2007/0258648 ; 2008/0069456 ; und G. Csurka, C. Dance, L. Fan, J. Willamowski und C. Bray in „Visuelle Kategorisierung mit Taschen und Schlüsselpunkten", ECCV-Workshop für statistisches Lernen in der Computerdarstellung (2004); und F. Perronnin und C. Dance „Fisher-Kernel auf visuellen Vokabularien für die Bildkategorisierung in Proc, IEEE-Konferenz für Computerdarstellung und Mustererkennung (CVPR), Minneapolis, MN, USA (Juni 2007) beschrieben ist. Diese letzte Referenz und die US-Offenlegungsschrift 2007/0258648 beschreiben eine Fisher-Kernel-(FK)Darstellung auf der Grundlage von Fischer-Vektoren.
  • Fisher-Vektoren und Fischer-Kernel-Darstellungen sind Beispiele von Arten für Darstellungen auf höherer Ebene, die hierin verwendet werden können. In einer weiteren Ausführungsform wird eine „Ansammlung aus visuellen Wörtern” (BOV) Darstellung verwendet, wie dies in der zuvor genannten US-Offenlegungsschrift 2008/0069456 und in der Schrift 2007/0005356 beschrieben ist. In der Vorgehensweise auf der Grundlage von BOV wird das Bild zunächst mittels eines Histogramms aus visuellen Wortanzahlen charakterisiert. Das visuelle Vokabular wird automatisch aus einer Übungsmenge an Bildern erzeugt.
  • Die Bilddeskriptoren auf niedriger Ebene, die aus den Bereichen in all diesen Modellen extrahiert werden, sind typischerweise quantitative Werte, die Aspekte des entsprechenden Bereichs zusammenfassen oder charakterisieren, etwa ein räumlicher Frequenzinhalt, eine mittlere Intensität, Farbeigenschaften (im Falle von Farbbildern), Gradientenwerte und/oder andere charakteristische Werte. Die Bilddeskriptoren auf niedriger Ebene werden lokal aus interessierenden Gebieten (ROI) herausgelöst. Das ROI kann ermittelt werden durch Bildsegmentierung, durch Anwenden spezifischer interessierende Punktdetektoren, durch Betrachten eines regulären Gitters oder einfach durch zufällige Auswahl von Bildbereichen. In einigen Ausführungsformen werden mindestens ungefähr 50 Bilddeskriptoren auf niedriger Ebene aus jedem Bereich bzw. Bildfleck herausgelöst; jedoch ist die Anzahl der Bilddeskriptoren, die herauslösbar ist, nicht auf eine spezielle Anzahl oder eine spezielle Art von Bilddeskriptoren beschränkt, beispielsweise können Tausend oder eine Million Bilddeskriptoren niedriger Ebene abhängig von den Rechnerressourcen herausgelöst werden. In der anschaulichen Ausführungsform umfassen die Bilddeskriptoren niedriger Ebene lokale (beispielsweise Pixel) Farbstatistiken und/oder die Textur. Für Farbstatistiken können lokale RGB-Statistikwerte (beispielsweise Mittelwert und Standardwertabweichung) berechnet werden. Für die Textur können Gradientenorientierungen (die eine Änderung in der Farbe repräsentieren) für jeden Bereich als ein Histogramm (SIFT-artige Merkmale) berechnet werden. In der anschaulichen Ausführungsform werden zwei (oder mehr) Arten an Bilddeskriptoren niedriger Ebene, etwa Farbe und Textur, separat herausgelöst und die Darstellung auf höherer Ebene beruht auf einer Kombination zweier Fischer-Vektoren, wobei einer für jede Merkmalsart vorgesehen ist. In anderen Ausführungsformen werden skalare invariante Merkmalstransformastions-(SIFT)Deskriptoren für jeden Bereich berechnet (wie dies durch Lowe in „Objekterkennung aus lokalen skaleninvarianten Merkmalen", ICCV (internationale Konferenz für Computerdarstellungen), 1999 beschrieben ist. SIFT-Deskriptoren sind Mehrfachbilddarstellungen einer Bildnachbarschaft, etwa Gauss-Ableitungen, die beispielsweise an acht Orientierungsebenen über ein 4 × 4 Gitter aus räumlichen Positionen berechnet sind, woraus sich ein 128-dimensionaler Vektor ergibt (d. h., 128-Bilddeskriptoren pro Merkmalsvektor in diesen Ausführungsformen). Andere Deskriptoren oder Merkmalsextraktionsalgorithmen können ebenfalls eingesetzt werden, um Bilddeskriptoren niedriger Ebene aus den Bildbereichen herauszulösen. Beispiele derartiger anderer geeigneter Bilddeskriptoren sind dargestellt in K. Mikolajczyk und C. Schmid „Leistungsbewertung lokaler Deskriptoren" Proceedings der Konferenz für Computerdarstellung und Mustererkennung (CVPR), Madison Wisconsin, USA, Juni 2003, wobei diese Schrift vollständig durch Bezugnahme mit eingeschlossen ist.
  • Ein Klassifizierer (der eine Gruppe aus beliebigen Klassifizierern umfassen kann) wird auf den Bilddarstellungen, beispielsweise Fischer-Vektoren und den Bezeichnungen bzw. Markierungen der Übungsbilder 56 eingeübt. In einer Ausführungsform wird ein maschinenlernendes Klassifizierungsverfahren angewendet, etwa ein unterstützender Vektormaschinenklassifizierer(SVM)-Support Vektor-Maschine. In anderen Ausführungsformen ist der eingeübte Klassifizierer ein beliebiger unterschiedlicher Klassifizierer (d. h. ein Klassifizierer, der Klassengrenzen modelliert) etwa Fischer-Kernel (FK) oder neurale Netzwerke. Der eingeübte Klassifizierer wird dann verwendet, den noch nicht bezeichneten Bildern Bezeichnungen bzw. Markierungen zuzuordnen, die die Wahrscheinlichkeit eines Bildes darstellen, dass dieses in einer Klasse ist. Oder der Klassifizierer ordnet eine binäre Ja/Nein-Markierung zu, die durch die Schwellwertbildung des Wahrscheinlichkeitswertes erzeugt wird.
  • Die inhaltsbasierte Markierung von Bildern ist nicht auf diese Verfahren beschränkt. Andere Verfahren für inhaltsbasierte Markierungen sind beschrieben, beispielsweise in Matthieu Guillaumin, Thomas Mensink, Jakob Verbeek und Coderila Schmid, TagProp: Unterscheidungsmetrikerlernung in nächsten Nachbarmodellen für die Bildautokennzeichnung, ICCV 2009; Ondrej Chum, Michal Perdoch und Jiri Matas, geometrische Minimum-Zellen bzw. Hashing: Finden einer dicken Nadel in einem Heuhaufen, CVPR 2009; Herve Jegou und Matthijs Douze und Cordelia Schmid, Hamming-Einbettung und schwache geometrische Konsistenz für Bildsuche auf großem Maßstab, ECCV 2008; und Jorma Laaksonen, Markus Koskela und Erkki Oja, PicSOM selbsorganisierende Bildermittlung mit MPEG-7 Inhaltsbeschreibungen, IEEE-Transaktionen auf neuralen Netzwerken, Band 13, Nr. 4, 2002.
  • Obwohl in der beispielhaften Ausführungsform die inhaltsbasierte Markierung angewendet wird, bevor der Nutzer eine Anfrage eingibt, ist es auch möglich, dass der Nutzer eine Gruppe aus Bildern auswählt, beispielsweise aus einer interaktiv verfügbaren Datenbank, um die Datenmenge nach dem Eingeben der Textanfrage zu erstellen. In diesem Falle kann die inhaltsbasierte Markierung von Bildern gemäß einer Kategorie ausgeführt werden, nachdem die Textanfrage eingespeist ist.
  • 2. Emotionale und ästhetische Merkmale
  • Für jedes der anderen Merkmale kann die Datenmenge 10 aus Bildern quantisiert werden, d. h. einer Gruppe aus Partitionen zugeordnet werden, wobei die Partitionen den Wertebereich für dieses Merkmal abdecken. Die Partitionen für ein gegebenes Merkmal enthalten jeweils eine gleiche Anzahl an Bildern oder der Merkmalsraum kann anderweitig gemäß den Merkmalswerten unterteilt werden. Beispielsweise werden für ein Farbmerkmal „rot” alle Bilder in der Sammlung mit einem Wert für die Rotton versehen auf der Grundlage von beispielsweise dem gemittelten Pixelrotfarbton (in einem RGB-Farbraum). Die Bilder mit dem höchsten Rottonwert werden einer ersten Ebene zugeordnet, die nächste Gruppe einer zweiten Ebene usw., wobei dies von der Anzahl der Quantisierungsebenen abhängt, in die die Bilder unterteilt sind. Die Anzahl der Quantisierungsebene kann von einem Merkmal zu einem anderen variieren oder kann für alle Merkmale gleich sein. Die Quantisierungsebenen von ungefähr 2 bis 10 pro Merkmal, beispielsweise mindestens 3, können effizient angewendet werden, wobei dies von der Anzahl der Bilder in der Datenmenge und der Anzahl der auswählbaren Merkmale abhängt. Beispielsweise kann ein zweidimensionales Feld mit drei Quantisierungsebenen in jeder Dimension erzeugt werden, wodurch das Erzeugen eines 3 × 3-Feldes (9 Gruppen) möglich ist, wenn zwei Merkmale ausgewählt sind.
  • In der anschaulichen Ausführungsform werden emotionale und ästhetische Merkmale direkt auf Bilddaten bestimmt, ohne dass es notwendig ist, emotionale oder ästhetische Konzeptklassifizierer einzuüben. Die Konzepte können äußerst subjektiv und schwer zu lernen sein. Das Fällen einer starken Entscheidung bei der Markierung eines Bildes mit derartigen Konzepten besitzt Grenzen. Daher werden anstelle des Markierens in der beispielhaften Ausführungsform die emotionalen oder ästhetischen Konzepte als Merkmale auf höherer Ebene betrachtet (d. h. diese beruhen auf Merkmale niedriger Ebene, die aus den Bildern selbst herausgelöst wurden). Es werden Werte den Bildern auf der Grundlage dieser Merkmale höherer Ebene zugeordnet, die quantisiert werden können.
  • Das anschauliche Verfahren bietet die Flexibilität, mittels unterschiedlicher Aktionen dieser Merkmale zu durchsuchen, ohne dass die Notwendigkeit für eine hohe Genauigkeit bei der ästhetischen oder emotionalen Kategorisierung besteht oder dass die Notwendigkeit besteht, unterschiedliche Aspekte in einem einzelnen Bildwert zu kombinieren.
  • 2a. Ästhetische Merkmale
  • Beispiele ästhetischer Merkmale, die verwendet werden können, beinhalten die Helligkeit, den Kontrast, die Verschmierung, die Farbtönung, die Bildabmessungen und dergleichen. Eine Gruppe aus Merkmalen wird zunächst über die Merkmalsart ausgewählt. Beispielsweise können für die gesamte Merkmalsart „Farbe” ausgewählte Merkmale rot, blau, grün, etc. enthalten. Es gibt diverse Verfahren zum Quantisieren von Merkmalswerten von Bildern, die zunächst auf einer Analyse aus Pixelfarbwerten beruhen können. Siehe beispielsweise die US-Offenlegungsschrift 2006/0164664 mit dem Titel „Farbquantisierung und Verfahren dazu und Durchsuchungsverfahren unter Anwendung dieser Verfahren”, von Lee, et. al, wobei diese Offenbarung hierin in ihrer Gesamtheit mit aufgenommen ist.
  • Techniken zum Bestimmen ästhetischer Merkmale sind beispielsweise in den US-Patenten 5,357,352 , 5,363,209 , 5,371,615 , 5,414,538 , 5,40,217 ; 5,450,502 , 5,802,214 , 5,347,374 und 7,031,534 beschrieben und diese können generierende Statistikwerte, etwa Maßzahlen für das Rauschen oder die Luminanz und die Farbintensitätsverteilungen in Bezug auf eine Version mit geringer Auflösung des Bildes enthalten. Das US-Patent 5,414,538 offenbart beispielsweise das Empfangen des eingespeisten Bildes, das im Hinblick auf rot-grün-blau (RGB) Signale definiert ist, das Konvertieren der RGB-Signale in entsprechende Luminanz-Farbintensitätsignale mit mindestens einem Signal, das die gesamte Bildintensität repräsentiert, und das Vergleichen des Intensitätssignals mit einem oberen und unteren Intensitätsschwellwertsignal, die die akzeptablen Niveaus an Helligkeit und Dunkelheit in dem Bild festlegen.
  • Die Helligkeit bezeichnet die Luminanz eines Bildes. Die Helligkeit ist der Durchschnitt der Helligkeitswerte in einem Pixel. Jeder Helligkeitswert kann berechnet werden, indem der Grauwert aus dem RGB eines Pixels berechnet wird, oder indem der RGB-Wert eines Pixels in einem Luminanzfarbraum, etwa HSV, umgewandelt wird, wobei der V-Wert die Helligkeit ist.
  • Der Kontrast bezeichnet die effiziente Verwendung des dynamischen Bereichs. (siehe beispielsweise das US-Patent 5,363,209 von Eschbach et al. für eine Diskussion von Verfahren zum Bestimmen des lokalen Kontrastes aus Luminanzfarbintensitätswerten, die in eine Anzahl L aus Quantisierungsebenen quantisiert werden). Der Kontrast kann bestimmt werden, indem ein kombiniertes Histogramm des roten, grünen und blauen Kanals des Bildes berechnet wird, indem die einzelnen Histogramme aufsummiert werden. Der Kontrast ist als die Breite der mittleren 98% des Inhalts des Histogramms zu verstehen. Siehe beispielsweise Van Ke, Xiaoou Tang und Feng Jing. Die Gestaltung von Merkmalen höherer Ebene für Photoqualitätsbewertungen, CVPR06 (Ke, et al.).
  • Die Sättigung bezeichnet die Klarheit farbiger Objekte in einem Bild. Eine Farbe mit mehr grau wird als geringer gesättigt erachtet, während eine helle Farbe, als eine mit wenig grau, als stark gesättigt erachtet wird. Die Sättigung einer Farbe kann die emotionale Reaktion auf einem Bild beeinflussen. Das System kann Farbsättigungswerte im HSV-Raum erkennen, wie dies beispielsweise in dem US-Patent 5,450,217 beschrieben ist, und kann einen quantisierten mittleren Sättigungswert für jedes Bild bereitstellen.
  • Die Bildverschmierung ist eine Form einer Bandbreitenverringerung, die typischerweise durch die relative Bewegung zwischen der Kamera und dem Original-Schauplatz hervorgerufen wird oder durch ein optisches System, das nicht fokusiert ist. Dieser Wert kann berechnet werden, indem ein Bild mittels eines Gauss-Filters geglättet wird, um das verschmierte Bild zu erhalten. Die Verschmierung ist proportional zur maximalen Frequenz eines Bildes, die ermittelt wird, indem die zweidimensionale Fourier-Transformation des verschmierten Bildes mit Schwellwerten ausgewertet wird. Siehe beispielsweise Ke, et al.
  • Der Farbton bezeichnet die erste Eigenschaft einer Farbe, die das Auge erkennt. Diese ist als der H-Wert in der HSF-Farbraumrepräsentation eines Pixels nach dem Umwandeln des RGB-Wertes eines Pixels in den HSV zu betrachten.
  • Die Bildabmessung bezeichnet die Anzahl an Pixeln in einem Bild. Diese ist zu berechnen, indem die Breite in Pixel mit der Höhe im Pixel eines Bildes multipliziert wird.
  • Andere Verfahren zum Zuordnen ästhetischer Werte zu Bildern können auf Klassifizierererlernungstechniken beruhen, beispielsweise durch Einüben eines Klassifizierers auf Bildern, die von Menschen als attraktiv oder nicht-attraktiv eingestuft wurden, so dass dies als ästhetische Werte für Bilder verwendet werden kann. Siehe beispielsweise Elena Fedorovskaya, Carman Neustaedter und Wei Hao, Bildharmonie für Verbraucherbilder, ICEP 2008; B. C. Davis und S. Lazebnik, Analyse menschlicher Attraktivität und Anwendung einer Kernel-Regressionsmanigfaltigkeit, ICIP 2008; Ritendra Datta, Dhiraj Joshi, Jia Li und James Z. Wang, Studieren der Ästhetik in Photographiebilder unter Anwendung eines Computeransatzes, ECCV 2006. Im Allgemeinen sind jedoch derartige Verfahren nicht notwendig, da relativ einfache statistisch basierte Merkmale zum Erzeugen eines gut nutzbaren Merkmalsrahmens adäquat sind.
  • Belichtung bezeichnet den Anteil an Licht, der auf den Kamerasensor einfällt, wenn das Photo aufgenommen wird. Dieser Wert ist gleich der Helligkeit.
  • Andere Merkmale, etwa Bilddynamik, Perspektive und Zusammensetzung werden ebenfalls hierin mit eingeschlossen.
  • 2b. Emotionsmerkmale
  • Beispiele von Emotionsmerkmalen sind die Bewertung und die Aktivität (siehe beispielsweise Omnia Report L4.2, Kiryl Bletsko, Amel Ezzaich, Emmanuel Dellandrea, Alexandre Saidi, Liming Chen, Klassifizierung von Multimediadokumenten, Livable Omnia 4.2, beispielsweise Anhänge beginnend auf Seite 21).
  • In einer Ausführungsform wird die Abhängigkeit zwischen Farbe und Emotion ausgenutzt, wobei es möglich ist, Bilder gemäß diversen Emotionsmerkmalen zu quantisieren auf der Grundlage ihrer vorherrschenden Farben (siehe beispielsweise L. C. Ou, M. R. Luo, A. Woodcock und A. Wright, eine Studie der Farbemotion und Farbpreferenz, in Color-Forschung und Anwendung, 29 (2004) Seiten 232–240; M. Solli und R. Lenz, emotionale Befriedigung in der Farbbilderzeugung, in Proc. schwedisches Symposium für Bildanalyse 2008; und M. Solli und R. Lenz, Farbemotionen für Bildklassifizierung und Abrufung in CGIV 2008).
  • In einer weiteren Ausführungsform werden Gesichtsausdrücke von Personen der Bilder erkannt und gemäß diversen Emotionsmerkmalen quantisiert, etwa als glücklich/unglücklich, ärgerlich/ruhig, etc. (siehe beispielsweise B. Fasel, J. Luettin, automatische Gesichtsausdrucksanalyse: ein Überblick, Mustererkennung, Volumen 36, Seiten 259–275, 2003; M. Pantic, L. J. M Rothkrantz, Expertensystem für automatisierte Analyse von Gesichtsausdrücken, ELSEVIER-Bild- und Visionsberechnung, Vol. 18, Seiten 881–905, 2000).
  • In einer weiteren Ausführungsform (beispielsweise unter Anwendung des Tellegen-Watson-Clark-Modells) wird ein separates Klassifizierermodell für jedes für mehreren von Emotionsmerkmalen eingeübt, wobei jedes Merkmal ein Paar aus entgegengesetzten Emotionen darstellt (angenehm/unangenehm, beteiligt/unbeteiligt, etc.), wobei Markierungen der bezeichneten Datenmengen und Deskriptoren, die aus den Bildern herausgelöst wurden, verwendet werden. Die eingeübten Klassifizierer können eine Maßzahl für jedes Bild für jedes Merkmal ausgeben, die dann verwendet wird, die Bilder einzustufen, beispielsweise Zuordnen von quanitisierten Werten oder einer Hierarchie zu den Bildern in der Datenmenge für jedes der Merkmale.
  • In anderen Verfahren können klassische Merkmale niedriger Ebene (Farbe, Gabor-Merkmale, SIFT-Merkmale) verwendet werden, um Emotionen aus manuell bewerteten Daten vorherzusagen.
  • Visualisierung
  • Auf Grundlage der zugeordneten Inhaltsmerkmale, ästhetischen Merkmale und emotionalen Merkmale kann der Anwender Räume erzeugen, indem einzelne Merkmale oder Kombinationen aus Merkmalen ausgewählt werden. Die Anzahl an Gruppen von angezeigten Bildern hängt von den Quantisierungsebenen für jedes ausgewählte Merkmal und der Anzahl an ausgewählten Merkmalen ab.
  • Ein typischer Suchablauf kann beinhalten:
    • 1. Das Erzeugen eines Suchraumes unter Anwendung eines oder mehrerer Merkmale (beispielsweise Inhalt, Inhalt + ästhetische Merkmale, etc.) (S108)
    • 2. Grobe Reorganisierung des Suchraumes auf der Grundlage anderer Merkmale, um eine bessere visuelle Kohärenz zu erreichen. (S112)
    • 3. Gezielte Durchsuchung des Suchraumes durch nahezu gleiche Bilder bzw. Duplikate oder durch die Visualisierung nächster Nachbarn (S118).
  • Um den Durchsuchungsprozess zu ermöglichen, gestattet das anschauliche System 80 eine Verfeinerung der Merkmalskombination des Suchraumes (beispielsweise der Ergebnisse einer Textsuchanfrage) in unterschiedlichen Kombinationen und unterschiedlichen Anzahlen. Wenn beispielsweise ein Anwender nach einem Bild mit blauem Himmel sucht, das in dem Betrachter ein positives Gefühl hervorruft, würde das Auswählen der Textanfrage „Himmel” zusammen mit den beiden Merkmalen „blau” und „Anerkennung” Bilder mit Himmel abrufen und diese in einer visuell kohärenten Weise anzeigen. Des weiteren ermöglicht die anschauliche Anwenderschnittstelle nicht nur eine Navigation durch kreative Inhalte, sondern unterstützt auch die Erzeugung eines visuellen Inhaltes, indem eine „kombinierte” Visualisierung des aktuellen Entwurfsdokuments (das eventuell Bildplatzhalter enthält) mit alternativ ausgewählten Bildern.
  • Ohne den Schutzbereich der anschaulichen Ausführungsform einschränken zu wollen, wird in dem folgenden Beispiel eine Verwendung des Systems 80 zum Erzeugen eines Dokuments beschrieben.
  • Beispiel
  • Mit Bezug zu 4 werden die Bilder in der Datenmenge 10 in einer kompakten Visualisierung hergestellt, wobei bis zu 350 kleine Bildchen (die in der Pixelauflösung reduziert und/oder als zugeschnittene Bilder vorhanden sind, die aus den gespeicherten Bilder in der Datenbank erzeugt werden) auf der gleichen Seite dargestellt werden können. Der Nutzer kann zunächst eine Textanfrage eingeben, indem ein Schlüsselwort in das Suchfeld 120 eingegeben wird oder indem eines aus dem Menü ausgewählt wird, etwa einem Auswahlmenü, das auf der GUI dargestellt ist. Es wird dann ein Inhaltssuchraum erzeugt. Wie beispielsweise in 4 gezeigt ist, kann der Nutzer eine Suchanfrage (beispielsweise „Blumen” in das Texteingabefeld 120 eingeben und kann auswählen, wie viele Bilder abzurufen sind (beispielsweise 150 Bilder), wobei eine Auswahleinrichtung bzw. ein Selektor 122 verwendet wird. Wenn die Klassifizierer probabilistisch sind, ruft das System 80 die 150 Bilder mit den höchsten zugeordneten Wahrscheinlichkeiten ab, dass diese Bilder von Blumen sind, und diese werden auf GUI-Anzeige 72 dargestellt. Beispielsweise zeigt 4 einen Teil der Untermenge der Bilder, die mittels der Textabfrage „Blume” erhalten werden.
  • Der Nutzer kann einen Rollbalken 124 zum Herunterrollen der gesamten Menge an abgerufenen Bildern verwenden, beispielsweise wenn die Anzahl der abgerufenen Bilder größer ist als die Anzahl der tatsächlich gleichzeitig anzeigbaren Bilder auf der Anzeige.
  • Um die Anfrage zu verfeinern, kann der Nutzer unter den ästhetischen und emotionalen Merkmalen auswählen, indem ein oder mehrere aus mehreren Merkmalsselektoren 126, 128, 130 betätigt werden. Der Nutzer kann dann entscheiden, beispielsweise Bilder zu gruppieren, indem ein rotes Farbmerkmal verwendet wird, und das rote Farbmerkmal kann ausgewählt werden unter Anwendung des Selektors für das Farbmerkmal 126. Bildergruppen, die in einer Dimension durch das rote Farbmerkmal in absteigender Reihenfolge von stärkeren Rot bis weniger roten Bildern sortiert sind, während gleichzeitig auf der GUI angezeigt, beispielsweise von links nach rechts und/oder von oben nach unten. In der anschaulichen Ausführungsform werden sechs Gruppen gleichzeitig in einem Array dargestellt.
  • Der Nutzer kann dann entscheiden, ein zweites Merkmal hinzuzufügen, etwa ein weiteres ästhetisches Merkmal, und er wählt beispielsweise ein Helligkeitsmerkmal unter Anwendung des Selektos für ästhetische Merkmale 128 aus. Es werden Gruppen aus Bildern in zwei Dimensionen sortiert: horizontal durch das ästhetische Helligkeitsmerkmal F1 und vertikal durch das rote Farbmerkmal F2, und die Bilder werden gleichzeitig auf der GUI-Anzeige 72 dargestellt, wie dies auf der Bildschirmdarstellung 86 in 5 gezeigt ist. Die Quanitisierungsebene des Merkmals F1 kann automatisch reduziert werden, um eine geeignete Anzahl an dargestellten Gruppen zu erhalten, wenn das Merkmal F2 ebenfalls ausgewählt ist. Wenn beispielsweise sechs Quantisierungsebenen für das erste Merkmal vorhanden sind, mit welchem Bilder in der Datenbank bezeichnet sind, können Paare benachbarter Quantisierungsebenen kombiniert werden, um damit drei Quantisierungsebenen zu erzeugen.
  • Wie aus 5 hervorgeht, zeigt jeder Bereich der Anzeige eine andere Gruppe aus Bildern, wobei jede Gruppe einer unterschiedlichen Kombination aus Quantisierungsebenen des ersten und zweiten ausgewählten Merkmals entspricht. Bilder, die in den Quantisierungsebenen der ausgewählten Merkmale liegen, werden somit in dem geeigneten Bereich der Anzeige dargestellt. In dem anschaulichen Array verringert sich die Anordnung gemäß den Merkmalswerten von links nach rechts und von oben nach unten, d. h. das Bild milder stärksten Rot und mit der höchsten Helligkeit liegt in der oberen linken Gruppe 92 und Bild mit dem geringsten Rotton und mit der geringsten Helligkeit liegt in der unteren rechten Gruppe 108. Beispielsweise enthält der Bereich 132 an der oberen linken Stelle der Anzeige jene Bilder in der Quantisierungsebene 1 für rot und 1 für die Helligkeit (d. h. starkes rot und große Helligkeit). Es sind nicht in allen Bereichen Bilder vorhanden. Beispielsweise ist der Bereich 134 leer, da keine Bilder in der Kategorie „Blume” in der Datenbank 10 vorhanden sind, die in der Quantisierungsebene 3 für das Merkmal „Helligkeit” und in der Quantisierungsebene 1 für das Merkmal „rot” liegen. Wie für die Bilder, die in 4 dargestellt sind, können die Gruppen aus Bildern separat gerollt werden, wenn es zu viele in einer Gruppe gibt, die gleichzeitig dargestellt werden können.
  • In der anschaulichen Ausführungsform kann ein Maximum eines Farbmerkmals gleichzeitig ausgewählt werden (etwa eines für rot, grün und für blau). Für das zweite Merkmal kann entweder ein weiteres ästhetisches Merkmal oder ein Emotionsmerkmal ausgewählt werden.
  • Ein drittes Merkmal kann ausgewählt werden, beispielsweise unter Anwendung des Emotionsmerkmalsselektors 130, wodurch ein dreidimensionales Array oder eine geeignete zweidimensionale Darstellung davon erzeugt wird. Alternativ kann der Nutzer entscheiden, eines oder beide, d. h. das erste und/oder das zweite Merkmal zu ändern, um die zweidimensionale Anzeige zu ändern.
  • Anstelle von Bildergruppen, die separat gezeigt sind, kann der Nutzer anfordern, dass die Gruppen einfach in einer Weise angeordnet werden, die ausgewählte Merkmale wiedergibt (beispielsweise können die Bilder mit dem stärksten Rotton in einer Gruppe an der oberen linken Stelle eines Arrays gesammelt angeordnet werden und die am wenigsten hellen Bilder werden in einer Gruppe an der unteren rechten Ecke gesammelt angeordnet, und die Grenzen zwischen den Gruppen werden nicht dargestellt). Der Nutzer kann dann auf den Ordnungsselektor 136 klicken, so dass die Bilder auf diese Weise dargestellt werden. Es sollte beachtet werden, dass die Bilder effizient durch diverse Kombinationen an Merkmalen (beispielsweise „Rotintensität” und „Kontrast”) gruppiert und angeordnet werden können.
  • Der Nutzer kann dann entscheiden, dass Bilder in einer der angezeigten Gruppen 92 die geeignete Farbe und Helligkeit für ein spezielles Dokument besitzen und kann dann auf diese Gruppe klicken, die dann auf der Anzeige dargestellt wird. Der Anwender kann auf das Lichtfeldsymbol 138 klicken, um ein Lichtfeld 110 hervorzubringen, in das eines der ausgewählten Bilder als Kandidat im Bild für die endgültige Auswahl gezogen werden kann. Der Nutzer kann dann einen Gestaltungsentwurfauswahlknopf 142 anklicken, der Zugang zu dem Dokument 58 bietet, das auf der Anzeige (6) darzustellen ist. Wie in der Bildschirmdarstellung 88 gezeigt ist, werden die ausgewählte Gruppen aus Bildern, das Lichtfeld 110 und die Dokumentenvorlage bzw. Schablone 58 gleichzeitig angezeigt. Der Nutzer kann auswählen, so dass er Nachbarn oder nahezu duplizierte Bilder angezeigt bekommt, indem auf die Auswahl an nächsten Nachbarn/Duplikaten (nicht gezeigt) geklickt wird. Alternativ können die nächsten Nachbarn/nahezu Duplikate abgerufen werden, indem auf ein ausgewähltes Bild geklickt wird.
  • Der Nutzer kann ein ausgewähltes Bild auf das Dokument 58 ziehen und dort ablegen (beispielsweise aus dem Lichtfeld 110), um zu sehen, ob das Bild die Entwurfserfordernisse erfüllt. Das ausgewählte Bild 54 wird der Dokumentenvorlage 58 hinzugefügt, die zuvor ausgewählte Bilder enthält, die in früheren Phasen gespeichert wurden. Nach dem Wiederholen des Vorganges ein oder mehrere Male zum Auffinden von mehr Bildern kann der Anwender auf den Gestaltungsentwurfsknopf 142 klicken, um die Vollständigkeit des gefüllten Dokuments 62 zu bestätigen, wie dies in den 2 und 6 gezeigt ist.
  • Das System bietet Graphikdesignern eine Schnittstelle zur Navigation durch eine sehr große Bilddatenbank, wobei dies unter früheren ausgewählten ästhetischer Merkmale, Farbmerkmale und/oder Emotionsmerkmale erfolgt. Bildverarbeitende Wissenschaftler können das System für einen schnellen visuellen oder qualitativen Test die Wirksamkeit ihrer gestalteten visuellen Merkmale durch vereinfachte Beobachtung einer großen Anzahl an abgerufenen Bildern verwenden.
  • Im Gegensatz zu bestehenden Suchverfahren, die auf Textsuchanfragen beruhen, erlaubt das vorliegende System eine Verfeinerung der Suche durch Parametrisierung der Anfrage. Beispielsweise kann der Nutzer den Grad der Helligkeit und/oder Rotintensität festlegen. Auch ist die visuelle Kohärenz der Ergebnisse hoch und die Suchraumdurchsuchung wird sehr einfach – der Nutzer kann einfach die Gruppe auswählen, die am Wahrscheinlichsten erscheint, dass sie interessierende Bilder enthält, und er kann durch kleine Bildchen die Bilder in der Gruppe rasch durchgehen oder er kann die Anzeige mit der ausgewählten Gruppe an Bildern füllen. Wenn der Anwender in einem speziellen kleinen Bild interessiert ist, wird das entsprechende Bild sowie seine nächsten benachbarten Bilder dargestellt.
  • Das anschauliche Navigationssystem besitzt diverse Anwendungszwecke. Beispielsweise stellt es für Graphikdesigner eine Schnittstelle zur Navigation durch eine sehr große Bilddatenbank bereit, wobei diese Navigation durch ausgewählte ästhetische Merkmale, Farbmerkmale und Emotionsmerkmale geleitet ist. Bildverarbeitungswissenschaftler können ebenfalls das System nutzen, beispielsweise ermöglicht es einen schnellen, visuellen, qualitativen Test der Wirksamkeit gestalteter visueller Merkmale durch Beobachtung einer großen Anzahl an abgerufenen Bildern.
  • Anwendungen des anschaulichen Systems und des Verfahrens beinhalten die 1 zu 1 Klassifizierung und die direkte Nachrichtenvermarktung. Die Erzeugung eines an Multimedien angereicherten Dokuments ergibt diverse Herausforderungen im Hinblick auf die Sicherstellung eines geeigneten ästhetischen Niveaus auf Grund des Anteils an Inhalt, den sie enthalten. Das anschauliche System genügt den Erfordernissen für die Auswahl geeigneter Einträge in einer Datenbank an kreativen Bildern. Das Ausdrucken bzw. Darstellen von Unternehmensmarktdaten ist nicht die einzige Anwendung des Systems und Verfahrens. Andere Anwendungen, etwa die Inhaltsverwaltung von Bildern und Dokumenten oder die Visualisierung von Dokumentenbildern/Photographiedatensätzen und dergleichen kann ebenfalls effizient unter Anwendung des Systems und Verfahrens erfolgen.
  • Es gilt zu beachten, dass diverse der zuvor offenbarten anderen Merkmale und Funktionen oder Alternativen davon wünschenswerter Weise in viele andere unterschiedliche Systeme oder Anwendungen hineinkombiniert werden können.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 20070005356 [0071]
    • US 2007/0005356 [0072, 0073]
    • US 2007/0258648 [0072, 0072]
    • US 2008/0069456 [0072, 0073]
    • US 2006/0164664 [0081]
    • US 5357352 [0082]
    • US 5363209 [0082, 0084]
    • US 5371615 [0082]
    • US 5414538 [0082, 0082]
    • US 540217 [0082]
    • US 5450502 [0082]
    • US 5802214 [0082]
    • US 5347374 [0082]
    • US 7031534 [0082]
    • US 5450217 [0085]
  • Zitierte Nicht-Patentliteratur
    • Matthieu Guillaumin, Thomas Mensik, Jakob Verbeek und Cordelia Schmid, TagProp: diskriminatives Erlernen von Maßen in Modellen mit nächsten Nachbarn für die Bildautoerkennung, ICCV 2009 [0059]
    • F. Perronnin, C. Dance, G. Csurka und M. Bressan, beschrieben ist, „angepasste Vokabularien für generische visuelle Kategorisierung”, ECCV (2006) [0071]
    • G. Csurka, C. Dance, L. Fan, J. Willamowski und C. Bray in „Visuelle Kategorisierung mit Taschen und Schlüsselpunkten”, ECCV-Workshop für statistisches Lernen in der Computerdarstellung (2004) [0072]
    • F. Perronnin und C. Dance „Fisher-Kernel auf visuellen Vokabularien für die Bildkategorisierung in Proc, IEEE-Konferenz für Computerdarstellung und Mustererkennung (CVPR), Minneapolis, MN, USA (Juni 2007) [0072]
    • Lowe in „Objekterkennung aus lokalen skaleninvarianten Merkmalen”, ICCV (internationale Konferenz für Computerdarstellungen), 1999 [0074]
    • K. Mikolajczyk und C. Schmid „Leistungsbewertung lokaler Deskriptoren” Proceedings der Konferenz für Computerdarstellung und Mustererkennung (CVPR), Madison Wisconsin, USA, Juni 2003 [0074]
    • Matthieu Guillaumin, Thomas Mensink, Jakob Verbeek und Coderila Schmid, TagProp: Unterscheidungsmetrikerlernung in nächsten Nachbarmodellen für die Bildautokennzeichnung, ICCV 2009 [0076]
    • Ondrej Chum, Michal Perdoch und Jiri Matas, geometrische Minimum-Zellen bzw. Hashing: Finden einer dicken Nadel in einem Heuhaufen, CVPR 2009 [0076]
    • Herve Jegou und Matthijs Douze und Cordelia Schmid, Hamming-Einbettung und schwache geometrische Konsistenz für Bildsuche auf großem Maßstab, ECCV 2008 [0076]
    • Jorma Laaksonen, Markus Koskela und Erkki Oja, PicSOM selbsorganisierende Bildermittlung mit MPEG-7 Inhaltsbeschreibungen, IEEE-Transaktionen auf neuralen Netzwerken, Band 13, Nr. 4, 2002 [0076]
    • Van Ke, Xiaoou Tang und Feng Jing [0084]
    • Ke, et al [0086]
    • Elena Fedorovskaya, Carman Neustaedter und Wei Hao, Bildharmonie für Verbraucherbilder, ICEP 2008 [0089]
    • B. C. Davis und S. Lazebnik, Analyse menschlicher Attraktivität und Anwendung einer Kernel-Regressionsmanigfaltigkeit, ICIP 2008 [0089]
    • Ritendra Datta, Dhiraj Joshi, Jia Li und James Z. Wang, Studieren der Ästhetik in Photographiebilder unter Anwendung eines Computeransatzes, ECCV 2006 [0089]
    • Omnia Report L4.2, Kiryl Bletsko, Amel Ezzaich, Emmanuel Dellandrea, Alexandre Saidi, Liming Chen, Klassifizierung von Multimediadokumenten, Livable Omnia 4.2, beispielsweise Anhänge beginnend auf Seite 21 [0092]
    • L. C. Ou, M. R. Luo, A. Woodcock und A. Wright, eine Studie der Farbemotion und Farbpreferenz, in Color-Forschung und Anwendung, 29 (2004) Seiten 232–240 [0093]
    • M. Solli und R. Lenz, emotionale Befriedigung in der Farbbilderzeugung, in Proc. schwedisches Symposium für Bildanalyse 2008 [0093]
    • M. Solli und R. Lenz, Farbemotionen für Bildklassifizierung und Abrufung in CGIV 2008 [0093]
    • B. Fasel, J. Luettin, automatische Gesichtsausdrucksanalyse: ein Überblick, Mustererkennung, Volumen 36, Seiten 259–275, 2003 [0094]
    • M. Pantic, L. J. M Rothkrantz, Expertensystem für automatisierte Analyse von Gesichtsausdrücken, ELSEVIER-Bild- und Visionsberechnung, Vol. 18, Seiten 881–905, 2000 [0094]

Claims (10)

  1. Verfahren zum Unterstützen eines Nutzers bei der Navigation durch einen Bilddatensatz mit: Empfangen einer Textanfrage eines Nutzers; Abrufen von Bildern in Reaktion auf die Textanfrage aus einem Bilddatensatz; Ermöglichen des Empfangens der Auswahl des Nutzers eines ersten Merkmals, das aus einer Gruppe verfügbarer Merkmale ausgewählt ist; Ermöglichen des Empfangens der Auswahl des Nutzers eines zweiten Merkmals, das aus der Gruppe verfügbarer Merkmale ausgewählt ist; und Darstellen zumindest einiger der abgerufenen Bilder auf der graphischen Anwenderschnittstelle gleichzeitig in einer Anordnung, wodurch die Anordnung von Bildern unterschiedliche Ebenen des ersten Merkmals wiedergibt, wenn nur ein erstes Merkmal ausgewählt ist, und wobei die Anordnung aus Bildern unterschiedliche Kombinationen an Ebenen des Nutzer ausgewählten ersten und zweiten Merkmals wiedergibt, wenn ein erstes und ein zweites Merkmal ausgewählt sind.
  2. Verfahren nach Anspruch 1, wobei das Darstellen umfasst: Darstellen mindestens einiger der abgerufenen Bilder auf der graphischen Anwenderschnittstelle gleichzeitig in Gruppen, wodurch jede dargestellte Gruppe aus Bildern einer unterschiedlichen Kombination an Ebenen von Nutzer ausgewählten ersten und zweiten Merkmalen entspricht.
  3. Verfahren nach Anspruch 1, das ferner umfasst: Darstellen auf der graphischen Anwenderschnittstelle eines ersten Auswahlmittels zum Auswählen des ersten Merkmals aus einer ersten Gruppe aus Merkmalen und eines zweiten Auswahlmittels zum Auswählen des zweiten Merkmals aus einer zweiten Gruppe aus Merkmalen.
  4. Verfahren nach Anspruch 3, wobei die ersten Merkmale ästhetische Merkmale und die zweiten Merkmale Emotionsmerkmale sind.
  5. Verfahren nach Anspruch 3, das ferner umfasst: Ermöglichen, dass ein Nutzer ein drittes Merkmal aus einer dritten Gruppe aus Merkmalen auswählt, wodurch die dargestellten Bilder gemäß den ausgewählten mindestens zwei aus dem ersten, zweiten und dritten Merkmal gruppiert werden.
  6. Verfahren nach Anspruch 3, wobei die dargestellten Gruppen aus Bildern entsprechend zu Werten der ausgewählten Merkmale angeordnet werden.
  7. Computerprogrammprodukt mit einem materiellen Medium, das Befehle codiert, die beim Ausführen durch einen Computer das Verfahren nach Anspruch 1 ausführen.
  8. Navigationssystem mit einem Speicher, der Befehle enthält, um das Verfahren nach Anspruch 1 auszuführen, und mit einem Prozessor in Verbindung mit dem Speicher, um die Befehle auszuführen.
  9. Vorrichtung zur Navigation in einem Bilddatensatz, mit: einem Navigationssystem mit Befehlen, die in einem Speicher gespeichert sind, um: eine Textanfrage des Nutzers zu empfangen; Bilder in Reaktion auf die Anfrage aus einem zugehörigen Bilddatensatz abzurufen; die Auswahl des Nutzers eines ersten Merkmals, das aus einer Gruppe aus verfügbaren Merkmalen ausgewählt ist, zu empfangen; die Auswahl des Nutzers eines zweiten Merkmals, das aus der Gruppe aus verfügbaren Merkmalen ausgewählt ist, zu empfangen; und mindestens einige der abgerufenen Bilder auf einer zugehörigen graphischen Anwenderschnittstelle darzustellen, wodurch die dargestellten Bilder gemäß Ebenen des ausgewählten ersten und zweiten Merkmals gruppiert wenden; und einem Prozessor in Verbindung mit dem Speicher, um Befehle auszuführen.
  10. Verfahren zum Hinzufügen von Bildern zu einem Dokument mit: Speichern eines Dokuments mit mindestens einem Platzhalter zum Aufnehmen eines Bildes; Empfangen einer Textanfrage eines Nutzers; Abrufen von Bildern in Reaktion auf die Anfrage aus einem Bilddatensatz, wobei jedes der Bilder in dem Datensatz gemäß dem Inhalt klassifiziert ist und mit Merkmalswerten für jedes einer Gruppe aus Merkmalen verknüpft ist; Empfangen der Auswahl des Nutzers des ersten und zweiten Merkmals aus der Gruppe aus Merkmalen; Unterteilen der abgerufenen Bilder in Gruppen auf der Grundlage von Ebenen der ausgewählten ersten und zweiten Merkmale; und Darstellen zumindest einiger der abgerufenen Bilder auf der graphischen Anwenderschnittstelle; und Ermöglichen einer Auswahl durch den Nutzer eines Bildes aus den dargestellten Gruppen aus Bildern für das Einfügen in einem der Platzhalter.
DE102011003201A 2010-01-26 2011-01-26 System für kreative Bildnavigation und Untersuchung Withdrawn DE102011003201A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/693,795 2010-01-26
US12/693,795 US8775424B2 (en) 2010-01-26 2010-01-26 System for creative image navigation and exploration

Publications (1)

Publication Number Publication Date
DE102011003201A1 true DE102011003201A1 (de) 2011-12-15

Family

ID=44279036

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011003201A Withdrawn DE102011003201A1 (de) 2010-01-26 2011-01-26 System für kreative Bildnavigation und Untersuchung

Country Status (4)

Country Link
US (1) US8775424B2 (de)
JP (1) JP2011154687A (de)
DE (1) DE102011003201A1 (de)
FR (1) FR2955681A1 (de)

Families Citing this family (106)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8463053B1 (en) 2008-08-08 2013-06-11 The Research Foundation Of State University Of New York Enhanced max margin learning on multimodal data mining in a multimedia database
US9554111B2 (en) 2010-03-08 2017-01-24 Magisto Ltd. System and method for semi-automatic video editing
US9189137B2 (en) * 2010-03-08 2015-11-17 Magisto Ltd. Method and system for browsing, searching and sharing of personal video by a non-parametric approach
US9502073B2 (en) 2010-03-08 2016-11-22 Magisto Ltd. System and method for semi-automatic video editing
US8948515B2 (en) 2010-03-08 2015-02-03 Sightera Technologies Ltd. Method and system for classifying one or more images
US8675957B2 (en) * 2010-11-18 2014-03-18 Ebay, Inc. Image quality assessment to merchandise an item
US20120254790A1 (en) * 2011-03-31 2012-10-04 Xerox Corporation Direct, feature-based and multi-touch dynamic search and manipulation of image sets
US8774515B2 (en) 2011-04-20 2014-07-08 Xerox Corporation Learning structured prediction models for interactive image labeling
US9495698B2 (en) * 2011-06-01 2016-11-15 Theodore Michael Evers Continuum-based selection of product choice
US8813111B2 (en) 2011-08-22 2014-08-19 Xerox Corporation Photograph-based game
US8533204B2 (en) 2011-09-02 2013-09-10 Xerox Corporation Text-based searching of image data
US8699789B2 (en) 2011-09-12 2014-04-15 Xerox Corporation Document classification using multiple views
US8903182B1 (en) * 2012-03-08 2014-12-02 Google Inc. Image classification
CN103477317B (zh) * 2012-03-14 2017-05-17 松下电器(美国)知识产权公司 内容显示处理装置、内容显示处理方法以及集成电路
CN103365850B (zh) * 2012-03-27 2017-07-14 富士通株式会社 图像标注方法和图像标注装置
US8666992B2 (en) 2012-06-15 2014-03-04 Xerox Corporation Privacy preserving method for querying a remote public service
US20130346920A1 (en) * 2012-06-20 2013-12-26 Margaret E. Morris Multi-sensorial emotional expression
US9014510B2 (en) * 2012-06-29 2015-04-21 Intellectual Ventures Fund 83 Llc Method for presenting high-interest-level images
US9014509B2 (en) * 2012-06-29 2015-04-21 Intellectual Ventures Fund 83 Llc Modifying digital images to increase interest level
US8873812B2 (en) 2012-08-06 2014-10-28 Xerox Corporation Image segmentation using hierarchical unsupervised segmentation and hierarchical classifiers
US8879796B2 (en) 2012-08-23 2014-11-04 Xerox Corporation Region refocusing for data-driven object localization
US20150278298A1 (en) * 2012-11-06 2015-10-01 Nokia Corporation Apparatus and method for displaying image-based representations of geographical locations in an electronic text
US20140164988A1 (en) * 2012-12-06 2014-06-12 Microsoft Corporation Immersive view navigation
US9008429B2 (en) 2013-02-01 2015-04-14 Xerox Corporation Label-embedding for text recognition
US8879103B2 (en) 2013-03-04 2014-11-04 Xerox Corporation System and method for highlighting barriers to reducing paper usage
JP2014175733A (ja) * 2013-03-06 2014-09-22 Nikon Corp 画像再生装置および画像再生プログラム
US9800828B1 (en) * 2013-03-15 2017-10-24 Cox Communications, Inc. Method for pre-rendering video thumbnails at other than macroblock boundaries
US9582610B2 (en) * 2013-03-15 2017-02-28 Microsoft Technology Licensing, Llc Visual post builder
CN103268338B (zh) * 2013-05-16 2016-03-30 北京京东尚科信息技术有限公司 一种提供图像的方法和服务器装置以及终端装置
US9874749B2 (en) 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
US9439565B1 (en) * 2013-07-08 2016-09-13 Dermatopathology Laboratory of Central States, Inc. Wireless viewing of digital pathology specimens
US9683836B2 (en) * 2013-08-09 2017-06-20 Conduent Business Services, Llc Vehicle classification from laser scanners using fisher and profile signatures
US9082047B2 (en) 2013-08-20 2015-07-14 Xerox Corporation Learning beautiful and ugly visual attributes
US9412031B2 (en) 2013-10-16 2016-08-09 Xerox Corporation Delayed vehicle identification for privacy enforcement
US9235602B2 (en) * 2013-10-25 2016-01-12 Parham Aarabi Method, system and computer program for interactive spatial link-based image searching, sorting and/or displaying
US10386993B2 (en) * 2013-12-03 2019-08-20 Autodesk, Inc. Technique for searching and viewing video material
US9779284B2 (en) 2013-12-17 2017-10-03 Conduent Business Services, Llc Privacy-preserving evidence in ALPR applications
US9443169B2 (en) 2014-02-21 2016-09-13 Xerox Corporation Object classification with constrained multiple instance support vector machine
US9158971B2 (en) 2014-03-03 2015-10-13 Xerox Corporation Self-learning object detectors for unlabeled videos using multi-task learning
US9734869B2 (en) * 2014-03-11 2017-08-15 Magisto Ltd. Method and system for automatic learning of parameters for automatic video and photo editing based on user's satisfaction
KR102316846B1 (ko) * 2014-04-09 2021-10-25 삼성전자 주식회사 미디어 컨텐츠를 선별하는 방법 및 이를 구현하는 전자장치
US9639806B2 (en) 2014-04-15 2017-05-02 Xerox Corporation System and method for predicting iconicity of an image
US10409822B2 (en) * 2014-05-06 2019-09-10 Shutterstock, Inc. Systems and methods for presenting ranked search results
US10120880B2 (en) 2014-06-26 2018-11-06 Amazon Technologies, Inc. Automatic image-based recommendations using a color palette
US9514543B2 (en) 2014-06-26 2016-12-06 Amazon Technologies, Inc. Color name generation from images and color palettes
US10169803B2 (en) 2014-06-26 2019-01-01 Amazon Technologies, Inc. Color based social networking recommendations
US9916613B1 (en) 2014-06-26 2018-03-13 Amazon Technologies, Inc. Automatic color palette based recommendations for affiliated colors
US9697573B1 (en) 2014-06-26 2017-07-04 Amazon Technologies, Inc. Color-related social networking recommendations using affiliated colors
US10255295B2 (en) 2014-06-26 2019-04-09 Amazon Technologies, Inc. Automatic color validation of image metadata
US9679532B2 (en) * 2014-06-26 2017-06-13 Amazon Technologies, Inc. Automatic image-based recommendations using a color palette
US9524563B2 (en) 2014-06-26 2016-12-20 Amazon Technologies, Inc. Automatic image-based recommendations using a color palette
US10073860B2 (en) 2014-06-26 2018-09-11 Amazon Technologies, Inc. Generating visualizations from keyword searches of color palettes
US10691744B2 (en) 2014-06-26 2020-06-23 Amazon Technologies, Inc. Determining affiliated colors from keyword searches of color palettes
US10235389B2 (en) 2014-06-26 2019-03-19 Amazon Technologies, Inc. Identifying data from keyword searches of color palettes
US10223427B1 (en) 2014-06-26 2019-03-05 Amazon Technologies, Inc. Building a palette of colors based on human color preferences
US9996579B2 (en) 2014-06-26 2018-06-12 Amazon Technologies, Inc. Fast color searching
US10430857B1 (en) 2014-08-01 2019-10-01 Amazon Technologies, Inc. Color name based search
US9785649B1 (en) 2014-09-02 2017-10-10 Amazon Technologies, Inc. Hue-based color naming for an image
WO2016040939A1 (en) * 2014-09-12 2016-03-17 Tmm, Inc. Systems and methods for subject-oriented compression
US9697439B2 (en) 2014-10-02 2017-07-04 Xerox Corporation Efficient object detection with patch-level window processing
WO2016053342A1 (en) * 2014-10-02 2016-04-07 Hewlett-Packard Development Company, L.P. Intent based clustering
US9443164B2 (en) 2014-12-02 2016-09-13 Xerox Corporation System and method for product identification
JP6419560B2 (ja) * 2014-12-05 2018-11-07 株式会社東芝 検索装置、方法及びプログラム
US9216591B1 (en) 2014-12-23 2015-12-22 Xerox Corporation Method and system for mutual augmentation of a motivational printing awareness platform and recommendation-enabled printing drivers
US9367763B1 (en) 2015-01-12 2016-06-14 Xerox Corporation Privacy-preserving text to image matching
US9626594B2 (en) 2015-01-21 2017-04-18 Xerox Corporation Method and system to perform text-to-image queries with wildcards
US10509800B2 (en) * 2015-01-23 2019-12-17 Hewlett-Packard Development Company, L.P. Visually interactive identification of a cohort of data objects similar to a query based on domain knowledge
US10152804B2 (en) * 2015-02-13 2018-12-11 Smugmug, Inc. System and method for dynamic color scheme application
US10838207B2 (en) 2015-03-05 2020-11-17 Magic Leap, Inc. Systems and methods for augmented reality
US10180734B2 (en) 2015-03-05 2019-01-15 Magic Leap, Inc. Systems and methods for augmented reality
WO2016141373A1 (en) 2015-03-05 2016-09-09 Magic Leap, Inc. Systems and methods for augmented reality
US9600738B2 (en) 2015-04-07 2017-03-21 Xerox Corporation Discriminative embedding of local color names for object retrieval and classification
CN104794220A (zh) * 2015-04-28 2015-07-22 百度在线网络技术(北京)有限公司 信息搜索方法和信息搜索装置
US11055343B2 (en) 2015-10-05 2021-07-06 Pinterest, Inc. Dynamic search control invocation and visual search
US11609946B2 (en) * 2015-10-05 2023-03-21 Pinterest, Inc. Dynamic search input selection
US10249061B2 (en) 2015-11-11 2019-04-02 Adobe Inc. Integration of content creation and sharing
US10783431B2 (en) * 2015-11-11 2020-09-22 Adobe Inc. Image search using emotions
US10389804B2 (en) 2015-11-11 2019-08-20 Adobe Inc. Integration of content creation and sharing
US10198590B2 (en) 2015-11-11 2019-02-05 Adobe Inc. Content sharing collections and navigation
US10909711B2 (en) * 2015-12-04 2021-02-02 Magic Leap, Inc. Relocalization systems and methods
WO2017129804A1 (en) * 2016-01-29 2017-08-03 Kiwisecurity Software Gmbh Methods and apparatus for using video analytics to detect regions for privacy protection within images from moving cameras
US9852361B1 (en) * 2016-02-11 2017-12-26 EMC IP Holding Company LLC Selective image backup using trained image classifier
US9846840B1 (en) * 2016-05-25 2017-12-19 Adobe Systems Incorporated Semantic class localization in images
US10649211B2 (en) 2016-08-02 2020-05-12 Magic Leap, Inc. Fixed-distance virtual and augmented reality systems and methods
KR20180041401A (ko) * 2016-10-14 2018-04-24 에스케이텔레콤 주식회사 동영상 생성 장치 및 방법
US11748978B2 (en) 2016-10-16 2023-09-05 Ebay Inc. Intelligent online personal assistant with offline visual search database
US11004131B2 (en) 2016-10-16 2021-05-11 Ebay Inc. Intelligent online personal assistant with multi-turn dialog based on visual search
US10860898B2 (en) * 2016-10-16 2020-12-08 Ebay Inc. Image analysis and prediction based visual search
US10970768B2 (en) 2016-11-11 2021-04-06 Ebay Inc. Method, medium, and system for image text localization and comparison
US11205103B2 (en) 2016-12-09 2021-12-21 The Research Foundation for the State University Semisupervised autoencoder for sentiment analysis
US11176189B1 (en) * 2016-12-29 2021-11-16 Shutterstock, Inc. Relevance feedback with faceted search interface
US11036764B1 (en) * 2017-01-12 2021-06-15 Parallels International Gmbh Document classification filter for search queries
US10812936B2 (en) 2017-01-23 2020-10-20 Magic Leap, Inc. Localization determination for mixed reality systems
US10769752B2 (en) 2017-03-17 2020-09-08 Magic Leap, Inc. Mixed reality system with virtual content warping and method of generating virtual content using same
IL303275B1 (en) 2017-03-17 2024-04-01 Magic Leap Inc A mixed reality system with the assembly of multi-source virtual content and a method for creating virtual content using it
IL298822A (en) 2017-03-17 2023-02-01 Magic Leap Inc A mixed reality system with color virtual content distortion and a method for creating virtual content using it
US10846328B2 (en) * 2017-05-18 2020-11-24 Adobe Inc. Digital asset association with search query data
US11126653B2 (en) 2017-09-22 2021-09-21 Pinterest, Inc. Mixed type image based search results
US11841735B2 (en) 2017-09-22 2023-12-12 Pinterest, Inc. Object based image search
US10942966B2 (en) 2017-09-22 2021-03-09 Pinterest, Inc. Textual and image based search
CN107993125A (zh) * 2017-11-29 2018-05-04 重庆猪八戒网络有限公司 基于多级细化的创意设计交易孵化系统及方法
JP7159608B2 (ja) * 2018-05-14 2022-10-25 コニカミノルタ株式会社 操作画面の表示装置、画像処理装置及びプログラム
WO2020023383A1 (en) 2018-07-23 2020-01-30 Magic Leap, Inc. Mixed reality system with virtual content warping and method of generating virtual content using same
US10943521B2 (en) 2018-07-23 2021-03-09 Magic Leap, Inc. Intra-field sub code timing in field sequential displays
US11157549B2 (en) * 2019-03-06 2021-10-26 International Business Machines Corporation Emotional experience metadata on recorded images
JP7243333B2 (ja) * 2019-03-15 2023-03-22 富士通株式会社 情報処理方法、情報処理プログラム、および情報処理装置

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US540217A (en) 1895-05-28 pescheux
US5347374A (en) 1993-11-05 1994-09-13 Xerox Corporation Cascaded image processing using histogram prediction
US5357352A (en) 1993-10-04 1994-10-18 Xerox Corporation Image-dependent color shifting of strongly color shifted images
US5363209A (en) 1993-11-05 1994-11-08 Xerox Corporation Image-dependent sharpness enhancement
US5371615A (en) 1993-10-22 1994-12-06 Xerox Corporation Image-dependent color correction using black point and white point in a natural scene pictorial image
US5414538A (en) 1993-10-07 1995-05-09 Xerox Corporation Image-dependent exposure enhancement
US5450217A (en) 1994-05-23 1995-09-12 Xerox Corporation Image-dependent color saturation correction in a natural scene pictorial image
US5450502A (en) 1993-10-07 1995-09-12 Xerox Corporation Image-dependent luminance enhancement
US5802214A (en) 1995-12-08 1998-09-01 Xerox Corporation Method for determining and loading an image-dependent look-up table for generating an enhanced image representation
US7031534B2 (en) 2001-10-31 2006-04-18 Xerox Corporation Enhancement of compressed image data
US20060164664A1 (en) 2000-05-26 2006-07-27 Lg Electronics Inc. Color quantization and method thereof and searching method using the same
US20070005356A1 (en) 2005-06-30 2007-01-04 Florent Perronnin Generic visual categorization method and system
US20070258648A1 (en) 2006-05-05 2007-11-08 Xerox Corporation Generic visual classification with gradient components-based dimensionality enhancement
US20080069456A1 (en) 2006-09-19 2008-03-20 Xerox Corporation Bags of visual context-dependent words for generic visual categorization

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3234064B2 (ja) 1993-09-02 2001-12-04 キヤノン株式会社 画像検索方法並びにその装置
JPH08249352A (ja) * 1995-03-15 1996-09-27 Omron Corp 画像検索方法及び装置
US5899999A (en) * 1996-10-16 1999-05-04 Microsoft Corporation Iterative convolution filter particularly suited for use in an image classification and retrieval system
US6121969A (en) * 1997-07-29 2000-09-19 The Regents Of The University Of California Visual navigation in perceptual databases
JP3586549B2 (ja) * 1997-12-08 2004-11-10 株式会社日立製作所 画像検索方法およびその装置
US6594383B1 (en) 1999-11-16 2003-07-15 International Business Machines Corporation Method and apparatus for indexing and retrieving images from an images database based on a color query
US7099860B1 (en) * 2000-10-30 2006-08-29 Microsoft Corporation Image retrieval systems and methods with semantic and feature based relevance feedback
SE524007C2 (sv) * 2000-11-24 2004-06-15 Comintell Holding Ab Sökmotor samt ett förfarande för en sökmotor där sökresultatet presenteras i en matris
JP2003006227A (ja) * 2001-06-26 2003-01-10 Barbalogue Kk 特徴量座標による情報検索方法、情報検索装置及び情報検索プログラム
JP4527322B2 (ja) * 2001-07-25 2010-08-18 日本電気株式会社 画像検索装置、画像検索方法、及び画像検索用プログラム
US7383499B2 (en) * 2004-12-30 2008-06-03 Microsoft Corporation System and method for dynamically creating a destination template
KR100763197B1 (ko) * 2006-02-06 2007-10-04 삼성전자주식회사 컨텐츠 검색 방법 및 장치
US20080046424A1 (en) 2006-06-23 2008-02-21 Horton Richard B System and method of selecting images according to color content
US20080046410A1 (en) * 2006-08-21 2008-02-21 Adam Lieb Color indexing and searching for images
US7840076B2 (en) * 2006-11-22 2010-11-23 Intel Corporation Methods and apparatus for retrieving images from a large collection of images
JP2008181460A (ja) * 2007-01-26 2008-08-07 Ricoh Co Ltd 文書画像検索装置および文書画像検索方法
US20080240572A1 (en) 2007-03-26 2008-10-02 Seiko Epson Corporation Image Search Apparatus and Image Search Method
US7898696B2 (en) 2007-05-09 2011-03-01 Xerox Corporation Print job aesthetics enhancements detection and modeling through combined user activity analysis and content matching
US7933454B2 (en) 2007-06-25 2011-04-26 Xerox Corporation Class-based image enhancement system
US7885794B2 (en) 2007-11-30 2011-02-08 Xerox Corporation Object comparison, retrieval, and categorization methods and apparatuses
US8009921B2 (en) 2008-02-19 2011-08-30 Xerox Corporation Context dependent intelligent thumbnail images
US8340452B2 (en) 2008-03-17 2012-12-25 Xerox Corporation Automatic generation of a photo guide
US8190604B2 (en) * 2008-04-03 2012-05-29 Microsoft Corporation User intention modeling for interactive image retrieval
US8285059B2 (en) 2008-05-20 2012-10-09 Xerox Corporation Method for automatic enhancement of images containing snow
US8094947B2 (en) 2008-05-20 2012-01-10 Xerox Corporation Image visualization through content-based insets
US20090313239A1 (en) * 2008-06-16 2009-12-17 Microsoft Corporation Adaptive Visual Similarity for Text-Based Image Search Results Re-ranking
US8194992B2 (en) 2008-07-18 2012-06-05 Xerox Corporation System and method for automatic enhancement of seascape images
CN102804759B (zh) * 2009-06-24 2016-03-02 惠普开发有限公司 图像相册创建
US20110029860A1 (en) * 2009-07-30 2011-02-03 Ptucha Raymond W Artistic digital template for image display

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US540217A (en) 1895-05-28 pescheux
US5357352A (en) 1993-10-04 1994-10-18 Xerox Corporation Image-dependent color shifting of strongly color shifted images
US5450502A (en) 1993-10-07 1995-09-12 Xerox Corporation Image-dependent luminance enhancement
US5414538A (en) 1993-10-07 1995-05-09 Xerox Corporation Image-dependent exposure enhancement
US5371615A (en) 1993-10-22 1994-12-06 Xerox Corporation Image-dependent color correction using black point and white point in a natural scene pictorial image
US5347374A (en) 1993-11-05 1994-09-13 Xerox Corporation Cascaded image processing using histogram prediction
US5363209A (en) 1993-11-05 1994-11-08 Xerox Corporation Image-dependent sharpness enhancement
US5450217A (en) 1994-05-23 1995-09-12 Xerox Corporation Image-dependent color saturation correction in a natural scene pictorial image
US5802214A (en) 1995-12-08 1998-09-01 Xerox Corporation Method for determining and loading an image-dependent look-up table for generating an enhanced image representation
US20060164664A1 (en) 2000-05-26 2006-07-27 Lg Electronics Inc. Color quantization and method thereof and searching method using the same
US7031534B2 (en) 2001-10-31 2006-04-18 Xerox Corporation Enhancement of compressed image data
US20070005356A1 (en) 2005-06-30 2007-01-04 Florent Perronnin Generic visual categorization method and system
US20070258648A1 (en) 2006-05-05 2007-11-08 Xerox Corporation Generic visual classification with gradient components-based dimensionality enhancement
US20080069456A1 (en) 2006-09-19 2008-03-20 Xerox Corporation Bags of visual context-dependent words for generic visual categorization

Non-Patent Citations (21)

* Cited by examiner, † Cited by third party
Title
B. C. Davis und S. Lazebnik, Analyse menschlicher Attraktivität und Anwendung einer Kernel-Regressionsmanigfaltigkeit, ICIP 2008
B. Fasel, J. Luettin, automatische Gesichtsausdrucksanalyse: ein Überblick, Mustererkennung, Volumen 36, Seiten 259-275, 2003
Elena Fedorovskaya, Carman Neustaedter und Wei Hao, Bildharmonie für Verbraucherbilder, ICEP 2008
F. Perronnin und C. Dance "Fisher-Kernel auf visuellen Vokabularien für die Bildkategorisierung in Proc, IEEE-Konferenz für Computerdarstellung und Mustererkennung (CVPR), Minneapolis, MN, USA (Juni 2007)
F. Perronnin, C. Dance, G. Csurka und M. Bressan, beschrieben ist, "angepasste Vokabularien für generische visuelle Kategorisierung", ECCV (2006)
G. Csurka, C. Dance, L. Fan, J. Willamowski und C. Bray in "Visuelle Kategorisierung mit Taschen und Schlüsselpunkten", ECCV-Workshop für statistisches Lernen in der Computerdarstellung (2004)
Herve Jegou und Matthijs Douze und Cordelia Schmid, Hamming-Einbettung und schwache geometrische Konsistenz für Bildsuche auf großem Maßstab, ECCV 2008
Jorma Laaksonen, Markus Koskela und Erkki Oja, PicSOM selbsorganisierende Bildermittlung mit MPEG-7 Inhaltsbeschreibungen, IEEE-Transaktionen auf neuralen Netzwerken, Band 13, Nr. 4, 2002
K. Mikolajczyk und C. Schmid "Leistungsbewertung lokaler Deskriptoren" Proceedings der Konferenz für Computerdarstellung und Mustererkennung (CVPR), Madison Wisconsin, USA, Juni 2003
Ke, et al
L. C. Ou, M. R. Luo, A. Woodcock und A. Wright, eine Studie der Farbemotion und Farbpreferenz, in Color-Forschung und Anwendung, 29 (2004) Seiten 232-240
Lowe in "Objekterkennung aus lokalen skaleninvarianten Merkmalen", ICCV (internationale Konferenz für Computerdarstellungen), 1999
M. Pantic, L. J. M Rothkrantz, Expertensystem für automatisierte Analyse von Gesichtsausdrücken, ELSEVIER-Bild- und Visionsberechnung, Vol. 18, Seiten 881-905, 2000
M. Solli und R. Lenz, emotionale Befriedigung in der Farbbilderzeugung, in Proc. schwedisches Symposium für Bildanalyse 2008
M. Solli und R. Lenz, Farbemotionen für Bildklassifizierung und Abrufung in CGIV 2008
Matthieu Guillaumin, Thomas Mensik, Jakob Verbeek und Cordelia Schmid, TagProp: diskriminatives Erlernen von Maßen in Modellen mit nächsten Nachbarn für die Bildautoerkennung, ICCV 2009
Matthieu Guillaumin, Thomas Mensink, Jakob Verbeek und Coderila Schmid, TagProp: Unterscheidungsmetrikerlernung in nächsten Nachbarmodellen für die Bildautokennzeichnung, ICCV 2009
Omnia Report L4.2, Kiryl Bletsko, Amel Ezzaich, Emmanuel Dellandrea, Alexandre Saidi, Liming Chen, Klassifizierung von Multimediadokumenten, Livable Omnia 4.2, beispielsweise Anhänge beginnend auf Seite 21
Ondrej Chum, Michal Perdoch und Jiri Matas, geometrische Minimum-Zellen bzw. Hashing: Finden einer dicken Nadel in einem Heuhaufen, CVPR 2009
Ritendra Datta, Dhiraj Joshi, Jia Li und James Z. Wang, Studieren der Ästhetik in Photographiebilder unter Anwendung eines Computeransatzes, ECCV 2006
Van Ke, Xiaoou Tang und Feng Jing

Also Published As

Publication number Publication date
JP2011154687A (ja) 2011-08-11
US8775424B2 (en) 2014-07-08
FR2955681A1 (fr) 2011-07-29
US20110184950A1 (en) 2011-07-28

Similar Documents

Publication Publication Date Title
DE102011003201A1 (de) System für kreative Bildnavigation und Untersuchung
Raja et al. Color object detection based image retrieval using ROI segmentation with multi-feature method
Borji What is a salient object? A dataset and a baseline model for salient object detection
DE60216547T2 (de) Videostrukturierung durch wahrscheinlichkeitstheoretische Zusammenführung von Videosegmenten
DE102018006317A1 (de) Tiefe neurale Netzwerke für hervorstechenden Inhalt für eine effiziente Segmentierung eines digitalen Objekts
DE102019000675A1 (de) Nutzen eines modells auf der basis eines tiefen neuronalen netzwerks zum identifizieren von visuell ähnlichen digitalen bildern auf der basis von nutzer-ausgewählten visuellen eigenschaften
Torralba et al. Tiny images
Spain et al. Measuring and predicting object importance
DE102017005963A1 (de) Bereitstellen von relevanten Videoszenen in Reaktion auf eine Videosuchabfrage
DE10308014B4 (de) System und Verfahren zum Lokalisieren eines nichttextlichen Bereichs eines elektronischen Dokumentes oder Bildes, der mit einer benutzerdefinierten Beschreibung des Bereichs übereinstimmt
DE102016010744A1 (de) Modifizieren von zumindest einem Attribut von einem Bild mit zumindest einem Attribut, das von einem anderen Bild extrahiert wurde
CN106126585B (zh) 基于质量分级与感知哈希特征组合的无人机图像检索方法
DE102016010868A1 (de) Suchen unter Verwendung von in Bildern gefundenen spezifischen Attributen
US8942469B2 (en) Method for classification of videos
DE112008003972T5 (de) Automatische Erzeugung einer skalierbaren, nach Relevanz geordneten Darstellung einer Bildsammlung
DE102018003475A1 (de) Formbasierte Grafiksuche
DE102021001438A1 (de) Belichtungsdefektklassifizierung von Bildern unter Nutzung eines neuronalen Netzwerkes
DE102021004260A1 (de) Textuelles Bearbeiten von digitalen Bildern
Liu et al. Novel features for art movement classification of portrait paintings
CN105912684A (zh) 基于视觉特征和语义特征的跨媒体检索方法
DE60033580T2 (de) Verfahren und gerät zur klassifizierung eines bildes
Takimoto et al. Image aesthetics assessment based on multi-stream CNN architecture and saliency features
Andreetto et al. Unsupervised learning of categorical segments in image collections
Lu et al. Gated CNN for visual quality assessment based on color perception
Chen et al. Image retrieval via improved relevance ranking

Legal Events

Date Code Title Description
R012 Request for examination validly filed

Effective date: 20140127

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee