DE60036082T2 - Verfahren und vorrichtung zur wiederauffindung von texturbildern - Google Patents

Verfahren und vorrichtung zur wiederauffindung von texturbildern Download PDF

Info

Publication number
DE60036082T2
DE60036082T2 DE60036082T DE60036082T DE60036082T2 DE 60036082 T2 DE60036082 T2 DE 60036082T2 DE 60036082 T DE60036082 T DE 60036082T DE 60036082 T DE60036082 T DE 60036082T DE 60036082 T2 DE60036082 T2 DE 60036082T2
Authority
DE
Germany
Prior art keywords
graphs
candidate
graph
scaling
indicator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60036082T
Other languages
English (en)
Other versions
DE60036082D1 (de
Inventor
Hyun Doo 510-1302 Muj Sungnam-city SHIN
Yang Lim 102-1112 Woo Paldal-gu Choi
Peng Santa Barbara Wu
B. S. Santa Barbara Manjunath
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
University of California
Original Assignee
Samsung Electronics Co Ltd
University of California
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd, University of California filed Critical Samsung Electronics Co Ltd
Application granted granted Critical
Publication of DE60036082D1 publication Critical patent/DE60036082D1/de
Publication of DE60036082T2 publication Critical patent/DE60036082T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5862Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/42Analysis of texture based on statistical description of texture using transform domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/196Recognition using electronic means using sequential comparisons of the image signals with a plurality of references
    • G06V30/1983Syntactic or structural pattern recognition, e.g. symbolic string recognition
    • G06V30/1988Graph matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20068Projection on vertical or horizontal image axis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Library & Information Science (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

  • Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zum Wiederauffinden von Bildtextur-Deskriptoren und insbesondere ein Verfahren zum Wiederauffinden von Bildtextur-Deskriptoren zum Wiederauffinden von Textur-Deskriptoren, das zum Absuchen und Durchsuchen eines Bildes verwendet wird und die Textur-Eigenschaften des Bildes beschreibt, sowie eine Vorrichtung dafür.
  • In letzter Zeit hat sich die Bildtextur als wesentliche, sichtbare Eigenschaft zum Absuchen und Durchsuchen einer großen Gruppe von ähnlichen Bildmustern herausgebildet. Zum Beispiel extrahiert ein herkömmlicher Textur-Deskriptor zum Filtern eines Textur-Deskriptors mit einem Gabor-Filter einen Textur-Deskriptor, der aus Koeffizienten besteht, die beim Filtern mit dem Gabor-Filter erhalten wurden.
  • Obwohl herkömmliche Bildtextur-Deskriptoren aus vielen Vektoren bestehen, ist es jedoch ziemlich schwierig, die Texturstrukturen aus dem Textur-Deskriptor sichtbar zu wahrzunehmen.
  • Porat et al. 'Localised texture processing in vision: Analysis and synthesis in the Gaboria space' IEEE Trans. Biomedical Engineering, IEEE, New York, Ausg. 36, Nr. 1, 1989, S. 115–129 beschreiben ein Verfahren gemäß dem vorkennzeichnenden Teil des hierin angefügten Anspruchs 1.
  • Es ist eine Aufgabe der vorliegenden Erfindung, ein Verfahren zum Wiederauffinden eines Bildtextur-Deskriptors bereitzustellen, der die in einem Bild vorhandenen Texturstrukturen wahrnehmend erfassen kann.
  • Es ist eine weitere Aufgabe der vorliegenden Erfindung, ein von einem Computer auslesbares Speichermedium, in dem ein Computerprogramm abgespeichert wurde, bereitzustellen, wobei das Computerprogramm so angeordnet ist, dass ein Computer das Verfahren zum Wiederauffinden des Bildtextur-Deskriptors ausführt.
  • Es ist noch eine weitere Aufgabe der vorliegenden Erfindung, eine Vorrichtung zum Wiederauffinden eines Bildtextur-Deskriptors bereitzustellen, der das Verfahren zum Wiederauffinden des Bildtextur-Deskriptors durchführt.
  • Um das oben genannte Ziel zu erreichen, wird ein Verfahren zum Wiederauffinden eines Bildtextur-Deskriptors zum Beschreiben von Texturmerkmalen eines Bildes bereitgestellt, das die Schritte des (a) Filterns von eingegebenen Bildern unter Verwendung von vorgegebenen Filtern, die verschiedene Richtungskoeffizienten haben, (b) des Projizierens der gefilterten Bilder auf Achsen von jeder vorgegebenen Richtung, um Datengruppen zu erhalten, die aus Mittelwerten aller Richtungspixelwerte bestehen, (c) des Auswählens von Kandidaten-Datengrupen von den Datengruppen durch eine vorgegebenene Klassifizierungsmethode, (d) des Bestimmens einer Vielzahl von Indikatoren auf Basis von Richtungskoeffizienten von den Filtern, die beim Filtern der Kandidaten-Datengruppen verwendet wurden, und (e) des Bestimmens der Vielzahl an Indikatoren als den Textur-Deskriptor des Bildes einschließt.
  • Der Schritt (a) kann ferner den Schritt (a-1) des Filterns der eingegebenen Bilder unter Verwendung von vorgegebenen Filtern, die verschiedene Skalierungskoeffizienten haben, einschließen und der Schritt (d) umfasst ferner den Schritt (d-1) des Bestimmens einer Vielzahl von Indikatoren auf Basis von Skalierungskoeffizienten von den Filtern, die beim Filtern der Kandidaten-Datengruppen verwendet werden.
  • Das Verfahren zum Wiederauffinden von Bildtextur-Deskriptoren kann ferner den Schritt des Bestimmens eines weiteren Indikators auf Basis des Vorhandenseins von Datengruppen, die durch Filter gefiltert wurden, die Skalierungskoeffizienten oder Richtungsoeffizienten haben, die nahe oder identisch mit den Skalierungskoeffizienten oder den Richtungskoeffizienten der Filter sind, die beim Filtern der ausgewählten Kandidaten-Datengruppen verwendet werden, einschließen.
  • Das Verfahren zum Wiederauffinden von Bildtextur-Deskriptoren kann ferner den Schritt des Berechnens des Mittelwerts und der Varianz von Pixeln in Bezug auf die gefilterten Bilder und des Erhaltens eines vorgegebenen Vektors unter Verwendung des berechneten Mittelwertes und der berechneten Varianz einschließen.
  • Gemäß einem weiteren Aspekt der vorliegenden Erfindung wird ein Verfahren zum Wiederauffinden von Bildtextur-Deskriptoren zum Beschreiben von Texturmerkmalen eines Bildes bereitgestellt, das die Schritte (a) des Filterns von eingegebenen Bildern unter Verwendung von vorgegebenen Filtern, die verschiedene Skalierungskoeffiziente haben, (b) des Projizierens der gefilterten Bilder auf Achsen von jeder vorgegebenen Richtung, um Datengruppen zu erhalten, die aus Mittelwerten aller Richtungspixelwerte bestehen, (c) des Bestimmens einer Vielzahl von Indikatoren auf Basis von Skalierungskoeffizienten der Filter, die beim Filtern der Datengruppen, die mit einer vorgegebenen Auswählmethode von den Datengruppen ausgewählt wurden, verwendet werden, (d) des Bestimmens der Vielzahl von Indikatoren als den Textur-Deskriptor des Bildes einschließt.
  • Gemäß einem noch weiteren Aspekt der vorliegenden Erfindung wird ein Verfahren zum Wiederauffinden von Bildtextur-Deskriptoren zum Beschreiben von Textur-Merkmalen eines Bildes bereitgestellt, das die Schritte des (a) Filterns von eingegebenen Bildern unter Verwendung von vorgegebenen Filtern, die verschiedene Richtungskoeffizienten und verschiedene Skalierungskoeffizienten haben, (b) des Projizierens der gefilterten Bilder auf horizontale und vertikale Achsen, um Horizontalachsen-Projektionsgraphen und Vertikalachsen-Projektionsgraphen zu erhalten, (c) des Berechnens von normalisierten Autokorrelationswerten für jeden Graphen, (d) des Erhaltens lokaler Maxima und lokaler Minima für jeden normalisierten Autokorrelationswert, bei denen der berechnete normalisierte Autokorrelationswert lokale Spitzen und lokale Täler auf einem vorgegebenen Abschnitt bildet, und (e) des Definierens des Mittelwertes der lokalen Maxima und des Mittelwertes der lokalen Minima als Kontrast, (f) des Auswählens von Graphen, in denen das Verhältnis der Standardabweichung zu dem Mittelwert der lokalen Maxima kleiner als ein vorgegebener Schwellenwert ist oder diesem entspricht, als erste Kandidatengraphen, (g) des Bestimmens des Typs der zweiten Kandidatengraphen entsprechend der Anzahl an Graphen, die durch die Filter gefiltert wurden, die Skalierungskoeffizienten oder Richtungskoeffizienten haben, die nahe oder identisch mit den Skalierungskoeffizienten oder Richtungskoeffizienten der Filter sind, die beim Filtern der ausgewähltem zweiten Kandidatengraphen verwendet werden, (h) des Zählens der Anzahl von Graphen, die zu den entsprechenden Typen von zweiten Kandidatengraphen gehören und des Bestimmens der vorgegebenen Gewichte jedes Typs von zweiten Kandidatengraphen, (i) des Berechnens der Summe von Produkten der gezählten Anzahl von Graphen und der bestimmten Gewichte, um den Berechnungsergebniswert als einen ersten Indikator zu bestimmen, der einen Textur-Deskriptor darstellt, (j) des Bestimmens der Richtungskoeffizienten und der Skalierungskoeffizienten der zweiten Kandidatengraphen, die den größten Kontrast haben, als zweite bis einschließlich fünfte Indikatoren, und (k) des Bestimmens der Indikatoren, die den ersten Indikator und den zweiten bis einschließlich fünften Indikator als die Textur-Deskriptoren des entsprechenden Bildes enthalten, umfasst.
  • Das Verfahren zum Wiederauffinden von Bildtextur-Deskriptoren kann ferner den Schritt des Berechnens des Mittelwertes und der Varianz von Pixeln in Bezug auf die gefilterten Bilder und des Erhaltens eines vorgegebenen Vektors unter Verwendung des berechneten Mittelwertes und der berechneten Varianz, einschließen, wobei der Schritt (k) den Schritt des Bestimmens von Indikatoren, die den ersten Indikator, den zweiten bis einschließlich fünften Indikator und den vorgegebenen Vektor als die Textur-Deskriptoren des entsprechenden Bildes enthalten, einschließt.
  • Die normalisierte Autokorrelation, bezeichnet durch NAC(k), wird vorzugsweise nach der folgenden Formel berechnet:
    Figure 00040001
    wobei N eine vorgegebene positive Ganzzahl ist, ein eingegebenes Bild aus N×N Pixeln besteht, eine Pixelposition durch i dargestellt wird, wobei i eine Zahl von 1 bis N ist, die Projektion von Graphen, ausgedrückt durch Pixel der Pixelposition i, durch P(i) dargestellt ist und eine Zahl von 1 bis N ist.
  • Der Kontrast wird bestimmt als:
    Figure 00040002
    wobei P_magn (i) und V_magn (i) lokale Maxima und lokale Minima, bestimmt in dem Schritt (d), sind.
  • In dem Schritt (f) werden die Graphen, die die folgende Formel erfüllen, als erste Kandidatengraphen ausgewählt:
    Figure 00050001
    wobei d und S der Mittelwert und die Standardabweichung der lokalen Maxima sind und α ein vorgegebener Schwellenwert ist.
  • Der Schritt (g) schließt ferner die Unterschritte (g-1), wenn einer oder mehrere Graphen, der/die Skalierungs- oder Richtungskoeffizienten hat/haben, die identisch mit jenen eines entsprechenden Kandidatengraphen sind, und einer oder mehrere Graphen, der/die Skalierungs- oder Richtungskoeffizienten hat/haben, die nahe an jenen des entsprechenden Kandidatengraphen sind, vorhanden sind, des Klassifizierens des entsprechenden Kandidatengraphen als einen ersten Typ von Graphen, (g-2), wenn einer oder mehrere Graphen, der/die Skalierungs- oder Richtungskoeffizienten hat/haben, die identisch mit jenen eines entsprechenden Kandidatengraphen sind, jedoch kein Graph vorhanden ist, der Skalierungs- oder Richtungskoeffizienten nahe a jenen des entsprechenden Kandidatengraphen hat, vorhanden sind, des Klassifizierens des entsprechenden Kandidatengraphen als einen zweiten Typ von Graphen, und (g-3), wenn kein Graph vorhanden ist, der Skalierungs- oder Richtungskoeffizienten hat, die identisch mit oder nahe an jenen des entsprechenden Kandidatengraphen sind, des Klassifizierens des entsprechenden Kandidatengraphen als einen dritten Typ von Graphen, ein.
  • Der Schritt (h) schließt den Schritt des Zählens der Anzahl an Graphen, die zu jedem des ersten bis einschließlich dritten Typs von Graphen gehört und des Bestimmens von vorgegebenen Gewichten für jeden Typ von Graphen ein.
  • Nach dem Schritt (f) kann ferner des Schritt des Anwendens eines vorgegebenen Clustering-Algorithmus auf die ersten Kandidatengraphen, um zweite Kandidatengraphen auszuwählen, eingeschlossen sein.
  • Der vorgegebene Clustering-Algorithmus ist vorzugsweise modifiziertes agglomeratives Clustering.
  • In dem Schritt (j) wird der Richtungskoeffizient eines Graphen, der den größten Kontrast unter den Horizontalachsen-Projektionsgraphen hat, vorzugsweise als ein zweiter Indikator bestimmt; der Richtungskoeffizient eines Graphen, der den größten Kontrast unter den Vertikalachsen-Projektionsgraphen hat, wird als ein zweiter Indikator bestimmt; der Skalierungskoeffizient eines Graphen, der den größten Kontrast unter den Horizontalachsen-Projektionsgraphen hat, wird als ein vierter Indikator bestimmt; und der Skalierungskoeffizient eines Graphen, der den größten Kontrast unter den Vertikalachsen-Projektionsgraphen hat, wird als ein fünfter Indikator bestimmt.
  • Der Schritt (j) kann ferner den Schritt des Bestimmens von Indikatoren, die den ersten Indikator, den zweiten bis einschließlich fünften Indikator und den vorgegebenen Vektor als die Textur-Deskriptoren des entsprechenden Bildes enthalten, einschließen.
  • Die vorgegebenen Filter schließen vorzugsweise Gabor-Filter ein.
  • Um das zweite Ziel der vorliegenden Erfindung zu erreichen, wird ein computerlesbares Medium mit Programmcodes, die durch einen Computer ausgeführt werden können, um ein Verfahren für einen Bildtextur-Deskriptor zum Beschreiben der Texturmerkmale eines Bildes durchzuführen, bereitgestellt, wobei das Verfahren die Schritte des (a) Filterns von eingegebenen Bildern unter Verwendung von vorgegebenen Filtern, die verschiedene Richtungskoeffizienten und verschiedene Skalierungskoeffizienten haben, (b) des Projizierens der gefilterten Bilder auf horizontale und vertikale Achsen, um Horizontalachsen-Projektionsgraphen und Vertikalachsen-Projektionsgraphen zu erhalten, (c) des Berechnens von normalisierten Autokorrelationswerten für jeden Graphen, (d) des Erhaltens lokaler Maxima und lokaler Minima für jeden normalisierten Autokorrelationswert, bei denen der berechnete normalisierte Autokorrelationswert lokale Spitzen und lokale Täler auf einem vorgegebenen Abschnitt bildet, (e) des Definierens des Mittelwertes der lokalen Maxima und des Mittelwertes der lokalen Minima als Kontrast, (f) des Auswählens von Graphen, in denen das Verhältnis der Standardabweichung zu dem Mittelwert der lokalen Maxima kleiner als ein vorgegebener Schwellenwert ist oder diesem entspricht, als erste Kandidatengraphen, (g) des Bestimmens des Typs der zweiten Kandidatengraphen entsprechend der Anzahl an Graphen, die durch die Filter gefiltert wurden, die Skalierungskoeffizienten oder Richtungskoeffizienten haben, die nahe oder identisch mit den Skalierungskoeffizienten oder Richtungskoeffizienten der Filter sind, die beim Filtern der ausgewählten zweiten Kandidatengraphen verwendet werden, (h) des Zählens der Anzahl von Graphen, die zu den entsprechenden Typen von zweiten Kandidatengraphen gehören und des Bestimmens der vorgegebenen Gewichte jedes Typs von zweiten Kandidatengraphen, (i) des Berechnens der Summe von Produkten der gezählten Anzahl von Graphen und der bestimmten Gewichte, um den Berechnungsergebniswert als einen ersten Indikator zu bestimmen, der einen Testur-Deskriptor darstellt, (j) des Bestimmens der Richtungskoeffizienten und der Skalierungskoeffizienten der zweiten Kandidatengraphen, die den größten Kontrast haben, als zweite bis einschließlich fünfte Indikatoren, und (k) des Bestimmens der Indikatoren, die den ersten Indikator und den zweiten bis einschließlich fünften Indikator als die Textur-Deskriptoren des entsprechenden Bildes enthalten, umfasst.
  • Um das dritte Ziel der vorliegenden Erfindung zu erreichen wird eine Vorrichtungsmethode zum Wiederauffinden von Bildtextur-Deskriptoren zum Beschreiben von Texturmerkmalen eines Bildes bereitgestellt, wobei die Vorrichtung eine Filtereinrichtung zum Filtern von eingegebenen Bildern unter Verwendung vorgegebener Filter, die verschiedene Richtungskoeffizienten haben, eine Projektierungseinrichtung zum Projizieren der gefilterten Bilder auf Achsen von jeder vorgegebenen Richtung, um Datengruppen zu erhalten, die aus den Mittelwerten von jedem Richtungspixelwert bestehen, eine Klassifizierungseinrichtung zum Auswählen von Kandidatengruppen aus den Datengruppen durch eine vorgegebene Klassifizierungsmethode, eine erste Indikator-Bestimmungseinrichtung zum Bestimmen eines weiteren Indikators auf Basis der Anzahl an Graphen, die durch Filter gefiltert wurden, die Skalierungskoeffizienten oder Richtungskoeffizienten haben, die nahe an oder identisch mit den Skalierungskoeffizienten oder Richtungskoeffizienten der Filter sind, die beim Filtern der ausgewählten Kandidatengraphen verwendet werden, und eine zweite Indikator-Bestimmungseinrichtung zum Bestimmen einer Vielzahl von Indikatoren auf Basis von Skalierungskoeffizienten und Richtungskoeffizienten von Filtern, die beim Filtern der bestimmten Kandidatengraphen verwendet werden, einschließt.
  • Alternativ dazu wird eine Vorrichtung zum Wiederauffinden von Bildtextur-Deskriptoren zum Beschreiben von Texturmerkmalen eines Bildes bereitgestellt, wobei die Vorrichtung eine Filtereinrichtung zum Filtern von eingegebenen Bildern unter Verwendung vorgegebener Filter, die verschiedene Richtungskoeffizienten und verschiedene Skalierungskoeffizienten haben, eine Bildmittelwert-/Bildvarianz-Berechnungseinheit zum Berechnen des Mittelwerts und der Varianz von Pixeln in Bezug auf jedes der gefilterten Bilder und zum Erhalten eines vorgegebenen Vektors unter Verwendung des berechneten Mittelwerts und der berechneten Varianz, eine Projiziereinheit zum Projizieren der gefilterten Bilder auf horizontale und vertikale Achsen, um Horizontalachsen-Projektionsgraphen und Vertikalachsen-Projektionsgraphen zu erhalten, eine Berechnungseinheit zum Berechnen eines normalisierten Autokorrelationswerts für jeden Graphen, eine Spitzenerfassungs-/Spitzenanalysiereinheit zum Detektieren lokaler Maxima und lokaler Minima für jeden Autokorrelationswert, bei denen der berechnete normalisierte Autokorrelationswert eine lokale Spitze und ein lokales Tal auf einem vorgegebenen Abschnitt bildet, eine Mittelwert-/Varianzberechnungseinheit zum Berechnen des Mittelwerts der lokalen Maxima und des Mittelwerts der lokalen Minima, eine erste Kandidatengraphenauswahl-/speichereinheit zum Auswählen der Graphen, die die Anforderung, dass das Verhältnis der Standardabweichung zu dem Mittelwert der lokalen Maxima kleiner als ein vorgegebener Schwellenwert ist oder diesem entspricht, erfüllen, als erste Kandidatengraphen, eine zweite Kandidatengraphenauswahl-/speichereinheit zum Anwenden eines vorgegebenen Clustering-Algorithmus auf die ersten Kandidatengraphen, um dieselben als zweite Kandidatengraphen auszuwählen, eine Klassifizierungseinheit zum Zählen der Anzahl von Graphen, die zu jedem der jeweiligen Typen von zweiten Kandidatengraphen gehören, zum Ausgeben von Datensignalen, die die Anzahl von Graphen jedes Typs anzeigen, zum Bestimmen vorgegebener Gewichte der Graphen, die zu den jeweiligen Typen gehören, und zum Ausgeben von Datensignalen, die die Gewichte anzeigen, die auf jeden Typ anzuwenden sind, eine erste Indikator-Bestimmungseinheit zum Berechnen der Summe von Produkten der Daten, die die Anzahl von Graphen, die zu jedem Typ gehören, darstellt und der Daten, die die Gewichte darstellen, die auf jeden Typ anzuwenden sind und zum Bestimmen und zum Ausgeben des Berechnungsergebnisses als einen ersten Indikator, der einen Textur-Deskriptor bildet, eine Kontrastberechnungseinheit zum Berechnen des Kontrasts entsprechend der Formel (2) unter Verwendung der von der Mittelwert-/Varianzberechnungseinheit ausgegebenen Mittelwerte und zum Ausgeben eines Signals, das anzeigt, dass der berechnete Kontrast am größten ist, eine zweite Kandidatengraphenauswahl-/speichereinheit zum Ausgeben der Kandidatengraphen, die den größten Kontrast unter den zweiten, darin gespeicherten Kandidatengraphen haben, in Reaktion auf das Signal, das anzeigt, dass der berechnete Kontrast am größten ist, eine Bestimmungseinheit für den zweiten bis einschließlich fünften Indikator zum Bestimmen des Richtungskoeffizienten eines Graphen, der den größte Kontrast unter den Horizontalachsen-Projektionsgraphen hat; des Richtungskoeffizienten eines Graphen, der den größten Kontrast unter den Vertikalachsen-Projektionsgraphen hat, als einen zweiten Indikator; des Skalierungskoeffizienten eines Graphen mit dem größten Kontrast unter den Horizontalachsen-Projektionsgraphen, als einen vierten Indikator; und des Skalierungskoeffizienten eines Graphen, der den größten Kontrast unter den Vertikalachsen-Projektionsgraphen hat, als einen fünften Indikator; eine Textur-Deskriptor-Ausgabeeinheit zum Kombinieren des ersten Indikators, des zweiten bis einschließlich fünften Indikators und des vorgegebenen Vektors und zum Ausgeben des Kombinationsergebnisses als den Textur-Deskriptor des entsprechendes Bildes, einschließt.
  • Kurze Beschreibung der Figuren
  • Die oben genannten Aufgaben und Vorteile der vorliegenden Erfindung werden durch die ausführliche Beschreibung bevorzugter Ausführungsformen unter Bezugnahme auf die beigefügten Figuren ersichtlicher werden, in denen:
  • 1A und 1B Ablaufdiagramme sind, die ein Verfahren zum Wiederauffinden von Bildtextur-Deskriptoren gemäß der vorliegenden Erfindung zeigen;
  • 2 ein Blockdiagramm einer Vorrichtung zum Wiederauffinden von Bildtextur-Deskriptoren gemäß der vorliegenden Erfindung ist; und
  • 3 die Bestandteile einer wahrnehmenden Durchsuchung (perceptual browsing components, PBCs) zeigt, die aus Brodatz-Texturbildes durch Simulation auf Basis eines Verfahrens zum Wiederauffinden von Bildtextur-Deskriptoren gemäß der vorliegenden Erfindung extrahiert wurde.
  • Beste Ausführungsform der Erfindung
  • Unter Bezugnahme auf die begleitenden Figuren werden nachstehend ausführlich Ausführungsformen der vorliegenden Erfindung beschrieben werden.
  • Unter Bezugnahme auf 1A ist ein Verfahren zum Wiederauffinden von Bildtextur-Deskriptoren gemäß der vorliegenden Erfindung gezeigt, bei dem angenommen wird, dass N eine vorgegebene positive Ganzzahl ist, ein eingegebenes Bild, das aus N×N Pixeln, zum Beispiel 128×128 Pixeln, besteht, unter Verwendung eines Gabor-Filters gefiltert wird (Schritt 100). Der Gabor-Filter besteht aus Filtern, die verschiedene Richtungskoeffizienten und verschiedene Skalierungskoeffizienten haben. Unter der Annahme, dass C1 und C2 vorgegebenen positive Ganzzahlen sind, wird das eingegebene Bild mit Filtern, die C1 Arten von Richtungskoeffizienten und C2 Arten von Skalierungikoeffizienten haben, gefiltert und die Filter C1×C2 Arten von gefilterten Bildern ausgeben.
  • Als nächstes werden der Mittelwert und die Varianz für jede der C1×C2 Arten von gefilterten Bildern berechnet und dann wird ein Vektor Z unter Verwendung des Mittelwertes und der Varianz erhalten (Schritt 102).
  • Dann werden die gefilterten Bilder auf x- und y-Achsen projiziert, um x-Projektionsgraphen und y-Projektionsgraphen zu erhalten (Schritt 104). Der normalisierte Aurokorrelations-(NAC-)Wert für jeden Graphen P(i) (i ist eine Zahl zwischen 1 und N), die durch NAC(k) bezeichnet wird, wird mit der folgenden Formel (1) berechnet:
    Figure 00100001
    worin eine Pixelposition durch i dargestellt wird, die Projektionsgraphen durch Pixel der Pixelposition i, durch P(i) dargestellt sind und k eine Zahl von 1 bis N ist (N ist eine positive Ganzzahl).
  • Als nächstes werden die lokalen Maxima P_magn (i) und die lokalen Minima von V_magn (i), bei denen die berechnete NAC(k) eine Spitze und ein Tal auf einem vorgegebenen Abschnitt bildet, erhalten (Schritt 108).
  • Nun wird der Kontrast als die folgende Formel definiert:
    Figure 00110001
    (Schritt 110).
  • Die Graphen, die die folgende Formel (3) erfüllen, werden auch als erste Kandidatengraphen ausgewählt (Schritt 112):
    Figure 00110002
    wobei d und S der Mittelwert und die Standardabweichung der lokalen Maxima P_magni (i) sind und α ein vorgegebener Schwellenwert ist.
  • Unter Bezugnahme auf 1B wird modifiziertes agglomeratives Clustering auf die ersten Kandidatengraphen angewendet, um zweite Kandidatengraphen auszuwählen (Schritt 114). Ein modifizierter agglomerativer Clustering-Algorithmus ist ein in geeigneter Weise modifizierter Algorithmus von agglomerativem Clustering, der von R.O. Duda und P.E. Hart in "Pattern Classification and Scene Analysis, John Wiley and Sons, New York, 1973" offenbart ist und nun kurz beschrieben werden wird. Als erstes seien di und Si der Mittelwert und die Standardabweichung der Abstände zwischen den Spitzen in N Graphen P1, ..., PN und jeder Graph weise einen zweidimensionalen Vektor auf, der (di, Si) entspricht. Nun erfolgt mit P1 unter Verwendung des zweidimensionalen Vektors, der (di, Si) entspricht, wie folgt ein Clustering. Unter der Annahme, dass die gewünschte Anzahl an Clusters M ist, in Bezug auf die anfängliche Anzahl an Clusters N, kann jeder Cluster Ci so ausgedrückt werden, dass C1 = {P1}, C2 = {P2}, ..., CN = {PN}. Wenn die Anzahl an Clusters kleiner als M ist, wird die Durchführung des Clustering gestoppt. Als nächstes werden die beiden Cluster Ci und Cj, die am weitesten voneinander entfernt sind, erhalten. Wenn der Abstand zwischen Ci und Cj größer als ein vorgegebener Schwellenwert ist, wird die Durchführung des Clustering gestoppt. Zum anderen werden Ci und Cj zusammengefasst, um einen der beiden Cluster zu entfernen. Diese Methode wird solange wiederholt, bis die Anzahl an Clusters eine vorgegebene Anzahl erreicht. Dann wird unter den Clustern, mit denen ein Clustering durchgeführt wurde, der Cluster, der die meisten Graphen hat, ausgewählt und die Graphen in dem ausgewählten Cluster werden als Kandidatengraphen ausgewählt.
  • Als nächstes werden die zweiten Kandidatengraphen in drei Typen klassifiziert (Schritt 116). Die Klassifizierung wird entsprechend der Anzahl an Graphen durchgeführt, die mit einem Filter gefiltert wurde, der Skalierungs- oder Richtungskoeffizienten hat, die nahe an oder identische mit jenen eines Filters sind, der zum Filter der zweiten Kandidatengraphen verwendet wurde. Nachfolgend werden aus Gründen der Einfachheit der Erläuterung die Graphen, die mit einem Filter gefiltert wurden, der einen bestimmten Skalierungskoeffizienten oder einen konstanten Richtungskoeffizienten hat, als bestimmte Skalierungskoeffizientengraphen oder bestimmte Richtungskoeffizientengraphen bezeichnet.
  • Ausführlicher gesagt, wird in dem Fall, in dem einer oder mehrere Graphen, der/die Skalierungs- oder Richtungskoeffizienten hat/haben, die identisch mit jenen eines entsprechenden Kandidatengraphen sind, vorhanden sind und einer oder mehrere Graphen, der die Skalierungs- oder Richtungskoeffizienten hat/haben, die nahe an jenen des entsprechenden Kandidatengraphen sind, vorhanden sind, zuerst der entsprechende Kandidatengraph als Graph des C1-Typs klassifiziert. Als nächstes wird in dem Fall, in dem einer oder mehrere Graphen, der/die Skalierungs- oder Richtungskoeffizienten hat/haben, die identisch mit jenen eines entsprechenden Kandidatengraphen sind, vorhanden sind, jedoch kein Graph, der Skalierungs- oder Richtungskoeffizienten hat, die nahe an jenen des entsprechenden Kandidatengraphen sind, vorhanden ist, der entsprechende Kandidatengraph als Graph des C2-Typs klassifiziert. Als drittes wird in dem Fall, in dem kein Graph, der Skalierungs- oder Richtungskoeffizienten hat, die identisch mit oder nahe an jenen eines entsprechenden Kandidatengraphen sind, vorhanden ist, der entsprechende Kandidatengraph als Graph des C3-Typs klassifiziert. Dann wird die Anzahl von Graphen, die zu jedem der C1-, C2- und C3-Typen gehört, gezählt und entsprechend als N1, N2 und N3 bezeichnet und die entsprechenden Gewichte der Graphen, die zu jedem der C1-, C2- und C3-Typen gehören, werden gezählt und entsprechend als W1, W2 und W3 bezeichnet und sind nachstehend beschrieben.
  • Unter Verwendung der bestimmten Anzahlen N1, N2 und N3 und der Gewichte W1, W2 und W3 wird die folgende Berechnung durchgeführt:
    Figure 00130001
    wobei das Ergebnis M als ein erster Indikator V1 bestimmt wird, der einen Textur-Deskriptor bildet (Schritt 118).
  • In Bezug auf die zweiten Kandidatengraphen werden die Richtungskoeffizienten und die Skalierungskoeffizienten von Graphen, die den größten Kontrast haben, als zweite bis einschließlich fünfte Indikatoren bestimmt (Schritt 120). Ausführlicher gesagt, wird der Richtungskoeffizient eines Graphen, der den größten Kontrast unter den x-Projektionsgraphen hat, als ein zweiter Indikator V2 bestimmt. Der Richtungskoeffizient eines Graphen, der den größten Kontrast unter den y-Projektionsgraphen hat, wird auch als ein dritter Indikator V3 bestimmt. Der Skalierungskoeffizient eines Graphen, der den größten Kontrast unter den x-Projektionsgraphen hat, wird als ein vierter Indikator V4 bestimmt. Der Skalierungskoeffizient eines Graphen, der den größten Kontrast unter den y-Projektionsgraphen hat, wird auch als ein fünfter Indikator V5 bestimmt.
  • Unter Verwendung des ersten Indikators V1, der in dem Schritt 118 bestimmt wurde, werden der zweite bis einschließlich fünfte Indikator V2, V3, V4 und V5 und der Vektor Z, der in dem Schritt 102 bestimmt wurde, der Textur-Deskriptor, d.h. der Vektor der Texturmerkmale, auf {[V1, V2, V3, V4, V5], Z} gesetzt (Schritt 122).
  • Ein großer erster Indikator V1 zeigt ein hohes Maß an Strukturiertheit der Textur eines Bildes an. Es wurde experimentell bestätigt, dass der erste Indikator V1 ziemlich gut die Strukturiertheit der Textur eines Bildes darstellt. Der zweite und der dritte Indikator V2 und V3 stellen zwei quantisierte Richtungen dar, in denen die Strukturiertheit am meisten erfasst wird. Der vierte und der fünfte Indikator V4 und V5 stellen zwei quantisierte Skalierungen dar, in denen die Strukturiertheit am meisten erfasst wird.
  • Der Textur-Deskriptor wird als ein Index eines Bildes beim Durchsuchen oder Absuchen wieder aufgefundener Anwendungen verwendet. Insbesondere wird der Bildtextur-Deskriptor, der mit dem Verfahren zum Wiederauffinden von Bildtextur-Deskriptoren gemäß der vorliegenden Erfindung wieder aufgefunden wurde, in geeigneter Weise in schachbrettartigen Markierungen, in denen die durchsuchten Muster gleichmäßig sind, oder bei strukturorientiertem Durchsuchen, d.h. oder Stickmustern, verwendet. Beim Absuchen strukturell ähnlicher Muster wird daher ein Absuchen des Bildes, das mehr an die Wahrnehmung mit dem Auge anpassbar ist, durch Anwenden den Verfahrens zum Wiederauffinden von Bildtextur-Deskriptoren gemäß der vorliegenden Erfindung auf die Anwendungen auf Basis des strukturorientierten Durchsuchens ermöglicht. Unter den Indikatoren, die die Textur-Deskriptoren bilden, die mit dem Verfahren zum Wiederauffinden von Bildtextur-Deskriptoren gemäß der vorliegenden Erfindung wieder aufgefunden wurden, können daher der erste bis einschließlich fünfte Indikator V, V2, V3, V4 und V5 als Bestandteile der wahrnehmenden Durchsuchung (PBCs) bezeichnet werden.
  • In Bezug auf jedes gefilterte Bild werden auch der Mittelwert und die Varianz der Pixelwerte berechnet. Der Vektor Z, der durch Verwendung des Mittelwertes und der Varianz erhalten wurde, kann als Ähnlichkeit wieder auffindende Bestandteile (similarity retrieval components, SRCs) bezeichnet werden.
  • Anders ausgedrückt erlaubt der Textur-Deskriptor in dem Verfahren zum Wiederauffinden von Bildtextur-Deskriptoren gemäß der vorliegenden Erfindung, dass Arten von Texturstrukturen in einem wahrnehmend zu erfassenden Bild vorhanden sind.
  • Es wurde beschrieben, dass ein erster Indikator V1, der ein ziemlich guter Indikator für die Strukturiertheit der Textur eines Bildes ist, der zweite und dritte Indikator V2 und V3, die zwei quantisierte Richtungen darstellen, in denen die Strukturiertheit am meisten erfasst wird, der vierte und der fünfte Indikator V4 und V5, die zwei quantisierte Skalierungen darstellen, in denen die Strukturiertheit am meisten erfasst wird, als die Textur-Deskriptoren des Bildes verwendet werden. Die oben beschriebene Ausführungsform wird jedoch nur als beschreibendes Beispiel verwendet und soll den Gegenstand der Erfindung in keinster Weise einschränken. Ein einziger Indikator, der am meisten für die Eigenschaften eines Bildes geeignet ist und mehrere beliebig ausgewählte Indikatoren können ebenso als der/die Textur-Deskriptor/en des Bildes verwendet werden. Die oben beschriebene Ausführungsform soll daher keine Einschränkung des Umfangs der Erfindung darstellen.
  • Das Verfahren zum Wiederauffinden von Bildtextur-Deskriptoren ist mit Hilfe eines Computerprogramms auch programmierbar. Codes und Code-Abschnitte, die das Computerprogramm bilden, können leicht von einem fachtechnischen Computer-Programmierer abgeleitet werden, Das Programm wird auch in computerlesbaren Medien abgespeichert und kann von dem Computer ausgelesen und ausgeführt werden, wodurch das Verfahren zum Wiederauffinden von Bildtextur-Deskriptoren ausgeführt wird. Die Medien schließen magnetische Aufzeichnungsmedien, optische Aufzeichnungsmedien, Trägerwellenmedien und dergleichen ein.
  • Das Verfahren zum Wiederauffinden von Bildtextur-Deskriptoren kann auch durch eine Vorrichtung zum Wiederauffinden von Bildtextur-Deskriptoren ausgeführt werden, 2 ist ein Blockdiagramm einer Vorrichtung zum Wiederauffinden von Bildtextur-Deskriptoren gemäß der vorliegenden Erfindung. Unter Bezugnahme auf 2 schließt die Vorrichtung zum Wiederauffinden von Bildtextur-Deskriptoren einen Gabor-Filter 200, eine Bildmittelwert-/varianzberechnungseinheit 202, eine x-Achsen-Projiziereinrichtung 204, eine y-Achsen-Projiziereinrichtung 205, eine NAC-Berechnungseinheit 206 und eine Spitzenerfassungs-/analysiereinheit 208 ein. Die Vorrichtung zum Wiederauffinden von Bildtextur-Deskriptoren schließt auch eine Mittelwert-/-varianzberechnungseinheit 210m, eine erste Kandidatengraphenauswahl-/speichereinheit 212, eine zweite Kandidatengraphenauswahl-/speichereinheit 214, eine Klassifizierungseinheit 216, eine erste Indikatorbestimmungseinheit 218, eine Kontrastberechnungseinheit 220, eine zweite bis einschließlich fünfte Indikatorbestimmungseinheit 222 und eine Textur-Deskriptor-Ausgabeeinheit 224 ein.
  • Während des Betriebs der Vorrichtung zum Wiederauffinden von Bildtextur-Deskriptoren und unter der Annahme, dass N eine positive Ganzzahl ist, filtert der Gabor-Filter 200 ein eingegebenes Bild, das aus N×N Pixeln, zum Beispiel 128×128 Pixeln besteht, unter Verwendung von Filtern (nicht gezeigt), die verschiedene Richtungskoeffizienten und verschiedene Skalierungskoeffizienten haben, und gibt die gefilterten Bilder (Bild_gefiltert) aus. Unter der Annahme, dass C1 und C2 vorgegebene positive Ganzzahlen sind, wird das eingegebene Bild durch Filter gefiltert, die C1 Arten von Richtungskoeffizienten und C2 Arten von Skalierungskoeffizienten haben, und die Filter geben C1×C2 Arten von gefilterten Bildern aus.
  • Die Bildmittelwert-/-varianzberechnungseinheit 202 berechnet den Mittelwert und die Varianz von Pixeln für alle C1×C2 Arten von gefilterten Bildern, um dann einen Vektor Z unter Verwendung des Mittelwerts und der Varianz zu erhalten, und gibt den erhaltenen Vektor Z aus.
  • Die x-Achsen-Projiziereinheit 204 und die y-Achsen-Projiziereinheit 205 projizieren die gefilterten Bilder auf x- und y-Achsen, um x-Projektionsgraphen und y-Projektionsgraphen zu erhalten. Anders ausgedrückt und unter der Annahme, dass eine Pixelposition durch i dargestellt wird (i ist eine Zahl von 1 bis N), geben die x-Achsen-Projiziereinheit 204 und die y-Achsen-Projiziereinheit 205 die Projektionsgraphen P(i) aus, die mit Pixeln der Pixelpositionen i (i-1, ..., N) ausgedrückt werden.
  • Die NAC-Berechnungseinheit 206 berechnet den normalisierten Autokorrelations-(NAC-)Wert für alle Graphen P(i), die als NAC(k) bezeichnet werden, unter Verwendung der Formel (1).
  • Die Spitzenerfassungs-/analysiereinheit 208 detektiert die lokalen Maxima P_magn (i) und die lokalen Minima von V_magn (i), bei denen der berechnete NAC(k) eine lokale Spitze ein lokales Tal auf einem vorgegebenen Abschnitt bildet.
  • Die Mittelwert-/-varianzberechnungseinheit 210 berechnet den Mittelwert d und die Standardabweichung S der lokalen Maxima P_magn (i) und gibt die gleichen aus. Die erste Kandidatengraphenauswahl-/-speichereinheit 212 empfängt den Mittelwert d und die Standardabweichung S, wählt die Graphen, die die Formel (3) erfüllen, als erste Kandidatengraphen (1._Kand) aus und speichert die ausgewählten ersten Kandidatengraphen, in denen α ein vorgegebener Schwellenwert ist, ab.
  • Die zweite Kandidatengraphenauswahl-/-speichereinheit 214 wendet modifiziertes agglomeratives Clustering auf die ersten Kandidatengraphen an, um die gleichen als zweite Kandidatengraphen (2._Kand) auszuwählen.
  • Die Klassifizierungseinheit 216, wie sie unter Bezugnahme auf 1B beschrieben wurde, zählt die Anzahl an Graphen, die jedem der C1-, C2- und C3-Typen gehören, um die gleichen entsprechend mit N1, N2 und N3 in Bezug auf die zweiten Kandidatengraphen zu bezeichnen, und gibt Datensignale Ni, die die Anzahl an Graphen von jedem Typ anzeigen, aus. Die Klassifizierungseinheit 216 bestimmt auch die vorgegebenen Gewichte der Graphen, die zu jedem der C1-, C2 und C3-Typen gehören, um dann die gleichen mit entsprechend W1, W2 und W3 zu bezeichnen, und gibt Datensignale Wi, die Gewichte anzeigen, die für jeden Typ angewendet werden sollen, aus.
  • Die erste Indikatorbestimmungseinheit 218 berechnet M, wie es in der Formel (4) angegeben ist, unter Verwendung der bestimmten Anzahlen N1, N2 und N3 und der Gewichte W1, W2 und W3 und bestimmt und gibt das Berechnungsergebnis als einen ersten Indikator V1 aus, der einen Textur-Deskriptor bildet.
  • Die Kontrastberechnungseinheit 220 berechnet den Kontrast mit der Formel (2) und gibt ein Signal Cont_max aus, das anzeigt, dass der berechnete Kontrast am größten ist.
  • Die zweite Kandidatengraphenauswahl-/-speichereinheit 214 gibt die Kandidatengraphen, die den größten Kontrast unter den darin gespeicherten zweiten Kandidatengraphen haben, an die zweite bis einschließlich fünfte Indikatorbestimmungseinheit 222 aus.
  • Die zweite bis einschließlich fünfte Indikatorbestimmungseinheit 222 bestimmt die Richtungskoeffizienten und Skalierungskoeffizienten von Graphen, die den größten Kontrast haben, als zweite bis einschließlich fünfte Indikatoren. Anders ausgedrückt wird der Richtungskoeffizient eines Graphen, der den größten Kontrast unter den x-Projektionsgraphen hat, als ein zweiter Indikator V2 bestimmt. Der Richtungskoeffizient eines Graphen, der den größten Kontrast unter den y-Projektionsgraphen hat, wird auch als ein zweiter Indikator V3 bestimmt. Der Skalierungskoeffizient eines Graphen, der den größten Kontrast unter den x-Projektionsgraphen hat, wird als ein vierter Indikator V4 bestimmt. Der Skalierungskoeffizient eines Graphen, der den größten Kontrast unter den y-Projektionsgraphen hat, wird auch als ein fünfter Indikator V5 bestimmt.
  • Die Textur-Deskriptor-Ausgabeinheit 224 legt den Textur-Deskriptor, d.h. den Vektor der Texturmerkmale, als {[V1, V2, V3, V4, V5], Z} fest und gibt diesen unter Verwendung der Ausgabe des ersten Indikators V1 aus der ersten Indikatorbestimmungseinheit 218, der Ausgabe der zweiten bis einschließlich fünften Indikatoren V2, V3, V4 und V5 aus der zweiten bis einschließlich fünften Indikatorbestimmungseinheit 222 und der Ausgabe des Vektors Z aus der Bildmittelwert-/-varianzberechnungseinheit 202 aus.
  • 3 zeigt die Bestandteile der wahrnehmenden Durchsuchung (PBCs), die aus den Brodatz-Texturbildern durch Simulation auf Basis des Verfahrens zum Wiederauffinden von Bildtextur-Deskriptoren gemäß der vorliegenden Erfindung, extrahiert wurden.
  • Wie oben beschrieben wurde, können gemäß dem Verfahren zum Wiederauffinden von Bildtextur-Deskriptoren gemäß der vorliegenden Erfindung Testur-Deskriptoren, die zulassen, dass Arten einer Texturstruktur, die in einem Bild vorhanden sind, wahrnehmend erfasst werden, wieder aufgefunden werden.
  • Gewerbliche Anwendbarkeit
  • Die vorliegende Erfindung kann auf die Gebiete des Durchsuchens von Bildern oder Absuchens wieder aufgefundener Anwendungen angewendet werden.

Claims (24)

  1. Verfahren zum Wiederauffinden von Bildtextur-Deskriptoren zum Beschreiben von Texturmerkmalen eines Bildes, das Verfahren umfasst die folgenden Schritte: (I) Filtern von eingegebenen Bildern unter Verwendung von vorgegebenen Filtern, die verschiedene Skalierungs- und/oder Richtungskoeffizienten haben, (II) Bestimmen einer Vielzahl von Indikatoren auf Basis der Skalierungs- und/oder Richtungskoeffizienten der Filter, die beim Filtern von Datengruppen verwendet werden, und (III) Bestimmen der Vielzahl von Indikatoren als den Textur-Deskriptor des Bildes, gekennzeichnet durch (IV) Projizieren der gefilterten Bilder auf Achsen von jeder vorgegebenen Richtung, um Datengruppen zu erhalten, die aus Mittelwerten aller Richtungspixelwerte bestehen.
  2. Verfahren zum Wiederauffinden von Bildtextur-Deskriptoren nach Anspruch 1, das des Weiteren den Schritt des Bestimmens eines weiteren Indikators auf Basis des Vorhandenseins von Datengruppen umfasst, die durch Filter gefiltert wurden, die Skalierungs- oder Richtungskoeffizienten haben, die nahe oder identisch mit den Skalierungs- oder Richtungskoeffizienten der Filter sind, die beim Filtern der ausgewählten Kandidaten-Datengruppen verwendet werden.
  3. Verfahren zum Wiederauffinden von Bildtextur-Deskriptoren nach Anspruch 1, das des Weiteren den Schritt des Bestimmens eines weiteren Indikators auf Basis des Vorhandenseins von Graphen umfasst, die durch Filter gefiltert wurden, die Skalierungs- oder Richtungskoeffizienten haben, die nahe oder identisch mit den Skalierungs- oder Richtungskoeffizienten der Filter sind, die beim Filtern der ausgewählten Kandidaten-Datengruppen verwendet werden.
  4. Verfahren zum Wiederauffinden von Bildtextur-Deskriptoren nach Anspruch 1, das die folgenden Schritte umfasst: (a) Projizieren der gefilterten Bilder auf Achsen von jeder vorgegebenen Richtung, um Graphen zu erhalten, die aus Mittelwerten aller Richtungspixelwerte bestehen, (b) Auswählen von Kandidatengraphen aus den in dem Schritt des Projizierens erhaltenen Graphen durch eine vorgegebene Klassifizierungsmethode, (c) Bestimmen eines weiteren Indikators auf Basis des Vorhandenseins von Graphen, die durch Filtern gefiltert wurden, die Skalierungs- oder Richtungskoeffizienten haben, die nahe oder identisch mit den Skalierungs- oder Richtungskoeffizienten der Filter sind, die beim Filtern der ausgewählten Kandidatengraphen verwendet werden, (d) Bestimmen einer Vielzahl von Indikatoren auf Basis von Skalierungs- oder Richtungskoeffizienten von den Filtern, die beim Filtern der bestimmten Kandidatengraphen verwendet werden, und (e) Bestimmen des Indikators, der unter Verwendung von Schritt (II) bestimmt wurde, und der in dem Schritt (III) bestimmten Vielzahl von Indikatoren als den Textur-Deskriptor des Bildes.
  5. Verfahren zum Wiederauffinden von Bildtextur-Deskriptoren nach einem der vorhergehenden Ansprüche, das des Weiteren den Schritt des Berechnens des Mittelwertes und der Varianz von Pixeln in Bezug auf jedes der gefilterten Bilder und des Erhaltens eines vorgegebenen Vektors unter Verwendung des berechneten Mittelwertes und der berechneten Varianz umfasst.
  6. Verfahren zum Wiederauffinden von Bildtextur-Deskriptoren nach einem der vorhergehenden Ansprüche, wobei Schritt (a) das Projizieren der gefilterten Bildern auf horizontale und vertikale Achsen, um Horizontalachsen-Projektionsgraphen und Vertikalachsen-Projektionsgraphen zu erhalten, das Berechnen von normalisierten Autokorrelati onswerten für jeden Graphen, das Erhalten lokaler Maxima und lokaler Minima für jeden normalisierten Autokorrelationswert, bei denen der berechnete normalisierte Autokorrelationswert lokale Spitzen und lokale Täler auf einem vorgegebenen Abschnitt bildet, und das Definieren des Mittelwertes der lokalen Maxima und des Mittelwertes der lokalen Minima als Kontrast umfasst, Schritt (b) das Auswählen von Graphen, in denen das Verhältnis der Standardabweichung zu dem Mittelwert der lokalen Maxima kleiner als ein vorgegebener Schwellenwert ist oder diesem entspricht, als erste Kandidatengraphen umfasst, Schritt (c) das Bestimmen des Typs von zweiten Kandidatengraphen entsprechend der Anzahl von Graphen, die durch Filter gefiltert wurden, die Skalierungs- oder Richtungskoeffizienten haben, die nahe oder identisch mit den Skalierungs- oder Richtungskoeffizienten von Filtern sind, die beim Filtern der ausgewählten zweiten Kandidatengraphen verwendet werden, das Zählen der Anzahl von Graphen, die zu den entsprechenden Typen von zweiten Kandidatengraphen gehören, und das Bestimmen der Gewichte jedes Typs von zweiten Kandidatengraphen, das Berechnen der Summe von Produkten der gezählten Anzahl von Graphen und das Bestimmen der Gewichte, um den Berechnungsergebniswert als einen ersten Indikator zu bestimmen, der einen Textur-Deskriptor darstellt, umfasst, Schritt (d) das Bestimmen der Richtungskoeffizienten und der Skalierungskoeffizienten der zweiten Kandidatengraphen, die den größten Kontrast haben, als zweite bis einschließlich fünfte Indikatoren umfasst und Schritt (e) das Bestimmen von Indikatoren, die den ersten Indikator und den zweiten bis einschließlich fünften Indikator als die Textur-Deskriptoren des entsprechenden Bildes enthalten, umfasst.
  7. Verfahren zum Wiederauffinden von Bildtextur-Deskriptoren nach Anspruch 6, das des Weiteren den Schritt des Berechnens des Mittelwertes und der Varianz von Pixeln in Bezug auf die gefilterten Bilder und des Erhaltens eines vorgegebenen Vektors unter Verwendung des berechneten Mittelwertes und der berechneten Varianz umfasst, wobei der Schritt (e) den Schritt des Bestimmens von In dikatoren, die den ersten Indikator, den zweiten bis einschließlich fünften Indikator und den vorgegebenen Vektor als die Textur-Deskriptoren des entsprechenden Bildes enthalten, umfasst.
  8. Verfahren zum Wiederauffinden von Bildtextur-Deskriptoren nach Anspruch 6, wobei die normalisierte Autokorrelation, bezeichnet durch NAC(k), nach der folgenden Formel berechnet wird
    Figure 00220001
    wobei N eine vorgegebene positive Ganzzahl ist, ein Eingabebild aus N×N Pixeln besteht, eine Pixelposition durch i dargestellt wird, wobei i eine Zahl von 1 bis N ist, die Projektion von Graphen, ausgedrückt durch Pixel der Pixelposition i, durch P(i) dargestellt ist und k eine Zahl von 1 bis N ist.
  9. Verfahren zum Wiederauffinden von Bildtextur-Deskriptoren nach Anspruch 6, wobei der Kontrast bestimmt wird als:
    Figure 00220002
    wobei P_magn(i) und V_magn(i) lokale Maxima und lokale Minima, bestimmt in dem Schritt (d), sind.
  10. Verfahren zum Wiederauffinden von Bildtextur-Deskriptoren nach Anspruch 6, wobei in dem Schritt (c) die Graphen, die die folgende Formel erfüllen, als erste Kandidatengraphen ausgewählt werden:
    Figure 00220003
    wobei d und S der Mittelwert und die Standardabweichung der lokalen Maxima sind und α ein vorgegebener Schwellenwert ist.
  11. Verfahren zum Wiederauffinden von Bildtextur-Deskriptoren nach Anspruch 6, wobei der Schritt (c) die folgenden Unterschritte umfasst: wenn ein Graph oder mehrere Graphen vorhanden ist bzw. sind, der bzw. die Skalierungs- oder Richtungskoeffizienten hat bzw. haben, die identisch mit jenen eines entsprechenden Kandidatengraphen sind, und ein Graph oder mehrere Graphen Skalierungs- oder Richtungskoeffizienten hat bzw. haben, die nahe an jenen des entsprechenden Kandidatengraphen sind, Klassifizieren des entsprechenden Kandidatengraphen als einen ersten Typ von Graphen, wenn ein Graph oder mehrere Graphen Skalierungs- oder Richtungskoeffizienten hat bzw. haben, die identisch mit jenen eines entsprechenden Kandidatengraphen sind, jedoch kein Graph vorhanden ist, der Skalierungs- oder Richtungskoeffizienten nahe an jenen des entsprechenden Kandidatengraphen hat, Klassifizieren des entsprechenden Kandidatengraphen als einen zweiten Typ von Graphen und wenn kein Graph vorhanden ist, der Skalierungs- oder Richtungskoeffizienten hat, die nahe an oder identisch mit jenen eines entsprechenden Kandidatengraphen sind, Klassifizieren des entsprechenden Kandidatengraphen als einen dritten Typ von Graphen.
  12. Verfahren zum Wiederauffinden von Bildtextur-Deskriptoren nach Anspruch 6, wobei der Schritt (c) den Schritt des Zählens der Anzahl von Graphen, die zu jedem des ersten bis einschließlich dritten Typs von Graphen gehört, und das Bestimmen von vorgegebenen Gewichten für jeden der Typen von Graphen enthält.
  13. Verfahren zum Wiederauffinden von Bildtextur-Deskriptoren nach Anspruch 6, das nach der Auswahl von Graphen in Schritt (b) des Weiteren den Schritt des Anwendens eines vorgegebenen Clustering-Algorithmus auf die ersten Kandidatengraphen, um zweite Kandidatengraphen auszuwählen, umfasst.
  14. Verfahren zum Wiederauffinden von Bildtextur-Deskriptoren nach Anspruch 13, wobei der vorgegebene Clustering-Algorithmus modifiziertes agglomeratives Clustering ist.
  15. Verfahren zum Wiederauffinden von Bildtextur-Deskriptoren nach Anspruch 6, wobei in Schritt (d) der Ausrichtungskoeffizient eines Graphen, der den größten Kontrast unter den Horizontalachsen-Projektionsgraphen hat, als ein zweiter Indikator bestimmt wird, der Ausrichtungskoeffizient eines Graphen, der den größten Kontrast unter den Vertikalachsen-Projektionsgraphen hat, als ein zweiter Indikator bestimmt wird, der Skalierungskoeffizient eines Graphen, der den größten Kontrast unter den Horizontalachsen-Projektionsgraphen hat, als ein vierter Indikator bestimmt wird und der Skalierungskoeffizient eines Graphen, der den größten Kontrast unter den Vertikal-achsen-Projektionsgraphen hat, als ein fünfter Indikator bestimmt wird.
  16. Verfahren zum Wiederauffinden von Bildtextur-Deskriptoren nach Anspruch 6, wobei der Schritt (d) den Schritt des Bestimmens von Indikatoren, die den ersten Indikator, den zweiten bis einschließlich fünften Indikator und den vorgegebenen Vektor als die Textur-Deskriptoren des entsprechenden Bildes enthalten, umfasst.
  17. Verfahren zum Wiederauffinden von Bildtextur-Deskriptoren nach einem der Ansprüche 6 bis 12, wobei die vorgegebenen Filter Gabor-Filter einschließen.
  18. Computerlesbares Medium mit Programmcodes, die durch einen Computer ausgeführt werden können, um den Computer zu veranlassen, das Verfahren nach einem der vorhergehenden Ansprüche auszuführen.
  19. Vorrichtung zum Wiederauffinden von Bildtextur-Deskriptoren zum Beschreiben von Texturmerkmalen eines Bildes, umfassend: eine Filtereinrichtung (200) zum Filtern von eingegebenen Bildern unter Verwendung von vorgegebenen Filtern, die verschiedene Richtungskoeffizienten haben, eine Klassifizierungseinrichtung (216) zum Auswählen von Kandidatengruppen aus den Datengruppen durch eine vorgegebene Klassifizierungsmethode, eine erste Indikator-Bestimmungseinrichtung (218) zum Bestimmen eines weiteren Indikators auf Basis der Anzahl von Graphen, die durch Filter gefiltert wurden, die Skalierungs- oder Richtungskoeffizienten haben, die nahe an oder identisch mit den Skalierungs- oder Richtungskoeffizienten der Filter sind, die beim Filtern des ausgewählten Kandidatengraphen verwendet werden, und eine zweite Indikator-Bestimmungseinrichtung (222) zum Bestimmen einer Vielzahl von Indikatoren auf Basis von Skalierungs- oder Richtungskoeffizienten von Filtern, die beim Filtern der bestimmten Kandidatengraphen verwendet werden, gekennzeichnet durch eine Projektionseinrichtung (204, 205) zum Projizieren der gefilterten Bilder auf Achsen von jeder vorgegebenen Richtung, um Datengruppen zu erhalten, die aus Mittelwerten jedes Richtungspixelwertes bestehen.
  20. Vorrichtung nach Anspruch 19, die des Weiteren eine Mittelwert-Narianz-Berechnungseinrichtung (202) zum Berechnen des Mittelwertes und der Varianz von Pixeln in Bezug auf jedes der gefilterten Bilder und zum Erhalten eines vorgegebenen Vektors unter Verwendung des berechneten Mittelwertes und der Varianz umfasst.
  21. Vorrichtung nach Anspruch 19, wobei die Filtereinrichtung (200) Einrichtungen zum Filtern von eingegebenen Bildern unter Verwendung vorgegebener Filter mit verschiedenen Richtungskoeffizienten und verschiedenen Skalierungskoeffizienten umfasst, die Projektionseinrichtung (204, 205) eine Bildmittelwert-/Bildvarianz-Berechnungseinheit (202) zum Berechnen des Mittelwertes und der Varianz von Pixeln in Bezug auf jedes der gefilterten Bilder und zum Erhalten eines vorgegebenen Vektors unter Verwendung des berechneten Mittelwertes und der Varianz und eine Projiziereinheit (204, 205) zum Projizieren der gefilterten Bilder auf horizontale und vertikale Achsen, um Horizontalachsen-Projektionsgraphen und Vertikalachsen-Projektionsgraphen zu erhalten, umfasst, die Klassifizierungseinrichtung (216) eine Berechnungseinheit (206) zum Berechnen eines normalisierten Autokorrelationswertes für jeden Graphen, eine Spitzenerfassungs-/Spitzenanalysiereinheit (208) zum Detektieren lokaler Maxima und lokaler Minima für jeden Autokorrelationswert, bei denen der berechnete normalisierte Autokorrelationswert eine lokale Spitze und eine lokales Tal auf einem vorgegebenen Abschnitt bildet, eine Mittelwert-/Varianzberechnungseinheit (210) zum Berechnen des Mittelwertes der lokalen Maxima und des Mittelwertes der lokalen Minima, eine erste Kandidatengraphenauswahl-/-speichereinheit (212) zum Auswählen der Graphen als erste Kandidatengraphen, die die Anforderung, dass das Verhältnis der Standardabweichung zu dem Mittelwert der lokalen Maxima kleiner als ein vorgegebener Schwellenwert ist oder diesem entspricht, erfüllen, eine zweite Kandidatengraphenauswahl-/-speichereinheit (214) zum Anwenden eines vorgegebenen Clustering-Algorithmus auf die ersten Kandidatengraphen, um dieselben als zweite Kandidatengraphen auszuwählen, und eine Klassifizierungseinheit (216) zum Zählen der Anzahl von Graphen, die zu jedem der jeweiligen Typen von zweiten Kandidatengraphen gehören, Ausgeben von Datensignalen, die die Anzahl von Graphen jedes Typs anzeigen, Bestimmen vorgegebener Gewichte der Graphen, die zu den jeweiligen Typen gehören, und zum Ausgeben von Datensignalen, die die Gewichte anzeigen, die auf jeden Typ anzuwenden sind, umfasst, die erste Indikatorbestimmungseinrichtung (218) eine erste Indikatorbestimmungseinheit (218) zum Berechnen der Summe von Produkten der Daten, die die Anzahl von Graphen, die zu jedem Typ gehören, darstellt und der Daten, die die Gewichte darstellen, die auf jeden Typ anzuwenden sind, und zum Bestim men und zum Ausgeben des Berechnungsergebnisses als einen ersten Indikator, der einen Textur-Deskriptor bildet, umfasst und die zweite Indikatorbestimmungseinrichtung (222) eine Kontrastberechnungseinheit zum Berechnen des Kontrasts entsprechend
    Figure 00270001
    unter Verwendung der von der Mittelwert-/Varianzberechnungseinheit (210) ausgegebenen Mittelwerte und zum Ausgeben eines Signals, das anzeigt, dass der berechnete Kontrast am größten ist, wobei P_magn(i) und V_magn(i) die lokalen Maxima und lokalen Minima sind, eine zweite Kandidatengraphenauswahl-/-speichereinheit (214) zum Ausgeben der Kandidatengraphen, die unter den zweiten darin gespeicherten Kandidatengraphen den größten Kontrast haben, in Reaktion auf das Signal, das anzeigt, dass der berechnete Kontrast am größten ist, und eine Bestimmungseinheit (222) für den zweiten bis einschließlich fünften Indikator zum Bestimmen des Richtungskoeffizienten eines Graphen, der den größten Kontrast unter den Horizontalachsen-Projektionsgraphen hat, des Richtungskoeffizienten eines Graphen, der den größten Kontrast unter den Vertikalachsen-Projektionsgraphen hat, als einen zweiten Indikator, den Skalierungskoeffizienten eines Graphen, der den größten Kontrast unter den Horizontalachsen-Projektionsgraphen hat, als einen vierten Indikator und den Skalierungskoeffizienten eines Graphen mit dem größten Kontrast unter den Vertikalachsen-Projektionsgraphen als einen fünften Indikator umfasst und wobei eine Textur-Deskriptor-Ausgabeeinheit (224) zum Kombinieren des ersten Indikators, des zweiten bis einschließlich fünften Indikators und des vorgegebenen Vektors und zum Ausgeben des Kombinationsergebnisses als den Textur-Deskriptor des entsprechenden Bildes, bereitgestellt ist.
  22. Verfahren zum Erzeugen von Bildtextur-Deskriptoren, dadurch gekennzeichnet, dass der Bildtextur-Deskriptor quantisierte Zahlen V1, V2, V3, V4 und V5 enthält, wobei V1, V2, V3, V4 und V5 Ganzzahlen sind, und das Verfahren die folgenden Schritte umfasst: (a) Erzeugen der Zahl V1, die die Strukturiertheit einer Bildtextur darstellt, (b) Erzeugen der Zahlen V2 und V3, die zwei dominante Richtungen, die die Bildtextur kennzeichnen, darstellen, und (c) Erzeugen der Zahlen V4 und V5, die zwei Skalierungen der Textur des Bildes, jeweils entsprechend V2 und V3, darstellen.
  23. Computerlesbares Medium mit Programmcodes, die durch einen Computer ausgeführt werden können, um ein Verfahren zum Erzeugen von Bildtextur-Deskriptoren auszuführen, dadurch gekennzeichnet, dass der Bildtextur-Deskriptor quantisierte Zahlen V1, V2, V3, V4 und V5 enthält, wobei V1, V2, V3, V4 und V5 Ganzzahlen sind, und das Verfahren die folgenden Schritte umfasst: (a) Erzeugen der Zahl V1, die die Strukturiertheit einer Bildtextur darstellt, (b) Erzeugen der Zahlen V2 und V3, die zwei dominante Richtungen, die die Bildtextur kennzeichnen, darstellen, und (c) Erzeugen der Zahlen V4 und V5, die zwei Skalierungen der Textur des Bildes, jeweils entsprechend V2 und V3, darstellen.
  24. Vorrichtung zum Erzeugen von Bildtextur-Deskriptoren, dadurch gekennzeichnet, dass der Bildtextur-Deskriptor quantisierte Zahlen V1, V2, V3, V4 und V5 enthält, wobei V1, V2, V3, V4 und V5 Ganzzahlen sind, und dass die Vorrichtung umfasst: (a) Erzeugen der Zahl V1, die die Strukturiertheit einer Bildtextur darstellt, (b) Erzeugen der Zahlen V2 und V3, die zwei dominante Richtungen, die die Bildtextur kennzeichnen, darstellen, und (c) Erzeugen der Zahlen V4 und V5, die zwei Skalierungen der Textur des Bildes, jeweils entsprechend V2 und V3, darstellen.
DE60036082T 1999-02-05 2000-02-03 Verfahren und vorrichtung zur wiederauffindung von texturbildern Expired - Lifetime DE60036082T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11874099P 1999-02-05 1999-02-05
US118740P 1999-02-05
PCT/KR2000/000091 WO2000046750A1 (en) 1999-02-05 2000-02-03 Image texture retrieving method and apparatus thereof

Publications (2)

Publication Number Publication Date
DE60036082D1 DE60036082D1 (de) 2007-10-04
DE60036082T2 true DE60036082T2 (de) 2008-06-12

Family

ID=22380454

Family Applications (3)

Application Number Title Priority Date Filing Date
DE60036082T Expired - Lifetime DE60036082T2 (de) 1999-02-05 2000-02-03 Verfahren und vorrichtung zur wiederauffindung von texturbildern
DE60045319T Expired - Lifetime DE60045319D1 (de) 1999-02-05 2000-02-03 Verfahren und Vorrichtung zum Wiederauffinden von Texturbildern
DE60037919T Expired - Lifetime DE60037919T2 (de) 1999-02-05 2000-02-03 Verfahren zum Wiederauffinden von Bildtexturen und Vorrichtung dafür

Family Applications After (2)

Application Number Title Priority Date Filing Date
DE60045319T Expired - Lifetime DE60045319D1 (de) 1999-02-05 2000-02-03 Verfahren und Vorrichtung zum Wiederauffinden von Texturbildern
DE60037919T Expired - Lifetime DE60037919T2 (de) 1999-02-05 2000-02-03 Verfahren zum Wiederauffinden von Bildtexturen und Vorrichtung dafür

Country Status (16)

Country Link
US (3) US6624821B1 (de)
EP (3) EP1153365B1 (de)
JP (2) JP2002536750A (de)
KR (5) KR100444778B1 (de)
CN (2) CN100489892C (de)
AT (3) ATE490518T1 (de)
AU (1) AU775858B2 (de)
BR (1) BR0007956A (de)
CA (2) CA2361492A1 (de)
DE (3) DE60036082T2 (de)
MX (1) MXPA01007845A (de)
MY (2) MY128897A (de)
NZ (1) NZ513144A (de)
SG (1) SG142124A1 (de)
TW (1) TW528990B (de)
WO (1) WO2000046750A1 (de)

Families Citing this family (105)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003252765B2 (en) * 1999-02-05 2006-06-29 Samsung Electronics Co., Ltd. Image texture retrieving method and apparatus thereof
KR100308456B1 (ko) * 1999-07-09 2001-11-02 오길록 주파수 공간상에서의 질감표현방법 및 질감기반 검색방법
KR100355404B1 (ko) 1999-12-03 2002-10-11 삼성전자 주식회사 주파수 공간상에서의 가보 필터를 이용한 질감표현방법 및질감기반 영상 검색방법
US6977659B2 (en) * 2001-10-11 2005-12-20 At & T Corp. Texture replacement in video sequences and images
US7606435B1 (en) 2002-02-21 2009-10-20 At&T Intellectual Property Ii, L.P. System and method for encoding and decoding using texture replacement
KR100908384B1 (ko) * 2002-06-25 2009-07-20 주식회사 케이티 블록상관계수를 이용한 영역기반 질감 추출 장치 및 그 방법
JP2005122361A (ja) * 2003-10-15 2005-05-12 Sony Computer Entertainment Inc 画像処理装置及び方法、コンピュータプログラム、記録媒体
US7415145B2 (en) * 2003-12-30 2008-08-19 General Electric Company Methods and apparatus for artifact reduction
JP4747881B2 (ja) * 2006-02-27 2011-08-17 セイコーエプソン株式会社 演算処理装置によるデータ変換方法、テクスチャの作成方法、プログラム、記録媒体、及びプロジェクタ。
JP2009539841A (ja) * 2006-06-06 2009-11-19 トラークス,インコーポレイテッド 自己免疫疾患の治療における抗cd3抗体の投与
EP1870836A1 (de) * 2006-06-22 2007-12-26 THOMSON Licensing Verfahren und Vorrichtung zur Bestimmung eines Deskriptors für ein Signal, das ein Multimedia-Element darstellt, Vorrichtung zur Gewinnung von Elementen in einer Datenbank, Vorrichtung zur Klassifizierung von Multimedia-Elementen in einer Datenbank
JP5358083B2 (ja) 2007-11-01 2013-12-04 株式会社日立製作所 人物画像検索装置及び画像検索装置
US7924290B2 (en) * 2007-05-30 2011-04-12 Nvidia Corporation Method and system for processing texture samples with programmable offset positions
KR101394154B1 (ko) 2007-10-16 2014-05-14 삼성전자주식회사 미디어 컨텐츠 및 메타데이터를 부호화하는 방법과 그 장치
JO3076B1 (ar) 2007-10-17 2017-03-15 Janssen Alzheimer Immunotherap نظم العلاج المناعي المعتمد على حالة apoe
US20140321756A9 (en) * 2008-05-27 2014-10-30 Samsung Electronics Co., Ltd. System and method for circling detection based on object trajectory
US8483431B2 (en) 2008-05-27 2013-07-09 Samsung Electronics Co., Ltd. System and method for estimating the centers of moving objects in a video sequence
US8107726B2 (en) * 2008-06-18 2012-01-31 Samsung Electronics Co., Ltd. System and method for class-specific object segmentation of image data
US20100027845A1 (en) * 2008-07-31 2010-02-04 Samsung Electronics Co., Ltd. System and method for motion detection based on object trajectory
US8433101B2 (en) * 2008-07-31 2013-04-30 Samsung Electronics Co., Ltd. System and method for waving detection based on object trajectory
US8073818B2 (en) * 2008-10-03 2011-12-06 Microsoft Corporation Co-location visual pattern mining for near-duplicate image retrieval
KR101194605B1 (ko) * 2008-12-22 2012-10-25 한국전자통신연구원 시간 연속적 텍스쳐 합성 장치 및 방법
KR101028628B1 (ko) 2008-12-29 2011-04-11 포항공과대학교 산학협력단 영상 텍스쳐 필터링 방법, 이를 수행하는 프로그램을 기록한 기록매체 및 이를 수행하는 장치
US8321422B1 (en) 2009-04-23 2012-11-27 Google Inc. Fast covariance matrix generation
US8396325B1 (en) 2009-04-27 2013-03-12 Google Inc. Image enhancement through discrete patch optimization
US8611695B1 (en) 2009-04-27 2013-12-17 Google Inc. Large scale patch search
US8391634B1 (en) * 2009-04-28 2013-03-05 Google Inc. Illumination estimation for images
US8385662B1 (en) 2009-04-30 2013-02-26 Google Inc. Principal component analysis based seed generation for clustering analysis
US8798393B2 (en) 2010-12-01 2014-08-05 Google Inc. Removing illumination variation from images
SG10201912646UA (en) 2010-12-06 2020-02-27 Seattle Genetics Inc Humanized antibodies to liv-1 and use of same to treat cancer
US8738280B2 (en) * 2011-06-09 2014-05-27 Autotalks Ltd. Methods for activity reduction in pedestrian-to-vehicle communication networks
ES2669395T3 (es) 2011-10-28 2018-05-25 Prothena Biosciences Limited Anticuerpos humanizados que reconocen la alfa-sinucleína
RU2642262C2 (ru) 2012-01-27 2018-01-24 Протена Биосайенсис Лимитед Гуманизированные антитела, которые распознают альфа-синуклеин
US20130309223A1 (en) 2012-05-18 2013-11-21 Seattle Genetics, Inc. CD33 Antibodies And Use Of Same To Treat Cancer
UA118441C2 (uk) 2012-10-08 2019-01-25 Протена Біосаєнсиз Лімітед Антитіло, що розпізнає альфа-синуклеїн
EP3689904A1 (de) 2013-03-13 2020-08-05 Prothena Biosciences Limited Tau immuntherapie
US10513555B2 (en) 2013-07-04 2019-12-24 Prothena Biosciences Limited Antibody formulations and methods
US9951131B2 (en) 2013-07-12 2018-04-24 Prothena Biosciences Limited Antibodies that recognize IAPP
US9850302B2 (en) 2013-07-12 2017-12-26 Prothena Biosciences Limited Antibodies that recognize IAPP
KR101713690B1 (ko) * 2013-10-25 2017-03-08 한국전자통신연구원 특징 선택 방법을 이용한 비주얼 기술자 추출 방법 및 시스템
EP3071974A2 (de) 2013-11-19 2016-09-28 Prothena Biosciences Limited Überwachung der immuntherapie von lewy-körperchen-krankheit aus verstopfungssymptomen
KR20160127825A (ko) 2014-03-12 2016-11-04 프로테나 바이오사이언시즈 리미티드 항-mcam 항체 및 관련된 사용 방법
TW201623331A (zh) 2014-03-12 2016-07-01 普羅帝納生物科學公司 抗黑色素瘤細胞黏著分子(mcam)抗體類及使用彼等之相關方法
CA2938931A1 (en) 2014-03-12 2015-09-17 Prothena Biosciences Limited Anti-laminin4 antibodies specific for lg1-3
EP3116907A1 (de) 2014-03-12 2017-01-18 Prothena Biosciences Limited Für lg4-5 spezifische anti-laminin4-antikörper
JP2017510627A (ja) 2014-03-13 2017-04-13 プロセナ バイオサイエンシーズ リミテッド 多発性硬化症の併用治療
US10562973B2 (en) 2014-04-08 2020-02-18 Prothena Bioscience Limited Blood-brain barrier shuttles containing antibodies recognizing alpha-synuclein
US9840553B2 (en) 2014-06-28 2017-12-12 Kodiak Sciences Inc. Dual PDGF/VEGF antagonists
KR102260805B1 (ko) * 2014-08-06 2021-06-07 삼성전자주식회사 이미지 검색 장치 및 그 방법
US20160075772A1 (en) 2014-09-12 2016-03-17 Regeneron Pharmaceuticals, Inc. Treatment of Fibrodysplasia Ossificans Progressiva
KR102258100B1 (ko) * 2014-11-18 2021-05-28 삼성전자주식회사 텍스쳐 처리 방법 및 장치
TWI718122B (zh) 2015-01-28 2021-02-11 愛爾蘭商普羅佘納生物科技有限公司 抗甲狀腺素運送蛋白抗體
TWI769570B (zh) 2015-01-28 2022-07-01 愛爾蘭商普羅佘納生物科技有限公司 抗甲狀腺素運送蛋白抗體
TWI781507B (zh) 2015-01-28 2022-10-21 愛爾蘭商普羅佘納生物科技有限公司 抗甲狀腺素運送蛋白抗體
TW201713361A (zh) 2015-04-29 2017-04-16 Regeneron Pharma 進行性骨化性纖維發育不良之治療
US10162878B2 (en) 2015-05-21 2018-12-25 Tibco Software Inc. System and method for agglomerative clustering
WO2016197307A1 (en) 2015-06-08 2016-12-15 SZ DJI Technology Co., Ltd. Methods and apparatus for image processing
KR101627974B1 (ko) * 2015-06-19 2016-06-14 인하대학교 산학협력단 영상 블러에 강인한 영상 특징 기술자 생성 방법 및 장치
EP3316909B1 (de) 2015-06-30 2023-08-30 Seagen Inc. Anti-ntb-a-antikörper sowie zugehörige zusammensetzungen und verfahren
CN105183752B (zh) * 2015-07-13 2018-08-10 中国电子科技集团公司第十研究所 关联查询红外视频图像特定内容的方法
WO2017046774A2 (en) 2015-09-16 2017-03-23 Prothena Biosciences Limited Use of anti-mcam antibodies for treatment or prophylaxis of giant cell arteritis, polymyalgia rheumatica or takayasu's arteritis
JP2018530540A (ja) 2015-09-16 2018-10-18 プロセナ バイオサイエンシーズ リミテッド 巨細胞動脈炎、リウマチ性多発筋痛症又は高安動脈炎の処置又は予防のための抗mcam抗体の使用
SG11201805420SA (en) 2015-12-30 2018-07-30 Kodiak Sciences Inc Antibodies and conjugates thereof
WO2017149513A1 (en) 2016-03-03 2017-09-08 Prothena Biosciences Limited Anti-mcam antibodies and associated methods of use
EP3423089A4 (de) 2016-03-04 2019-10-23 JN Biosciences, LLC Anti-tigit-antikörper
WO2017153953A1 (en) 2016-03-09 2017-09-14 Prothena Biosciences Limited Use of anti-mcam antibodies for treatment or prophylaxis of granulomatous lung diseases
WO2017153955A1 (en) 2016-03-09 2017-09-14 Prothena Biosciences Limited Use of anti-mcam antibodies for treatment or prophylaxis of granulomatous lung diseases
JP7481726B2 (ja) 2016-05-02 2024-05-13 プロセナ バイオサイエンシーズ リミテッド タウ認識抗体
DK3452507T3 (da) 2016-05-02 2022-11-14 Prothena Biosciences Ltd Tau-immunoterapi
KR20230070336A (ko) 2016-05-02 2023-05-22 프로테나 바이오사이언시즈 리미티드 타우 인식 항체
WO2017208210A1 (en) 2016-06-03 2017-12-07 Prothena Biosciences Limited Anti-mcam antibodies and associated methods of use
JP7017013B2 (ja) 2016-07-02 2022-02-08 プロセナ バイオサイエンシーズ リミテッド 抗トランスサイレチン抗体
WO2018007923A2 (en) 2016-07-02 2018-01-11 Prothena Biosciences Limited Anti-transthyretin antibodies
EP3478714A2 (de) 2016-07-02 2019-05-08 Prothena Biosciences Limited Anti-transthyretin-antikörper
WO2018191548A2 (en) 2017-04-14 2018-10-18 Kodiak Sciences Inc. Complement factor d antagonist antibodies and conjugates thereof
CU24636B1 (es) 2017-05-02 2022-12-12 Prothena Biosciences Ltd Anticuerpos que reconocen tau en los residuos 257-271 o 320-334 de la seq id no: 1
AU2017434556A1 (en) 2017-09-28 2020-04-09 F. Hoffmann-La Roche Ag Dosing regimes for treatment of synucleinopathies
EP3508499A1 (de) 2018-01-08 2019-07-10 iOmx Therapeutics AG Antikörper zum targeting von, und andere modulatoren von, einem immunglobulingen im zusammenhang mit resistenz gegen antitumor-immunantworten und verwendungen davon
US11401339B2 (en) 2018-08-23 2022-08-02 Seagen Inc. Anti-TIGIT antibodies
WO2020112687A2 (en) 2018-11-26 2020-06-04 Forty Seven, Inc. Humanized antibodies against c-kit
CN113166727A (zh) 2018-11-28 2021-07-23 四十七公司 对消融方案耐受的基因修饰的hspc
CN109670423A (zh) * 2018-12-05 2019-04-23 依通(北京)科技有限公司 一种基于深度学习的图像识别系统、方法及介质
JP2022519273A (ja) 2019-02-05 2022-03-22 シージェン インコーポレイテッド 抗cd228抗体及び抗体薬物コンジュゲート
WO2020180819A1 (en) 2019-03-03 2020-09-10 Prothena Biosciences Limited Antibodies recognizing tau
EP3994171A1 (de) 2019-07-05 2022-05-11 iOmx Therapeutics AG Igc2 von igsf11 (vsig3) bindende antikörper und ihre verwendungen
JP2022550816A (ja) 2019-10-04 2022-12-05 シージェン インコーポレイテッド 抗pd-l1抗体および抗体-薬物コンジュゲート
US11912784B2 (en) 2019-10-10 2024-02-27 Kodiak Sciences Inc. Methods of treating an eye disorder
EP3822288A1 (de) 2019-11-18 2021-05-19 Deutsches Krebsforschungszentrum, Stiftung des öffentlichen Rechts Gegen das cd276-antigen gerichtete antikörper, und andere modulatoren gegen das cd276-antigen, und deren verwendung
KR20220139886A (ko) 2020-01-08 2022-10-17 리제너론 파아마슈티컬스, 인크. 진행성 골화성 섬유이형성증의 치료
WO2021195362A1 (en) 2020-03-26 2021-09-30 Seagen Inc. Methods of treating multiple myeloma
CR20220611A (es) 2020-06-02 2023-06-07 Arcus Biosciences Inc Anticuerpos anti-tigit
EP4175668A1 (de) 2020-07-06 2023-05-10 iOmx Therapeutics AG Igv von igsf11 (vsig3) bindende antikörper und verwendungen davon
AU2021320739A1 (en) 2020-08-04 2023-02-23 Seagen Inc. Anti-CD228 antibodies and antibody-drug conjugates
AU2021374803A1 (en) 2020-11-03 2023-06-22 Deutsches Krebsforschungszentrum Stiftung des öffentlichen Rechts Target-cell restricted, costimulatory, bispecific and bivalent anti-cd28 antibodies
WO2022162203A1 (en) 2021-01-28 2022-08-04 Vaccinvent Gmbh Method and means for modulating b-cell mediated immune responses
CA3206395A1 (en) 2021-01-28 2022-08-04 Hassan JUMAA-WEINACHT Method and means for modulating b-cell mediated immune responses
CN117120084A (zh) 2021-01-28 2023-11-24 维肯芬特有限责任公司 用于调节b细胞介导的免疫应答的方法和手段
CN117730097A (zh) 2021-04-09 2024-03-19 思进公司 以抗tigit抗体治疗癌症的方法
TW202327650A (zh) 2021-09-23 2023-07-16 美商思進公司 治療多發性骨髓瘤之方法
WO2023201267A1 (en) 2022-04-13 2023-10-19 Gilead Sciences, Inc. Combination therapy for treating trop-2 expressing cancers
WO2023201268A1 (en) 2022-04-13 2023-10-19 Gilead Sciences, Inc. Combination therapy for treating tumor antigen expressing cancers
WO2023215719A1 (en) 2022-05-02 2023-11-09 Arcus Biosciences, Inc. Anti-tigit antibodies and uses of the same
WO2024068777A1 (en) 2022-09-28 2024-04-04 Deutsches Krebsforschungszentrum Stiftung des öffentlichen Rechts Modified ace2 proteins with improved activity against sars-cov-2
WO2024097816A1 (en) 2022-11-03 2024-05-10 Seagen Inc. Anti-avb6 antibodies and antibody-drug conjugates and their use in the treatment of cancer
WO2024108053A1 (en) 2022-11-17 2024-05-23 Sanofi Ceacam5 antibody-drug conjugates and methods of use thereof

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3010588B2 (ja) * 1991-05-01 2000-02-21 松下電器産業株式会社 パターン位置決め装置とパターン類別装置
US5579471A (en) 1992-11-09 1996-11-26 International Business Machines Corporation Image query system and method
US5659626A (en) * 1994-10-20 1997-08-19 Calspan Corporation Fingerprint identification system
JPH11511875A (ja) * 1995-03-02 1999-10-12 パラメトリック テクノロジー コーポレーション テクスチャマップを作成し、画質を高めるためのコンピュータグラフィックスシステム
JPH09101970A (ja) * 1995-10-06 1997-04-15 Omron Corp 画像検索方法および画像検索装置
JP3645024B2 (ja) * 1996-02-06 2005-05-11 株式会社ソニー・コンピュータエンタテインメント 描画装置及び描画方法
JPH09251554A (ja) * 1996-03-18 1997-09-22 Nippon Telegr & Teleph Corp <Ntt> 画像処理装置
JP3609225B2 (ja) * 1996-11-25 2005-01-12 日本電信電話株式会社 類似オブジェクト検索装置
US6381365B2 (en) * 1997-08-22 2002-04-30 Minolta Co., Ltd. Image data processing apparatus and image data processing method
US6192150B1 (en) * 1998-11-16 2001-02-20 National University Of Singapore Invariant texture matching method for image retrieval
US6424741B1 (en) * 1999-03-19 2002-07-23 Samsung Electronics Co., Ltd. Apparatus for analyzing image texture and method therefor
US6594391B1 (en) * 1999-09-03 2003-07-15 Lucent Technologies Inc. Method and apparatus for texture analysis and replicability determination
KR100788642B1 (ko) * 1999-10-01 2007-12-26 삼성전자주식회사 디지털 영상 텍스쳐 분석 방법
KR100355404B1 (ko) * 1999-12-03 2002-10-11 삼성전자 주식회사 주파수 공간상에서의 가보 필터를 이용한 질감표현방법 및질감기반 영상 검색방법

Also Published As

Publication number Publication date
US7199803B2 (en) 2007-04-03
TW528990B (en) 2003-04-21
CN1341248A (zh) 2002-03-20
EP1153365B1 (de) 2007-08-22
KR100444776B1 (ko) 2004-08-16
JP2004158042A (ja) 2004-06-03
EP1153365A4 (de) 2002-11-06
BR0007956A (pt) 2002-04-09
EP1777658B1 (de) 2008-01-23
KR20040023679A (ko) 2004-03-18
NZ513144A (en) 2003-05-30
EP1777658A1 (de) 2007-04-25
DE60045319D1 (de) 2011-01-13
EP1453000A3 (de) 2004-10-20
US7027065B2 (en) 2006-04-11
CN100489892C (zh) 2009-05-20
EP1153365A1 (de) 2001-11-14
ATE385007T1 (de) 2008-02-15
DE60037919T2 (de) 2009-07-09
KR100452064B1 (ko) 2004-10-08
US6624821B1 (en) 2003-09-23
MY128897A (en) 2007-02-28
US20040169658A1 (en) 2004-09-02
DE60036082D1 (de) 2007-10-04
KR20040023676A (ko) 2004-03-18
ATE490518T1 (de) 2010-12-15
SG142124A1 (en) 2008-05-28
KR20040023678A (ko) 2004-03-18
EP1453000B1 (de) 2010-12-01
MY138084A (en) 2009-04-30
KR100444777B1 (ko) 2004-08-18
CA2625839A1 (en) 2000-08-10
AU775858B2 (en) 2004-08-19
MXPA01007845A (es) 2004-06-22
AU2464600A (en) 2000-08-25
DE60037919D1 (de) 2008-03-13
KR100483832B1 (ko) 2005-04-20
KR100444778B1 (ko) 2004-08-18
JP2002536750A (ja) 2002-10-29
KR20040023680A (ko) 2004-03-18
KR20010113667A (ko) 2001-12-28
CA2361492A1 (en) 2000-08-10
WO2000046750A1 (en) 2000-08-10
CN1523537A (zh) 2004-08-25
EP1453000A2 (de) 2004-09-01
US20030193510A1 (en) 2003-10-16
CN100405399C (zh) 2008-07-23
ATE371231T1 (de) 2007-09-15

Similar Documents

Publication Publication Date Title
DE60036082T2 (de) Verfahren und vorrichtung zur wiederauffindung von texturbildern
DE69937530T2 (de) Verfahren zum automatischen Klassifizieren von Bildern nach Ereignissen
EP2140403B1 (de) Vorrichtung und verfahren zum bestimmen eines kanten-histogramms, vorrichtung und verfahren zum ablegen eines bildes in einer bilddatenbank, vorrichtung und verfahren zum auffinden von zwei ähnlichen bildern und computerprogramm
DE60011603T2 (de) Verfahren und vorrichtung zum darstellen von und suchen nach farbbildern
DE60307224T2 (de) Computergestütztes verfahren zur entdeckung von mustern in unbekannten hochdimensionalen daten
DE19916612B4 (de) Verfahren und System zur Verbesserung diskreter Pixelbilder
DE102007035884B4 (de) Linienrauschunterdrückungsvorrichtung, -verfahren und -programm
DE102017220307B4 (de) Vorrichtung und Verfahren zum Erkennen von Verkehrszeichen
EP2284795A2 (de) Quantitative Analyse, Visualisierung und Bewegungskorrektur in dynamischen Prozessen
DE102007013971B4 (de) Verfahren und Vorrichtung zur Ermittlung einer Zellkontur einer Zelle
DE10048029A1 (de) Verfahren zur Berechnung einer zwei Abbildungen verbindenden Transformation
DE3485960T2 (de) Skala-raum-filtrierung.
DE60033580T2 (de) Verfahren und gerät zur klassifizierung eines bildes
DE112004002416T5 (de) Toboggan-basierte Formcharakterisierung
DE19928231C2 (de) Verfahren und Vorrichtung zur Segmentierung einer Punkteverteilung
EP3931798A1 (de) Schätzung der bewegung einer bildposition
DE102005049017B4 (de) Verfahren zur Segmentierung in einem n-dimensionalen Merkmalsraum und Verfahren zur Klassifikation auf Grundlage von geometrischen Eigenschaften segmentierter Objekte in einem n-dimensionalen Datenraum
EP0394959A2 (de) Verfahren zur Bildauswertung
EP2622540A1 (de) Verfahren zur klassifizierung von mustern in bilddatensätzen
DE2813157C2 (de) Gerät zur selbsttätigen, lageunabhängigen Mustererkennung
DE602004001705T2 (de) Adaptives Farbbild-Watermarking mittels vektoriellem Ansatz
DE10017551A1 (de) Verfahren zur zyklischen, interaktiven Bildanalyse sowie Computersystem und Computerprogramm zur Ausführung des Verfahrens
EP1766579A2 (de) Verfahren zur detektion geometrischer strukturen in bildern
DE102008012152A1 (de) Verfahren und Vorrichtung zur Charakterisierung der Formation von Papier
EP0763800A2 (de) Verfahren zur Erkennung von Objekten in zeitveränderlichen Bildern

Legal Events

Date Code Title Description
8364 No opposition during term of opposition