DE3740066C1 - Einrichtung zur Auffindung und Lokalisierung eines Bildausschnittes - Google Patents

Einrichtung zur Auffindung und Lokalisierung eines Bildausschnittes

Info

Publication number
DE3740066C1
DE3740066C1 DE3740066A DE3740066A DE3740066C1 DE 3740066 C1 DE3740066 C1 DE 3740066C1 DE 3740066 A DE3740066 A DE 3740066A DE 3740066 A DE3740066 A DE 3740066A DE 3740066 C1 DE3740066 C1 DE 3740066C1
Authority
DE
Germany
Prior art keywords
image
filter
filters
point
correlation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired
Application number
DE3740066A
Other languages
English (en)
Inventor
Udo Dr Peters
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Airbus Defence and Space GmbH
Original Assignee
Messerschmitt Bolkow Blohm AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Messerschmitt Bolkow Blohm AG filed Critical Messerschmitt Bolkow Blohm AG
Priority to DE3740066A priority Critical patent/DE3740066C1/de
Priority to FR8815356A priority patent/FR2623927A1/fr
Priority to GB8827471A priority patent/GB2213017B/en
Application granted granted Critical
Publication of DE3740066C1 publication Critical patent/DE3740066C1/de
Expired legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/15Correlation function computation including computation of convolution operations
    • G06F17/153Multidimensional correlation or convolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Algebra (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

Die Erfindung betrifft eine Einrichtung zur Auffindung und Lokalisierung eines Bildausschnittes gemäß dem Oberbegriff des Patentanspruchs 1.
Das Auffinden der Position eines gegebenen Bildausschnittes in einem größeren Bild ist ein wichtiges Problem der Bildverarbeitung. Diese als Bildlokalisierung bezeichnete Aufgabe läßt sich auf verschiedene Arten lösen. Die wichtigsten Verfahren beruhen auf der Kreuzkorrelation und der Bestimmung von Fehlergrößen. Siehe Buch D. Casasent: Optical Data Processing, Chap. 1, Basic Concepts, Springer Verlag, Berlin, Heidelberg, New York 1978. Für beide Verfahren sind aus der Literatur zahlreiche Modifikationen und Verfeinerungen bekannt. Unter gewissen Vorraussetzungen lassen sich diese Verfahren jedoch ineinander umrechnen und führen daher zu vergleichbaren Ergebnissen.
Im folgenden wird zunächst von ortsdiskreten Bildern ausgegangen, die durch Pixel beschrieben werden können. Zur Vereinfachung wird bis auf weiteres angenommen, daß auch die Verschiebungen der Bilder untereinander zunächst nur ganze Pixel (Bildelemente) betragen.
Gegeben sind zwei rechteckige Bilder B und R, die durch ihre Grauwerte B (i,j) und R (i,j) an den diskreten Punkten mit den Koordinaten i und j dargestellt werden, wobei gilt:
B (i,j) = 0 falls i < 0 oder i < n bi oder j < 0 oder i < n bj
R (i,j) = 0 falls i < 0 oder i < n ri oder j < 0 oder j < n rj (1)
Das Bild R stellt einen kleineren Ausschnitt aus dem Bild B im gleichen Maßstab dar. Es gilt also
n bi < n ri und
n bj < n rj (2)
Es sei jedoch zugelassen, daß die Grauwerte R (i,j) des Bildes R sich von den entsprechenden Grauwerten B (i,j) des Bildes B durch eine additive Störung N (i,j) unterscheiden. Mit der tatsächlichen Verschiebeposition i vt und j vt in Spalten- und Zeilenrichtung ergibt sich:
R (i,j) = B (i + i vt,j + j vt) + N (i + i vt,j + j vt) (3)
Eine optimale Lokalisierungsstrategie liefert den Verschiebungsvektor [i vo,jvo], der unter allen möglichen zulässigen Verschiebungsvektoren [i v,jv] der wahrscheinlichste ist.
Für die bedingten Wahrscheinlichkeiten p(a/b) gilt also bei einer optimalen Strategie:
p ([i vo ,jvo] = [i vt,jvt]/B,R) < p ([i v,jv] =[i vt,jvt]/B,R) (4)
mit [i v,jv] ≠ [i vo,jvo]
Dazu müssen alle bedingten Wahrscheinlichkeiten p ([i v,jv] = [i vt,jvt]/B,R) bestimmt werden, die ausdrücken, mit welcher Wahrscheinlichkeit die Verschiebung [i v,jvt] mit der tatsächlichen Verschiebung [i vt,jvt] übereinstimmt, unter der Voraussetzung, daß die Bilder B und R vorliegen.
Mit dem Bayes-Theorem läßt sich diese Gleichung umformen:
p (B,R/[i vo,jvo] = [i vt,jvt]) · p ([i vo,jvo] = [i vt,jvt])/p (B,R) < p (B,R/[i v,jv] = [i vt,jvt]) · p ([i v,jv] = [i vt,jvt])/p (B,R) (5)
mit [i v,jv] ≠ [i vo,jvo]
Für den Fall, daß alle Verschiebepositionen die gleiche a-priori-Wahrscheinlichkeit aufweisen oder daß keine Information über diese Wahrscheinlichkeiten vorliegen, und sie daher als gleich angenommen werden, ergibt sich:
p (B,R/[i vo,jvo] = [i vt,jvt]) < p (B,R)/[i v,jv] = [i vt,jvt]) (6)
mit [i v,jv] ≠ [i vo,jvo]
Bezeichnet man die Differenz zwischen dem um [i v,jv] verschobenen Bild R (i -i v,j -j v) und dem Bild B (i,j) mit
N (i,j)[i v,jv] = R (i -i v,j -j v) - B (i,j) (7)
so erhält man für die in Gl. 6 benötigten Wahrscheinlichkeiten:
p (B,R/[i v,jv] = [i vt,jvt]) = p (N(i,j) = (N i,j)[i v ,j v ]) (8)
Die Berechnung dieser Wahrscheinlichkeiten ist in der Regel nur unter gewissen Voraussetzungen möglich. Falls die Störungen Ni,j), die nach Gl. 7 definiert sind, örtlich unkorreliert sind und eine Gauß'sche Wahrscheinlichkeitsdichtefunktion aufweisen, läßt sich die optimale Lokalisierungsstrategie nach Gl. 6 unter Verwendung von Gl. 8 angeben. Nach einer Logarithmierung und nach Weglassen gleicher Terme auf beiden Seiten der Ungleichung erhält man:
Führt man analog zu Gl. 7 ein Bild Ri,j)[iv,jv] ein, wobei gilt
so erhält man durch einige Umformungen und Weglassen gleicher Terme auf beiden Seiten der Ungleichung aus Gl. 9:
Diese beiden bekannten Gleichungen - die Bestimmung von Fehlergrößen nach Gl. 9 und die Korrelationsgleichung 11 - liefern jedoch nur unter den oben angegebenen strengen Voraussetzungen eine optimale Lokalisierung.
Durch ein ortsdiskretes Filter, mit dem das Bild B (i,j) und das Teilbild R (i,j) gefiltert wird, läßt sich die Korrelation der Grauwerte der Störungen verändern. Ein solches Filter, das die vorhandenen Korrelationen vollständig beseitigt, wird Dekorrelationsfilter genannt. Die Bestimmung der Filterkoeffizienten ist jedoch nur möglich, falls die statistischen Kenngrößen der Störung Ni,j) bekannt sind. Dies ist jedoch aus Kausalitätsgründen technisch nicht möglich. Bei den bekannten Verfahren mit festen ortsdiskreten Filtern (Vorverarbeitungsfilter) wird daher unter einer statistischen Annahme nur versucht, die örtlichen Korrelationen der Störungen zu vermindern. Das Ergebnis hängt jedoch stark vom Bildmaterial ab.
Aufgabe der Erfindung ist es eine Einrichtung zum Auffinden Lokalisieren eines Bildausschnittes in einem größeren Bild (Gesamtbild) anzugeben, mit dem eine größere Lokalisierungssicherheit erreicht wird, auch dann, wenn die Störungen, die nach Gl. 7 definiert sind, korreliert sind.
Mit der erfindungsgemäßen Lösung, wie sie in Anspruch 1 gekennzeichnet ist, wird auch bei unterschiedlichen Bildern für eine bessere Dekorrelation der Störungen gesorgt. In Unteransprüchen sind Weiterbildungen der Erfindung enthalten.
Im Gegensatz zu bekannten Einrichtungen erfolgt eine Bildlokalisierung mit normierter Korrelation mittels adaptiver Vorverarbeitung, wobei die Filterkoeffizienten in einem Rechner, dem Bildinhalt angepaßt, berechnet werden.
Dem Rechner ist eine Vorstufe zur näherungsweisen Bestimmung der Autokorrelationsfunktion der Störung zugeordnet. Bei dieser Bestimmung der Autokorrelation sowie der Bestimmung der Filterkoeffizienten kommt ein Rechenmodell (Algorithmus) zur Anwendung.
Nachfolgend sei zur Erläuterung das in der Vorstufe E des Rechners C - gemäß Fig. 1b und Fig. 2 "Bestimmung der Autokorrelation" - angewandte Rechenmodell sowie zum allgemeinen Verständnis die normierte Korrelation gemäß Fig. 3 vorgestellt.
Werden, wie meist der Fall, die beiden Bilder (Gesamtbild und Ausschnitt) von verschiedenen Aufnahmeeinheiten erzeugt, so unterscheiden sie sich auch zusätzlich durch einen multiplikativen (positiven) Faktor, der im folgenden berücksichtigt wird. Zudem ist es sinnvoll, aus den additiven Störungen eine Konstante so abzuspalten, daß die Energie der Störung N (i,j) minimiert wird.
Verwendet man die tatsächliche Verschiebeposition i vt und j vt, so erhält man analog zu Gl. 3:
Mit der Substitution
B′(i + i vt,j +j vt) = k m · B (i +i vt,j +j vt) + k a (13)
läßt sich die Lokalisierung im wesentlichen mit den im vorangegangenen Abschnitt beschriebenen Lokalisierungsalgorithmen nach Gl. 9 oder Gl. 11 durchführen, falls die Störungen N (i,j) eine Gauß'sche Wahrscheinlichkeitsdichtefunktion aufweisen und unkorreliert sind. In den vorhergehenden Gleichungen ist das Bild B (i,j) jeweils durch eine Schätzung B′′ (i,j) sowie das Bild Ri,j)[i v,jv] durch
zu ersetzen.
Bei einer Schätzung für das Bild B′′ (i,j) sind die Konstanten k m und k a in diesem Zusammenhang nicht immer von Interesse und werden hier nicht weiter betrachtet. Wie im folgenden gezeigt wird, läßt sich eine Schätzung auch aus den vorliegenden Bildern B′ (i,j) und R (i,j) gewinnen.
Der in Gl. 9 verwendete Ausdruck
ist ein Maß für die Energie der störenden Anteile. Mit dem Ansatz
B′′ (i,j) = c₁ · (B′ (i,j) - c₂) (16)
lassen sich durch partielles Differenzieren und anschließendes Nullsetzen die Konstanten c₁ und c₂ so bestimmen, daß die Energie nach Gl. 15 ein Minimum annimmt. Dabei darf die Summation nur über die Bildbereiche erfolgen, in denen das Bild R existiert.
Der lineare Mittelwert der Grauwerte hat bei diesem Modell keinen Einfluß auf die Lokalisierung. Es ist daher auch zulässig, das Bild R (i,j) vorher so zu normieren, daß der lineare Mittelwert gleich Null wird. Für diesen Fall vereinfachen sich die Gleichungen erheblich. Eine Näherungslösung läßt sich finden, falls die in Gl. 10 definierten Teilbilder R′′i,j)[i v,jv] in gleicher Weise wie das Bild R (i,j) normiert werden.
Als Normierung für das gewählte Modell bietet sich die Kombination zweier aufeinanderfolgender Normierungsstufen an. Im ersten Schritt wird der Gleichanteil der Grauwerte der Bilder beseitigt. Darauf werden beide Bilder jeweils mit einem Faktor multipliziert. Dieser Faktor bewirkt, daß beide Bilder die gleiche Energie aufweisen.
Fig. 3 zeigt das Blockschaltbild einer nach diesem Konzept arbeitenden Bildlokalisierung. In diesem Blockschaltbild wird davon ausgegangen, daß die Bestimmung der einzelnen Werte der Korrelationsfunktion bzw. der Fehlerfunktion in aufeinanderfolgenden Stufen erfolgt. Als gefundene Verschiebung i vo,jvo wird diejenige ausgegeben, zu der der größte Wert der Korrelationsfunktion bzw. der kleinste Wert der Fehlerfunktion gehört.
Das bisher vorgestellte bekannte Verfahren der normierten Korrelation läßt sich durch Vorverarbeitungsfilter verbessern, wobei die Lokalisierungshäufigkeit erhöht wird.
Bei der Bestimmung der Koeffizienten für ein festes Filter ist es jedoch von Nachteil, daß die Filterkoeffizienten nur für einen einzelnen Fall optimiert werden können. Ändern sich die statistischen Kenngrößen der Bilder in einer ungünstigen Weise, dann kann durch die Verwendung eines Vorverarbeitungsfilters die Lokalisierungsfehlerwahrscheinlichkeit oder Lokalisierungsgenauigkeit verschlechtert werden. Für die Filteroptimierung ist es daher erforderlich, eine sehr große Anzahl von repräsentativen Bildern zu verwenden.
Die Korrelation der Grauwerte untereinander läßt sich durch eine normierte zweidimensionale Autokorrelationsfunktion L n (i,j) beschreiben:
Die Störungen N (i,j) sind dann unkorreliert, falls gilt: 1
Sind die Werte der normierten Autokorrelationsfunktion für i ≠ 0 oder j ≠ 0 von Null verschieden, so ist ein Dekorrelationsfilter zu verwenden, um eine bessere Lokalisierung zu erhalten.
Im folgenden wird davon ausgegangen, daß ein zweidimensionales Vorverarbeitungsfilter mit den Größen n fi und n fj in Spalten- und Zeilenrichtung verwendet wird. Die Filterkoeffizienten werden mit F (i,j) bezeichnet. Es gilt:
F (i,j) = 0 falls i < 0 oder i < n fi oder j < 0 oder j < n fj (19)
Eine Dekorrelation der Störung N (i,j) ist gleichbedeutend mit einer Minimierung der Störenergie E nf der gefilterten Störung, für die gilt:
Durch partielles Differenzieren und Nullsetzen lassen sich die Filterkoeffizienten F (i,j) des Vorverarbeitungsfilters bestimmen, wobei ein Filterkoeffizient festgehalten werden muß, da für dieses Verfahren nur die Relationen zwischen den Filterkoeffizienten erforderlich sind. Bei der Bestimmung der Koeffizienten ergibt sich ein lineares Gleichungssystem, das relativ einfach gelöst werden kann.
Für die Berechnung eines Dekorrelationsfilters ist es erforderlich die statistischen Kenngrößen der Störung N (i,j) zu kennen. Diese Störung, die gemäß Gl. 3 bestimmt werden muß, kann nur dann angegeben werden, wenn eine richtige Lokalisierung durchgeführt wurde. Um die statistischen Kenngrößen bestimmen zu können, muß eine sehr große Zahl von Lokalisierungen ausgewertet werden.
Die Erfindung bezieht sich insbesondere auf ein adaptives Verfahren zur Bildvorverarbeitung. Dabei werden Schätzungen über die Autokorrelation der Störungen in Abhängigkeit vom Bildinhalt und dem jeweiligen Suchbereich durchgeführt.
Bei einem großen Suchbereich besteht die Annahme, daß die Störung nach Gl. 3 zu einem großen Teil aus dem negierten Bild besteht. Die Autokorrelation der Störung wird daher im wesentlichen mit der Autokorrelation des Bildes übereinstimmen. Bei einem großen Suchbereich kann die Autokorrelation gemäß Fig. 1b aus dem Bild B (i,j) näherungsweise bestimmt werden.
Für die Bestimmung der genauen Lokalisierung ist eine weitere Korrelation um den vorher gefundenen wahrscheinlichsten Lokalisierungspunkt erforderlich. Da dann die vorher genutzte Annahme über die Störungen nicht mehr gültig ist, ist nun eine Umschaltung auf ein festes ortsdiskretes Filter erforderlich, bei dem eine Bestimmung der festen Filterkoeffizienten aus einer statistischen Annahme über die Störungen erfolgt. Dieses Prinzip ist in Fig. 2 dargestellt. Alternativ kann statt zwei Filtern und einer Umschalteinrichtung auch nur ein variables Filter benutzt werden, wobei dann wahlweise entweder feste oder adaptive Filterkoeffizienten (nach Gl. 20 berechnete) geladen und verwendet werden.
Ausführungsbeispiele der Erfindung sind in den Fig. 1 bis 4 dargestellt. Es zeigt
Fig. 1a einen gesuchten Ausschnitt in einem größeren Bild;
Fig. 1b eine Bildlokalisation mit adaptiver Vorverarbeitung;
Fig. 2 eine Bildlokalisierung mit umschaltbarer adaptiver Vorverarbeitung;
Fig. 3 ein Blockschaltbild einer Bildlokalisierung;
Fig. 4 eine Bestimmung der normierten Werte der Autokorrelationsfunktion.
Die Erfindung bezieht sich insbesondere auf eine adaptive Bildvorverarbeitung zur teilweisen Dekorrelation.
Durch die Anwendung der Dekorrelation ergeben sich örtlich sehr scharf begrenzte Extremwerte in der Fehler- bzw. in der Korrelationsfunktion. Die Bestimmung der Extremwerte kann daher häufig erst nach Anwendung Interpolationsverfahrens erfolgen. Will man auf ein aufwendiges Interpolationsverfahren verzichten, so lassen sich durch Vorgabe einer Autokorrelationsfunktion der gefilterten Bilder Extremwerte der Fehler- bzw. Korrelationsfunktion in ihrer Form anpassen. In diesem Fall ist die Berechnung der Filterkoeffizienten erheblich aufwendiger. Durch die Faltung der aus Gl. 20 berechneten Koeffizienten mit einer Musterfunktion, die zu der gewünschten Korrelationsfunktion führt, läßt sich aber auch hier eine einfache Bestimmung der endgültigen Filterkoeffizienten erreichen.
Für eine Realisierung der Erfindung, die eine Bildlokalisierung in Videoechtzeit (< 1 sec) ermöglicht, sind möglichst einfache Strukturen zu verwenden. In dem hier vorgestellten Konzept wird durch eine schnelle, parallel arbeitende Hardware eine Lokalisierung mittels Vorverarbeitung und Korrelation in Videoechtzeit durchgeführt.
Bei Verwendung einer Vorverarbeitung wurde in diesem Beispiel ein Filter mit der Größe
n fi = 1 (Werte in Spaltenrichtung)
n ÿ = 5 (Werte in Zeilenrichtung)
jeweils optimiert. Bei der adaptiven Vorverarbeitung wurden jedoch nur drei Koeffizienten gemäß Gl. 20 bestimmt. Bezeichnet man diese Koeffizienten mit F′ (i,j), so erhält man folgendes Gleichungssystem:
Einer der drei zu bestimmenden Filterkoeffizienten kann frei gewählt werden, zum Beispiel:
F (1,1) = 1
Beachtet man die Symmetrieeigenschaften der Autokorrelationsfunktion
L n (i,j) = L n (i,-j)
und ihren Wert an der Stelle (0,0) nach Gl. 17
L n (0,0) = 1,
so erhält man aus Gl. 21:
E nf =
2 · L n (0,2) · F′ (1,3)
+ 2 · L n (0,1) · (F′ (1,2) + F′ (1,2) · F′ (1,3))
+ (1 + F′ (1,2)² + F′ (1,3)²)
Für die Bestimmung von F′ (1,2) ist diese Gleichung partiell nach F′ (1,2) zu differenzieren und nullzusetzen:
0 = 2 · L n (0,1) + 2 · L n (0,1) · F′ (1,3) + 2 · F′ (1,2)
Für die Größe F′ (1,3) ergibt sich in gleicher Weise:
0 = 2 · L n (0,2) + 2 · L n (0,1) · F′ (1,2) + 2 · F′ (1,3)
Aus diesem linearen Gleichungssystem ergibt sich:
F′ (1,1) = 1 (lt. Voraussetzung)
F′ (1,2) = L n (0,1) · (L n (0,2) - 1) / (1 - L n (0,1)²)
F′ (1,3) = (L n (0,1)² - L n (0,2)) / (1 - L n (0,1)²)
Gewünschtenfalls kann zu einer leichteren Maximumbestimmung der Korrelationswerte dieser Ergebnisvektor zusätzlich mit einem Formvektor gefaltet werden. Für die Koeffizienten des verwendeten Filters gilt dann:
F (1,1) = F′ (1,1)
F (1,2) = 2 · F′ (1,1) + F′ (1,2)
F (1,3) = F′ (1,1) + 2 · F (1,2) + F′ (1,3)
F (1,4) = F′ (1,2) + 2 · F′ (1,3)
F (1,5) = F′ (1,3)
Für die Bestimmung dieser Koeffizienten, die Bild für Bild neu bestimmt werden müssen, werden nur die Korrelationswerte L n (0,1) und L n (0,2) benötigt. Diese lassen sich in Videoechtzeit einfach bestimmen, wie das Blockschaltbild in Fig. 4 zeigt. Es wird dabei davon ausgegangen, daß die Bilddaten seriell zeilenweise übertragen werden. Durch eine Steuerung wird erreicht, daß die Summenbildung nur über die Punkte einer Zeile erfolgt. Die Steuerung ist in Fig. 4 enthalten.
In Fig. 4 sind sowohl der Bildausschnitt R (i,j) als auch das größere Bild oder Restbild B (i,j) (Gesamtbild - Ausschnitt = Restbild) in Teilbildspeichern T abrufbar. Die Multiplizierglieder sind mit M und die Addierer mit A bezeichnet, die Dividierstufen mit D. Die Addierer werden angesteuert von ihren zugeordneten Treibern.

Claims (4)

1. Einrichtung zur Auffindung und Lokalisierung eines Bildausschnittes in einem Gesamtbild mit Hilfe einer Einrichtung zur Bildverarbeitung, in der in Zeilen und Spalten aufgeteilte Bildpunktsignale von optoelektronischen Wandlern verarbeitet werden, mit wenigstens einem Filter, dadurch gekennzeichnet, daß zur adaptiven Bildvorverarbeitung jedem Bildspeicher (Memo 1, 2) für
  • - das Gesamtbild (B (i,j)),
  • - das Teilbild oder Bildausschnitt (R (i,j)),
ein variables ortsdiskretes Filter (f) zugeordnet ist und beide Filter (f v ) mit einem Rechner (C) verbunden sind, in dem eine Berechnung der Filterkoeffizienten für jedes Bild aus den statistischen Kenngrößen der gefilterten oder ungefilterten Bilder erfolgt.
2. Einrichtung zur Auffindung und Lokalisierung eines Bildausschnittes nach Anspruch 1, dadurch gekennzeichnet, daß jedes variable ortsdiskrete Filter (f v) entweder mit einem festen ortsdiskreten Filter (f f) kombiniert ist und zwischen zwei Filtern und/oder Moden ausgewählt wird oder mit mindestens zwei auf verschiedene Weise bestimmten Filterkoeffizientensätzen alternativ geladen wird.
3. Einrichtung zur Bildlokalisierung nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß mit dem Rechner (C) eine Eingangsstufe (E) zur Bestimmung der Autokorrelation verbunden ist, die
  • - die Bilddaten für jedes Bild aus dem zugehörigen Speicher (Memo 1, 2) seriell, zeilenweise (in den Spalten Punkt für Punkt) oder spaltenweise (in den Zeilen Punkt für Punkt) abruft,
  • - zur Multiplikation derselben Multiplizierglieder (M) und
  • - zur Summenbildung Additionsglieder (A) ansteuert, deren Ausgänge mit je einer Dividierstufe (D) verbunden sind, wobei einige oder alle dieser Funktionen der Eingangsstufe (E) auch wahlweise im Rechner (C) durchgeführt werden.
DE3740066A 1987-11-26 1987-11-26 Einrichtung zur Auffindung und Lokalisierung eines Bildausschnittes Expired DE3740066C1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE3740066A DE3740066C1 (de) 1987-11-26 1987-11-26 Einrichtung zur Auffindung und Lokalisierung eines Bildausschnittes
FR8815356A FR2623927A1 (fr) 1987-11-26 1988-11-24 Procede et dispositif pour la detection et la localisation d'une portion d'image
GB8827471A GB2213017B (en) 1987-11-26 1988-11-24 Method and apparatus for detecting a localized image component

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE3740066A DE3740066C1 (de) 1987-11-26 1987-11-26 Einrichtung zur Auffindung und Lokalisierung eines Bildausschnittes

Publications (1)

Publication Number Publication Date
DE3740066C1 true DE3740066C1 (de) 1989-03-23

Family

ID=6341314

Family Applications (1)

Application Number Title Priority Date Filing Date
DE3740066A Expired DE3740066C1 (de) 1987-11-26 1987-11-26 Einrichtung zur Auffindung und Lokalisierung eines Bildausschnittes

Country Status (3)

Country Link
DE (1) DE3740066C1 (de)
FR (1) FR2623927A1 (de)
GB (1) GB2213017B (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0851383A2 (de) * 1996-12-25 1998-07-01 Hitachi, Ltd. Bildprozessor, Gerät und Verfahren zur Bildverarbeitung
WO2000077720A1 (en) * 1999-06-16 2000-12-21 Coreco Imaging, Inc. Systems and methods for locating a pattern in an image
DE10128722C1 (de) * 2001-06-13 2003-04-24 Siemens Ag Vorrichtung zur Kontrolle von Objekten

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009145931A1 (en) * 2008-05-27 2009-12-03 Nikon Corporation Device and method for estimating defocus blur size in an image

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE1099771B (de) * 1958-02-10 1961-02-16 Standard Elektrik Lorenz Ag Anordnung zum Feststellen eines auf einem Schriftstueck angebrachten Kennzeichens
WO1987005769A1 (en) * 1986-03-19 1987-09-24 British Broadcasting Corporation Tv picture motion measurement

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3643018A (en) * 1966-07-13 1972-02-15 Texas Instruments Inc Alignment system using an electronic scanner
US4352126A (en) * 1977-04-14 1982-09-28 Jacques Poncin System for reducing visible noise in television images
EP0005918B1 (de) * 1979-05-09 1983-05-04 Hughes Aircraft Company Bildnachführsystem
DE3001588A1 (de) * 1980-01-15 1981-07-23 Goodyear Aerospace Corp., Akron, Ohio Digital-videokorrelator
FR2566217B1 (fr) * 1984-05-28 1988-05-27 Micro Controle Procede et dispositif pour la reconnaissance d'un motif particulier d'une image
US4667304A (en) * 1984-11-23 1987-05-19 Digivision, Inc. Real-time, localized enhancement of a video image using separable two-dimensional filters
FR2593698A1 (fr) * 1986-01-31 1987-08-07 Labo Electronique Physique Appareil d'examen de milieux en mouvement par echographie ultrasonore

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE1099771B (de) * 1958-02-10 1961-02-16 Standard Elektrik Lorenz Ag Anordnung zum Feststellen eines auf einem Schriftstueck angebrachten Kennzeichens
WO1987005769A1 (en) * 1986-03-19 1987-09-24 British Broadcasting Corporation Tv picture motion measurement

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Buch: D.Casasent: Optical Data Processing, Chap. 1, Basic Concepts, Springer Verlag, Berlin, Heidelberg, New-York 1978 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0851383A2 (de) * 1996-12-25 1998-07-01 Hitachi, Ltd. Bildprozessor, Gerät und Verfahren zur Bildverarbeitung
EP0851383A3 (de) * 1996-12-25 2000-01-05 Hitachi, Ltd. Bildprozessor, Gerät und Verfahren zur Bildverarbeitung
WO2000077720A1 (en) * 1999-06-16 2000-12-21 Coreco Imaging, Inc. Systems and methods for locating a pattern in an image
DE10128722C1 (de) * 2001-06-13 2003-04-24 Siemens Ag Vorrichtung zur Kontrolle von Objekten

Also Published As

Publication number Publication date
GB8827471D0 (en) 1988-12-29
GB2213017A (en) 1989-08-02
FR2623927B1 (de) 1995-05-12
FR2623927A1 (fr) 1989-06-02
GB2213017B (en) 1992-01-15

Similar Documents

Publication Publication Date Title
DE602005004694T2 (de) Verfahren und Vorrichtung für lokal adaptive Bildverarbeitungsfilter
DE2938130C3 (de) System zur Störungs- bzw. Rauschverminderung in einem Bildsignal
EP0645037B1 (de) Verfahren zur detektion von änderungen in bewegtbildern
DE102008034979B4 (de) Verfahren und Einrichtung zur Erzeugung von fehlerreduzierten hochauflösenden und kontrastverbesserten Bildern
DE102005025629A1 (de) Bildverarbeitungsverfahren zur Reduzierung von Blocking-Artefakten
DE102004007637A1 (de) Verfahren zum Erzeugen eines Bildes mit erhöhter Auflösung unter Verwendung einer Mehrzahl von Bildern mit niedriger Auflösung
WO2005048195A2 (de) Verfahren zur korrespondenzanalyse in bilddatensätzen
DE102007013570A1 (de) Verfahren zur Rauschverminderung in digitalen Bildern mit lokal unterschiedlichem und gerichtetem Rauschen
EP0974105B1 (de) Verfahren zur mehrdimensionalen, diskreten wavelet-transformation und transformationseinheit zur durchführung des verfahrens
DE4437385A1 (de) Verfahren und Vorrichtung zur Bildkorrektur
DE60023837T2 (de) Vorrichtung und verfahren zur filterung
DE112007000738T5 (de) Filter für Störbewegungen
DE3740066C1 (de) Einrichtung zur Auffindung und Lokalisierung eines Bildausschnittes
WO2018224444A1 (de) Verfahren und vorrichtung zur bildkorrektur
AT508873B1 (de) Verfahren zur aufnahme eines bildes
DE4105517A1 (de) Verfahren und vorrichtung zur filterung von signalen
EP0534996B1 (de) Verfahren zur segmentierung bewegter objekte durch hintergrundadaption mit kompensation der kamerabewegung
EP1359539A2 (de) Neurodynamisches Modell der Verarbeitung visueller Informationen
WO1991012584A2 (de) Verfahren zur bestimmung der momentanen lage und form von bewegten objekten und zu deren anzeige als binärbild
DE19517357C1 (de) Verfahren und Vorrichtung zur Aufbereitung eines Videobildes
EP3518180A1 (de) Verfahren zur erstellung einer bildstapel-datenstruktur
DE3416536A1 (de) Recheneinrichtung zur schnellen fourier-transformation
EP0667593A1 (de) Verfahren zur Beeinflussung der Bildqualität von durch eine elektronische Bildaufnahmevorrichtung gelieferten Bildern
EP0966727A1 (de) Kompaktes sensorsystem zur optischen bewegungserkennung in echtzeit
DE19604050A1 (de) Verfahren zur Bearbeitung von decodierten Bildblöcken eines blockbasierten Verfahrens zur Bildcodierung

Legal Events

Date Code Title Description
8100 Publication of patent without earlier publication of application
D1 Grant (no unexamined application published) patent law 81
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: DEUTSCHE AEROSPACE AG, 8000 MUENCHEN, DE

8327 Change in the person/name/address of the patent owner

Owner name: DAIMLER-BENZ AEROSPACE AKTIENGESELLSCHAFT, 80804 M

8339 Ceased/non-payment of the annual fee