DE19983806B4 - Ein die diskrete Wavelet-Transformation verwendender Autofokus-Algorithmus - Google Patents

Ein die diskrete Wavelet-Transformation verwendender Autofokus-Algorithmus Download PDF

Info

Publication number
DE19983806B4
DE19983806B4 DE19983806T DE19983806T DE19983806B4 DE 19983806 B4 DE19983806 B4 DE 19983806B4 DE 19983806 T DE19983806 T DE 19983806T DE 19983806 T DE19983806 T DE 19983806T DE 19983806 B4 DE19983806 B4 DE 19983806B4
Authority
DE
Germany
Prior art keywords
focus
focus position
dwt
parameter
sharpness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE19983806T
Other languages
English (en)
Other versions
DE19983806T1 (de
Inventor
Tinku Tempe Acharya
Werner Chandler Metz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of DE19983806T1 publication Critical patent/DE19983806T1/de
Application granted granted Critical
Publication of DE19983806B4 publication Critical patent/DE19983806B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Image Analysis (AREA)
  • Image Input (AREA)

Abstract

Es wird ein Verfahren beschrieben, daß die Schritte enthält, daß ein Gesamtschärfeparameter für eine vorgegebene Fokusposition dadurch bestimmt wird, daß an einem von einer Abbildungseinrichtung (530) aufgenommenen Bild eine diskrete Wavelet-Transformation durchgeführt wird und die Abbildungseinrichtung in einer optimalen Fokusposition dadurch automatisch fokussiert wird, daß eine Mehrzahl von verschiedenen Schärfeparametern verglichen wird. Die optimale Fokusposition wird dadurch automatisch bestimmt, daß für eine bestimmte Szene (540) der höchste Schärfeparameter gefunden wird.

Description

  • Die Erfindung bezieht sich auf ein Verfahren und eine Einchtung zum automatischen Fokussieren einer digitalen Abbildungseinrichtung.
  • Eine Abbildungseinrichtung, wie beispielsweise eine digitale Kamera, besteht u.a. aus einem Linsenteilsystem und einem bildverarbeitenden Teilsystem. Das Linsensystem fokussiert auf einer externen Szene und ermöglicht davon in einem bestimmten begrenzten Bereich ausgehendem Licht (Lichtquelle), auf ein Sensor-Array aufzutreffen. Das Sensor-Array besteht aus Fotozellen, die sich aufladen, wenn sie innerhalb einer bestimmten Absorptionsperiode von der Lichtquelle getroffen werden. Diese Ladung wird dann in einen digitalen Wert (Pixelwert) umgewandelt. Auf diese aufgenommenen Pixel werden dann Bildverarbeitungstechniken angewendet, wie beispielsweise Kompression, Skalierungsbildverbesserung usw. In einer Speichereinrichtung gespeicherte, verarbeitete Bilder können dann zur weiteren Verwendung in eine Kamera heruntergeladen werden oder (sofern ein austauschbarer Speicher wie eine FLASH-Karte in der Kamera verwendet wird) entfernt werden.
  • Automatische Fokussierungssysteme sind beispielsweise aus der US-Patentschrift Nr. 5,200,828 und der Europäischen Patentanmeldung EP 0 404 952 A1 bekannt.
  • Die Fokussierung des Linsensystems in der Kamera kann sich auf die Unschärfe bzw. die Schärfe der durch die Pixel des Sensor-Arrays dargestellten Szene auswirken. Die Fokussierung kann manuell erfolgen, geschieht jedoch häufig automatisch. Eine derartige automatische Fokussiertechnik basiert auf FIR (Finite Impulse Response)-Filtern bzw. Filtern mit Empfindlichkeit für finite Impulse, die bestimmen, wo Kantenmerkmale liegen und mit welcher Genauigkeit Kanten bestimmt werden können. Bei Bildern, die eine hohe Entropie haben, d.h. Pixel mit sehr unterschiedlichen Intensitäts-/Farbwerten, ist eine derartige Technik weniger wirksam, da die Mittelung zu verzerrten Ergebnissen führt. Folglich wird eine Fokussiertechnik benötigt, die die Schärfe des Bildes unabhängig von dessen Entropie besser bestimmen kann.
  • Wenn die Fokussierung hardwaremäßig, beispielsweise mit einer CMOS(komplementärer Metalloxid-Halbleiter)-Abbildungseinrichtung realisiert wird, ist es ferner im Hinblick auf die Implementierung wichtig, den Rechenaufwand der Fokussierprozedur zu verringern, insbesondere wenn von der Einrichtung zusätzlich viele andere Funktionen ausgeführt werden müssen. Bei Einrichtungen mit zwei Betriebsarten, welche sowohl Filmaufnahmen als auch Standbilder liefern können, besteht ferner ein Bedarf an Verfahren und Einrichtungen, die leicht unterschiedliche Fokussierebenen zur Verfügung stellen können.
  • Bei einer Einrichtung, beispielsweise einer digitalen Kamera, sollte unabhängig davon, ob es eine Standbild- oder eine Videofilmeinrichtung ist, eine automatische Fokussierung in integrierten Schaltungen mit minimalem Kosten- und Platzaufwand realisierbar sein. Idealerweise könnte das Fokussierverfahren Komponenten verwenden, die irgendwo anders in der Abbildungseinrichtung zu anderen Zwecken bereits verwendet werden, ohne daß eine Spezialschaltung zur automatischen Fokussierung erforderlich ist.
  • Diese Aufgabe wird durch ein Verfahren zum automatischen Fokussieren einer digitalen Abbildungseinrichtung mit den Merkmalen des Patentanspruchs 1 bzw. einer Einrichtung zum automatischen Fokussieren einer Abbildungseinrichtung mit den Merkmalen des Patentanspruchs 13 gelöst.
  • Vorteilhafte und bevorzugte Weiterbildungen der Erfindung sind in den Unteransprüchen gekennzeichnet.
  • Im folgenden wird die Erfindung anhand von in den Zeichnungen dargestellten bevorzugten Ausführungsformen näher beschrieben.
  • Kurze Beschreibung der Zeichnungens
  • 1 zeigt die Zerlegung eines Bildes mit Hilfe einer diskreten Wavelet-Transformation.
  • 2 zeigt ein Ablaufdiagramm gemäß einem Ausführungsbeispiel der Erfindung.
  • 3 zeigt ein Beispiel der in der Erfindung verwendeten Schärfeparameterberechnung.
  • 4 zeigt eine Blockdarstellung wenigstens eines Ausführungsbeispiels der Erfindung.
  • 5 zeigt eine Systemdarstellung eines Ausführungsbeispiels der Erfindung.
  • Detaillierte Beschreibung der Erfindung
  • Die hier beschriebenen beispielhaften Ausführungsbeispiele sollen lediglich die erfindungsgemäßen Prinzipien veranschaulichen und sind nicht als Einschränkung des Schutzbereichs der Erfindung zu verstehen. Statt dessen können die erfindungsgemäßen Prinzipien bei einem breiten Spektrum von Systemen angewendet werden, um die hier beschriebenen Vorteile und andere Vorteile zu erzielen oder um genauso andere Aufgaben zu lösen.
  • Bei Verwendung der traditionellen Fourier-Analyse oder -Transformation kann jedes Signal als eine Summe aus sinusförmigen Signalformen gemischter Frequenzen angenähert werden. Während Fourier-Transformationen für Signale mit wiederkehrenden Eigenschaften ideal sind, können sie Signale mit scharfen Diskontinuitäten wie die Kantenmerkmale bei Bildern oder für die digitale Kommunikation codierte Signale nicht wirksam approximieren. Folglich ist die Fourier- Analyse dann ungeeignet, wenn Kantenmerkmale erfaßt werden müssen, um die Schärfe zu bestimmen, da die Fourier-Transformation an erster Stelle Kantenmerkmale nicht angemessen darstellt. Es wurde eine andere Art der Signalanalyse entwickelt, die als Wavelet-Analyse bekannt ist, um Signale besser darzustellen, welche übertriebene und diskontinuierliche Merkmale haben. Die Wavelet-Kurve selbst ist eine diskontinuierliche und ausgezackte Kurve, wenn sie geliefert wird, und durch Kombination verschiedener Wavelets ist eine wesentlich bessere Darstellung der Bildmerkmale verfügbar. Eine andere als diskrete Wavelet-Transformation (DWT) bekannte Transformation, die auf der Wavelet-Analyse basiert, wurde zur besseren Darstellung von Diskontinuitäten wie an den Kantenmerkmalen von digitalen Bildern entwickelt.
  • Ein grundlegender Unterschied zwischen Fourier-Transformationen und Wavelet-Transformationen besteht darin, daß die Wavelet-Transformationen sowohl räumlich als auch zeitlich lokalisiert sind. Somit bleiben sowohl der Raum (Zeitbereich) als auch die Frequenz erhalten, wenn ein Signal mit Hilfe der Wavelet-Analyse zerlegt wird. Da die Fourier-Transformation von Natur aus periodisch ist, stellt sie räumliche Diskontinuitäten nicht gut dar. Die Wavelet-Transformation dagegen ist von Natur aus diskontinuierlich und weist lokalisierte Variationen auf, die verschwinden bzw. nicht an allen Orten des Signals existieren. Die allgemeine Wavelet-Theorie ist auf dem Gebiet der Signalanalyse ziemlich bekannt und wird hier nicht beschrieben, um die Erfindung nicht mit unnötigen Einzelheiten zu belasten.
  • Die DWT ist ein "diskreter" Algorithmus und approximiert das Eingangssignal mit diskreten Abtastwerten eines vollständigen Wavelets. Aufgrund dieser diskreten Abtastpunkte kann man sich die DWT somit auch als Filter mit gut definierten Koeffizienten vorstellen. Die in wenigstens einem Ausführungsbeispiel der Erfindung zur Bildskalierung gewählte DWT ist die 9-7-bi-orthogonal-Spline-DWT. Da die DWT dis kret ist, kann die DWT mit Hilfe einer digitalen Logik, wie beispielsweise mit hochintegrierten Schaltungen (VLSI), implementiert werden und kann folglich mit anderen digitalen Komponenten zusammen auf einem Chip integriert werden. Folglich kann die DWT in einer Abbildungseinrichtung wie einer Standbild- oder Videokamera leicht implementiert werden. Die Fähigkeit der DWT, Merkmale eines Bildes besser zu approximieren, macht sie für die Bildkompression ideal und so wurde sie auf dem Gebiet der Bildaufbereitung verwendet. Bei einer eine DWT zur Bildkompression verwendenden Einrichtung kann eine Autofokus-Technik in der Einrichtung effizient implementiert werden, da die DWT-Rechenmaschine zum Zwecke der Bildkompression darin bereits enthalten ist.
  • 1 zeigt die Zerlegung eines Bildes mit Hilfe einer diskreten Wavelet-Transformation.
  • Die Zerlegung eines Eingabebildes I 100 mit Hilfe einer DWT ist in 1 dargestellt. Die dargestellte Zerlegung verwendet eine DWT in zwei Dimensionen, d.h. eine zeilenweise und dann spaltenweise angewendete DWT. Das Ergebnis ist ein zerlegtes Bild X 110, das vier mit LL, LH, HL und HH bezeichnete "Teilbänder" hat.
  • Wenn ein Bild 100 die Abmessungen M·N (M Zeilen und N Spalten von Pixeln) hat, dann wird die Anwendung einer zweidimensionalen DWT vier Teilbänder erzeugen, die jeweils Abmessungen von M/2·N/2 haben. Das Teilband LL enthält die meisten der ursprünglichen Bildinformationen und stellt im wesentlichen eine auf die Hälfte skalierte Version des ursprünglichen Eingabebildes I 100 dar. Das Teilband HL enthält extrahierte Kanten von dem Eingabebild I 100, nämlich diejenigen Kanten, die in vertikaler Richtung verlaufen. In ähnlicher Weise enthält das Teilband LH extrahierte Kanten von dem Eingabebild I 100, nämlich diejenigen Kanten, die in der horizontalen Richtung verlaufen. Das Teilband HH enthält Hochfrequenzrauschen und diejenigen Kanten des Eingabebildes I 100, die nicht horizontal oder vertikal verlaufen.
  • Bei einem Ausführungsbeispiel der Erfindung werden die Kantenextraktionseigenschaften von durch DWT erzeugten Teilbändern verwendet, um die Güte einer bestimmten Fokussierposition zu bestimmen. Ein "Schärfe"-Parameter wird somit im Hinblick auf eines oder mehrere dieser Teilbänder definiert. Der Schärfeparameter versucht, die Bedeutung von Kanten innerhalb der DWT-Teilbänder zu messen. Kanten in einem Bild definieren Umrisse von Objekten oder Grenzen zwischen Bereichen. Kanten können als Änderung der Grauskalenintensität zwischen einem Pixel und seinem (seinen) Nachbarn definiert werden. Die DWT-Teilbänder sind empfindlich gegenüber dieser Intensitätsänderung und heben diese hervor und können somit als Kantendiskriminator operieren. Da Intensitätsänderungen oft auftreten können, können Änderungen mit einem Schwellwert verglichen werden, um festzustellen, welche Änderungen eine Kante darstellen und welche nicht.
  • Werden die DWT-Teilbänder zu diesem Zweck verwendet, müssen nicht alle Teilbänder verwendet werden. Da das Teilband LL lediglich eine herunterskalierte Version des ursprünglichen Bildes ist, ist die Kantenbestimmung darin genauso rechenintensiv wie eine an dem Eingabebild durchgeführte Kantenbestimmung wäre. Folglich kann das Teilband LL bei der Schärfeparameterbewertung vernachlässigt werden. In ähnlicher Weise kann das Teilband HH vernachlässigt werden, da es statistisch gesehen mehr Rauschen als verwendbare Kanteninformationen enthält, insbesondere bei Eingabebildern, die von Anfang an verrauscht sind. Dementsprechend werden bei einem Ausführungsbeispiel der Erfindung nur die Teilbänder LH und HL zur Bestimmung der Kanten verwendet und somit zur Bewertung der Schärfe des Bildes. Allgemein gilt, je schärfer das Bild ist, je wahrscheinlicher hat das Linsensystem, welches das Bild aufgenommen hat, den optimalen Brennpunkt (Fokus).
  • 2 zeigt ein Ablaufdiagramm gemäß einem Ausführungsbeispiel der Erfindung.
  • Die Methodik der automatischen Fokussierung einer Abbildungseinrichtung auf der Basis der diskreten Wavelet-Transformation (DWT) beinhaltet die Anwendung der DWT auf eine Reihe von aufgenommenen Bildern (von denen jedes mit einer anderen Brennweite aufgenommen wurde) und bei jedem aufgenommenen Bild das Berechnen seines Schärfeparameters. Die zur Aufnahme desjenigen Bildes mit dem höchsten Schärfeparameter verwendete Position des Brennpunktes ist die optimalste Position des Brennpunktes.
  • Der erste Schritt besteht darin, bestimmte Schwellwerte auszuwählen oder einzustellen, mit denen der Inhalt der Teilbänder verglichen werden kann (Schritt 210). Dies beseitigt Störinformationen in den Teilbändern, wie beispielsweise falsche Kanten. Die Schwellwerte können auf dem Inhalt der Teilbänder basieren, speziell auf dem Minimum und Maximum der Absolutwerte der DWT-Koeffizienten xm in bzw. xmax in dem Teilband. Beispielsweise kann ein unterer Schwellwerte TL definiert werden, unterhalb dessen Werte bei der Kantenbestimmung nicht berücksichtigt werden, der gleich kL·xmin ist, wobei kL eine zwischen 1,0 und 1,5 jeweils einschließlich liegende einrichtungsabhängige Konstante ist. Genauso kann ein oberer Schwellwert TH definiert werden, oberhalb dessen Werte bei der Kantenbestimmung nicht berücksichtigt werden, der gleich kH·xmaX ist, wobei kH eine zwischen 0,1 und 1,0 jeweils einschließlich liegende einrichtungsabhängige Konstante ist. Der Schärfeparameter S für ein bestimmtes Teilband ist der Mittelwert der Absolutwerte der DWT-Koeffizienten in dem Teilband, welche zwischen TL und TH jeweils einschließlich fallen. Der Gesamtschärfeparameter Sd für das Gesamtbild bei einer bestimmten Fokusposition d ist der Mittelwert der Schärfeparameter für die DWT-Teilbänder LH und HL bei dieser Position.
  • Mit Hilfe dieses Schwellwertes kann die optimale Fokusposition für eine bestimmte Szene mit der folgenden Prozedur automatisch ermittelt werden. Zum Zwecke der Erläuterung sei angenommen, daß sich die mechanische Einrichtung in dem Linsensystem in einer begrenzten Anzahl (N) von diskreten Fokuspositionen D0, D1 ... DN_1 sich positionieren kann. Das Linsensystem wird zunächst in eine Standardfokusposition "d" gebracht (Schritt 215). Bei dieser Fokusposition d wird dann ein Bild aufgenommen und eine DWT an diesem ausgeführt. Danach wird sein Schärfeparameter Sd berechnet (Schritt 220). Da die Fokussierqualität am besten durch Vergleich bestimmt werden kann, wird als nächstes eine weitere Fokusposition gewählt. Beispielsweise kann das System in die unmittelbar davor liegende Fokusposition d–1 gebracht werden (Schritt 225). Die Bezeichnung "d–1" soll bedeuten, daß wenn die gegenwärtige Fokusposition d = Di ist, dann d–1 = Di–1. Wieder wird ein Bild von im wesentlichen der gleichen Szene wie dasjenige in Schritt 220 aufgenommene Bild aufgenommen und der Schärfeparameter Sd–1 wird berechnet (Schritt 230).
  • Die Schärfeparameter der beiden Fokuspositionen, Sd und Sd–1, werden dann verglichen (Schritt 235), um festzulegen, in welcher Richtung die nächste Bewertung getroffen werden sollte (nachfolgende oder vorhergehende Fokusposition). Allgemein gesprochen sollten mindestens drei Fokuspositionen geprüft werden, bevor eine ordentliche Entscheidung hinsichtlich der optimalen Fokusposition für die Szene getroffen werden kann. Wenn Sd > Sd–1 ist (wie im Schritt 235 geprüft wird), dann wird die nächsthöhere Fokusposition d+1 beispielsweise für den Vergleich gewählt, da dann bekannt ist, daß die vorhergehenden Fokuspositionen d–1, d–2 usw. niedrigere Schärfeparameter erzielen und somit unschärfer sind. In diesem Fall wird das Linsensystem in die nächsthöhere Fokusposition d + 1 gebracht (Schritt 260), was die diskrete Position Di+1 anzeigt, wenn d = Di. Dann wird ein Bild von im wesentlichen der gleichen Szene wie im Schritt 230 aufgenommen und dessen Schärfeparameter Sd+1 wird berechnet (Schritt 265). Da die Fokusposition d–1 durch den Vergleich mit der Fokusposition d (im Schritt 235) ausgeschlossen wurde, werden nun d und d+1 verglichen, wobei deren jeweilige Schärfeparameter Sa und Sd+1 verwendet werden. Wenn Sd > = Sd+1 ist, dann ist d die optimalste Fokusposition (Schritt 280), da alle anderen Fokuspositionen d+1, d+2 usw. eine geringere Schärfe haben. Somit ist allgemein gesagt eine Fokusposition die optimalste Fokusposition, wenn Sd > = Sd–1 und Sd > = Sd–1 und Sd > = Sd+1 Wenn Sa kleiner als Sd+1 ist, dann ist die Fokusposition d+1 oder eine höhere Fokusposition evtl. die optimale Fokusposition. Somit wird die Standardfokusposition d auf d+1 gesetzt und genauso wird der Schärfeparameter Sd auf Sd +1 gesetzt (Schritt 275). Wenn d vorher beispielsweise gleich D9 war, dann wird es nun auf d+1 oder D10 eingestellt. Nach dieser Neueinstellung der Standardfokusposition d auf d+1, werden die Schritte 260, 265 und 270 wiederholt. Sobald Sd > = Sd +1, kann die Autofokusprozedur beendet werden und d kann als die richtige oder optimale Fokusposition ausgewählt werden. Ein numerisches Beispiel und eine numerische Tabelle sind unten unter Bezugnahme auf 3 angegeben.
  • Es wird wieder auf Schritt 235 Bezug genommen. Wenn Sa nicht größer als Sd –1 war, dann können d+1 und höhere Fokuspositionen nicht die optimale Fokusposition sein, sondern eher d–1 oder vielleicht niedrigere Positionen wie d–2, d–3 usw. Da aufgrund dieses Vergleichs die ursprüngliche Standardfokusposition d (vom Schritt 215) aus den Betrachtungen ausgeschlossen wurde, wird die Standardfokusposition d auf d-1 zurückgesetzt (Schritt 240). In ähnlicher Weise wird der Schärfeparameter Sd auf Sd_1 gesetzt (Schritt 240). Wenn beispielsweise d gleich D9 wäre, dann wird d auf D8 gesetzt.
  • Für die auf den nächstniedrigeren Wert somit neu eingestellte Standardfokusposition muß die Schärfe des aufgenommenen Bildes bei niedrigeren Fokuspositionen geprüft werden. Dementsprechend wird das Linsensystem in eine Fokusposition d–1 gebracht (Schritt 250). Dann wird bei der Fokusposition d–1 ein Bild aufgenommen und Sd_1 berechnet. Wenn Sd größer oder gleich Sd_1 ist, dann kann d als die richtige oder optimale Fokusposition ausgewählt werden (Schritt 280), womit die Autofokus-Prozedur beendet ist. Wenn Sd nicht größer oder gleich Sd_1 ist, dann müssen noch niedrigere Fokuspositionen geprüft werden und somit müssen die Schritte der Neueinstellung der Standardfokusposition d auf d–1 und des Vergleichs des Schärfeparameters der neuen Fokusposition mit den vorher bewerteten (d.h. Schritte 240 bis 255) wiederholt durchgeführt werden, bis Sd > = Sd_1, zu welchem Zeitpunkt das aktuelle d als richtige oder optimale Fokusposition ausgewählt werden kann.
  • 3 zeigt ein Beispiel einer erfindungsgemäßen Schärfeparameterberechnung.
  • 3 zeigt ein zerlegtes Bild 300, welches sich dadurch ergibt, daß auf ein Eingabebild eine zweidimensionale DWT angewendet wird. Das zerlegte Bild 300 besteht aus vier Teilbändern, nämlich LL, LH, HL und HH. Wie oben beschrieben wurde, können die Teilbänder LL und HH von der Schärfenbestimmung ausgeschlossen werden, wodurch das Teilband LH 310 und das Teilband HL 315 für diese Bestimmung übrigbleiben. Der Schärfeparameter für das Gesamtbild ist definiert als Mittelwert der Schärfeparameter für das Teilband HL und das Teilband LH. Jedes Teilband LH 310 und HL 315 hat 16 Werte (welche aus Gründen der Einfachheit ganzzahlig gewählt wurden, obwohl sie dies in einem tatsächlichen DWT-Teilband nicht zu sein brauchen).
  • Es wird zunächst das Teilband HL 315 betrachtet. Der Schwellwert für das Teilband muß festgelegt werden. Unter der Annahme, daß die einrichtungsabhängigen Konstanten kL und kH 1,1 bzw. 0,9 betragen, beträgt der untere Schwellwert TL 1,1·xmin, und der obere Schwellwert TH beträgt 0, 9 xmin, wobei xmin und xmax der minimale bzw. der maximale DWT-Koeffizient in dem Teilband sind. Es wird auf die für das Teilband HL 315 gezeigten 16 DWT-Koeffizienten Bezug genommen, wobei xmin |–50| oder 50 und Xmax 85 beträgt . Somit würde der untere Schwellwert TL 55 (50·1,1) und der obere Schwellwert TH würde 77 (85·0,9 gerundet auf die nächste ganze Zahl) betragen. Der Schärfeparameter für das Teilband HL 315 würde gleich der Mittelwert der Absolutwerte derjenigen DWT-Koeffizienten xi sein, welche in den Bereich [TL, TH] oder [55, 77], jeweils einschließlich, fallen. Es fällt nur ein Wert (Koeffizient) 55 in diesen Bereich, so daß der Schärfeparameter einfach 55 beträgt.
  • Unter der Annahme, daß die einrichtungsabhängigen Parameter dieselben sind, betragen die Schwellwerte für das Teilband LH 310 in ähnlicher Weise TL= |–80|·1,1 = 88 und TH = |110|·0,9 = 99. Folglich wird der Schärfeparameter für das Teilband LH 310 dadurch bestimmt, daß diejenigen Werte (Koeffizienten) gemittelt werden, deren Absolutwerte in den Bereich zwischen 88 und 99, jeweils einschließlich fallen. Vier Koeffizienten, nämlich 90, 95, 95 und –89 erfüllen dieses Kriterium. Somit ist der Schärfeparameter für das Teilband LH 310 der Mittelwert der Absolutwerte dieser Koeffizienten oder 92 (das gerundete Ergebnis von [90+95+95+89]/4).
  • Der Schärfeparameter für das Gesamtbild ist der Mittelwert der Schärfeparameter für die Teilbänder LH und HL bzw. 74 (das gerundete Ergebnis von [55+92]/2). Das obige Beispiel wurde aus Gründen der Einfachheit mit ganzen Zahlen dargestellt, jedoch kann jede gewünschte Genauigkeit oder jeder gewünschte Zahlentyp verwendet und beibehalten werden. Darüber hinaus ist die Verwendung von LH- und HL-Teilbändern, die jeweils nur 16 Werte in ihren Koeffizientendatensätzen haben, lediglich beispielhaft.
  • 4 zeigt ein Blockschaltbild wenigstens eines Ausführungsbeispiels der Erfindung.
  • In dem Blockschaltbild gemäß 4 nimmt ein Bildaufnahmesensor 400 ein Bild einer Szene bei einer bestimmten Fokusposition, zu Beginn bei einer Standardposition d, auf. Die Daten des aufgenommenen Bildes werden dann an eine DWT- Maschine 410 gesendet/auf die Daten wird von der DWT-Maschine 410 zugegriffen, welche zur Bildkompression oder Skalierung bereits in dem System enthalten sein kann. Die DWT-Maschine 410 sollte fähig sein, eine zweidimensionale DWT an einem Eingabebild auszuführen. Die DWT-Ergebnisdaten (Koeffizienten) können dann für die weitere Analyse in einem Speicher-Array 420 gespeichert werden. Auf die gespeicherten Daten kann u.a. von einer Schärfenberechnungsmaschine 430 zugegriffen werden, welche Schwellwerte einstellt und die Mittelung an dem Teil des DWT-Datensatzes ausführt, (insbesondere der Teilbänder LH und HL), der das Schwellwertkriterium erfüllt. Die Schärfenberechnungsmaschine berechnet den Schärfeparameter in ähnlicher Weise wie oben beschriebenen und sendet das Ergebnis an eine Komparator- und Rücksetzlogik 440, welche den Schärfeparameter mit einem anderen Schärfeparameter für eine andere Fokusposition vergleicht. In Abhängigkeit von dem Ergebnis des Vergleichs berechnet die Logik 440 entweder eine neue Fokusposition für einen weiteren Vergleich oder legt ein Stoppsignal an, um die Autofokus-Prozedur zu beenden. Die neue Fokusposition oder das Stoppsignal werden an einen Steuermechanismus 450 gesendet, der die neue Fokusposition einstellt oder die aktuelle Fokusposition als optimale oder richtige Fokusposition behält. Der Bildaufnahmesensor 400 nimmt dann bei der von dem Fokussteuermechanismus 450 vorgegebenen Fokusposition ein Bild auf.
  • 5 zeigt eine Systemdarstellung eines Ausführungsbeispiels der Erfindung.
  • Es ist ein Computersystem 510 dargestellt, bei dem es sich um eine beliebige Mehrzweck- oder Spezialrechenmaschine oder Datenverarbeitungsmaschine wie einen PC (Personalcomputer) handeln kann, der mit einer Kamera 530 gekoppelt ist. Die Kamera 530 kann eine digitale Kamera, eine digitale Videokamera oder eine beliebige Bildaufnahmeeinrichtung oder ein Abbildungssystem oder eine Kombination davon sein, die einen Fokussiermechanismus aufweist, und zur Aufnahme eines Bildes einer Szene 540 verwendet werden kann. Im wesentlichen werden aufgenommene Bilder von einer Bildverarbeitungsschaltung 532 so verarbeitet, daß sie in einer Bildspeichereinheit 534 effizient gespeichert werden können, bei der es sich um ein ROM, ein RAM oder eine andere Speichereinrichtung wie eine Festplatte handeln kann. Das in der Bildspeichereinheit 534 enthaltene Bild, das für das Computersystem 510 bestimmt ist, ist das Ergebnis einer automatischen Fokussierung der Kamera 530 und ist folglich hinsichtlich des Brennpunktes optimiert. Bei den meisten digitalen Kameras, die Standbilder aufnehmen können, werden Bilder zunächst gespeichert und später heruntergeladen. Dies ermöglicht der Kamera 530, das nächste Objekt/die nächste Szene ohne zusätzliche Verzögerung schnell aufzunehmen. Bei digitalen Videokameras, speziell bei solchen, die für Live-Videokonferenzen verwendet werden, ist es jedoch wichtig, daß die Bilder nicht nur schnell aufgenommen werden, sondern auch schnell verarbeitet und aus der Kamera 530 heraus übertragen werden. Das Autofokus-Schema gemäß den verschiedenen Ausführungsformen der Erfindung ermöglicht einen schnellen Durchsatz zu anderen Teil der bildverarbeitenden Schaltung 532, so daß die Gesamtgeschwindigkeit bei der Übertragung von Bildrahmen nicht beeinträchtigt wird.
  • Gemäß einem Ausführungsbeispiel der Erfindung wird die automatische Fokussierung durch Komponenten wie eine DWT-Maschine unterstützt, die Teil der Bildverarbeitungsschaltung 532 ist. Die Kamera 530 kann Bilder einer Szene 540 bei zwei oder mehr Fokuspositionen aufnehmen, die jeweils eine etwas andere Schärfenqualität erzeugen. Die richtige oder optimale Fokusposition für die Kamera 530 kann dadurch ermittelt werden, daß die Schärfe des Bildes bei verschiedenen Fokuspositionen in einer effizienten Weise bestimmt wird. Nach der automatischen Fokussierung der Kamera und nach der Bildaufnahme bei dieser Fokusposition kann das auf genommene Bild ferner für den Transport komprimiert werden. Das automatisch fokussierte Bild kann mit Hilfe eines Prozessors 512, beispielsweise eines Pentium (ein Produkt der Intel Corporation) und mit Hilfe eines Speichers 511, beispielsweise eine RAMs, wiedergegeben werden, welcher zum Speichern/Laden von Befehlsadressen und Ergebnisdaten verwendet wird. Bei einem anderen Ausführungsbeispiel kann die automatische Fokussierung statt direkt hardwaremäßig mit auf dem Computersystem 510 ausgeführter Software realisiert werden. Die Befehle für eine derartige Software können auf einer Platte 518 oder in einem Speicher 511 gespeichert werden. Es ist für den Durchschnittsfachmann leicht möglich, eine Rechenmaschine so zu programmieren, daß sie eine Kamera automatisch fokussiert, wenn die in den verschiedenen Ausführungsbeispielen beschriebene Methodik verwendet wird.
  • Das Computersystem 510 weist einen Systembus 513 auf, der den Informationsaustausch zwischen dem Prozessor 512 und dem Speicher 511 und einer mit einem I/O-Bus 515 gekoppelten Brücke 514 ermöglicht. Der I/O-Bus 515 stellt eine Verbindung zu verschiedenen I/O-Einrichtungen her, beispielsweise zu einem Display-Adapter 516, einer Platte 518 und einem I/O-Port 517, beispielsweise ein serieller Port. Es können viele derartige Kombinationen aus I/O-Einrichtungen, Bussen und Brücken zusammen mit der Erfindung verwendet werden, und die dargestellte Kombination dient lediglich der Veranschaulichung einer solchen möglichen Kombination.
  • Wenn ein Bild, beispielsweise ein Bild einer Szene 540, von der Kamera 530 aufgenommen werden soll, muß die Kamera 530 zunächst automatisch fokussiert werden. Die Bildverarbeitungsschaltung 532 enthält ICs und andere Komponenten, welche neben anderen Funktionen die DWT von aufgenommenen Bildern ausführen können, die bei einer Autofokus-Prozedur verwendet werden kann. Wie zuvor beschrieben, kann die Autofokus-Operation eine Bildspeichereinheit 534 zum Speichern der DWT-Ergebnisdaten für die Analyse aufweisen.
  • Die automatisch fokussierten und dann komprimierten Bilder werden von einer geeigneten Anwendungssoftware (oder -hardware) auf dem Computersystem 510 dekomprimiert, welche den Prozessor 512 für ihre Ausführung verwenden kann. Die Bilddaten können dann mit Hilfe eines Display-Adapters 516 in Form eines wiedergegebenen Bildes 550 optisch wiedergegeben werden. Bei einer Videokonferenzanwendung können die Bilddaten in der komprimierten Form über ein Netzwerk oder ein Kommunikationssystem außer an das Computersystem 510 oder statt an dieses an einen anderen Knoten oder ein anderes Computersystem übertragen werden, so daß eine Videokonferenzsitzung stattfinden kann. Unabhängig von der gewünschten Anwendung oder Verwendung ist das Endergebnis ein auf einem Monitor 520 oder auf anderen Knoten in einer Videokonferenzsitzung angezeigtes, wiedergegebenes Bild 550, das eine höhere Qualität im Vergleich zu den manuellen oder sonstigen bekannten Autofokus-Verfahren hat.
  • In der vorangegangenen Beschreibung wurde die Erfindung unter Bezugnahme auf spezielle beispielhafte Ausführungsbeispiele beschrieben. Es ist jedoch klar, daß verschiedene Modifikationen und Abwandlungen an ihr vorgenommen werden können, ohne den in den beigefügten Ansprüchen angegebenen breiteren Erfindungsgedanken und Schutzbereich der Erfindung zu verlassen. Folglich sind die Beschreibung und die Zeichnungen nicht als beschränkend sondern lediglich als Veranschaulichung zu betrachten.

Claims (17)

  1. Verfahren zum automatischen Fokussieren einer digitalen Abbildungseinrichtung, wobei mehrere verschiedene Gesamtschärfeparameter, die jeweils einer anderen Fokusposition entprechen, erzeugt werden, indem jeweils eine diskrete Wavelet-Transformation an mehreren von einer Abbildungseinrichtung aufgenommenen, den verschiedenen Fokuspositionen entsprechenden Bildern durchgeführt wird; und die Abbildungseinrichtung in eine optimale Fokusposition automatisch fokussiert wird, indem die mehreren verschiedenen Gesamtschärfeparameter miteinander verglichen werden.
  2. Verfahren nach Anspruch 1, wobei das Erzeugen die Schritte umfaßt, daß an einem aufgenommenen Bild eine diskrete Wavelet-Transformation (DWT) durchgeführt wird, wobei die DWT Teilbänder gemäß deren DWT-Frequenzkorrelation erzeugt; und daß teilbandspezifische Schärfeparameter gemittelt werden, wobei der Mittelwert den Gesamtschärfeparameter bildet.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß die DWT vier mit LL, LH, HL und HH bezeichnete Teilbänder erzeugt und teilbandspezifische Schärfeparameter für die Teilbänder LH und HL gemittelt werden.
  4. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß beim Erzeugen ein oberer und ein unterer Schwellwert für wenigstens eines der Teilbänder bestimmt und solche DWT-Koeffizienten innerhalb des wenigstens einen Teilbands gemittelt werden, die zwischen dem unteren und dem oberen Schwellwert, diese einschließend, liegen, wobei der Mittelwert den teilbandspezifischen Schärfeparameter bildet.
  5. Verfahren nach Anspruch 3, wobei die Mittelung die Schritte umfaßt, daß ein für das Teilband LH spezifischer Schärfeparameter erzeugt wird; und daß ein für das Teilband HL spezifischer Schärfeparameter erzeugt wird.
  6. Verfahren nach Anspruch 5, wobei das Erzeugen eines für das Teilband LH spezifischen Schärfeparameters die Schritte umfaßt: daß ein oberer und ein unterer Schwellwert für das Teilband LH bestimmt werden; und daß in dem Teilband LH DWT-Koeffizienten gemittelt werden, deren Absolutwerte zwischen dem unteren und dem oberen Schwellwert, jeweils einschließlich, liegen, wobei der Mittelwert den für das Teilband LH spezifischen Schärfeparameter bildet.
  7. Verfahren nach Anspruch 5, wobei das Erzeugen eines für das Teilband HL spezifischen Schärfeparameters die Schritte umfaßt, daß ein oberer und ein unterer Schwellwert für das Teilband HL bestimmt werden; und daß in dem Teilband HL DWT-Koeffizienten gemittelt werden, deren Absolutwerte zwischen dem unteren und dem oberen Schwellwert, jeweils einschließlich, liegt, wobei der Mittelwert den für das Teilband HL spezifischen Schärfeparameter bildet.
  8. Verfahren nach Anspruch 2, wobei die DWT die Biorthogonal-Splines-DWT umfaßt.
  9. Verfahren nach Anspruch 1, wobei die Abbildungseinrichtung eine digitale Kamera umfaßt.
  10. Verfahren nach Anspruch 1, wobei das automatische Fokussieren die Schritte umfaßt, daß für das Linsensystem der Abbildungseinrichtung eine erste Fokusposition als Standardfokusposition eingestellt wird; daß bei dieser ersten Fokusposition ein Bild aufgenommen wird; und daß aus dem aufgenommenen Bild ein erster Schärfeparameter als Standardschärfeparameter berechnet wird.
  11. Verfahren nach Anspruch 10, das die Schritte umfaßt: daß eine zweite Fokusposition eingestellt wird, die sich von der ersten Fokusposition unterscheidet; daß bei der zweiten Fokusposition ein Bild aufgenommen wird; daß aus dem aufgenommenen Bild ein zweiter Schärfeparameter berechnet wird; daß dann, wenn der zweite Schärfeparameter größer als der Standardschärfeparameter ist, die Standardfokusposition auf eine zweite Fokusposition neu eingestellt wird und der Standardschärfeparameter auf den zweiten Schärfeparameter neu eingestellt wird, wobei die verschiedenen Schritte der Einstellung, Aufnahme, Berechnung und Neueinstellung wiederholt werden, bis der zweite Schärfeparameter kleiner oder gleich der Standardfokusposition ist, wobei die Standardfokusposition daraufhin als optimale Fokusposition ausgewählt wird.
  12. Verfahren nach Anspruch 11, wobei dann, wenn der zweite Schärfeparameter kleiner als der erste Schärfeparameter ist, eine dritte Fokusposition eingestellt wird, die sich von der Standardfokusposition unterscheidet und bezüglich der Standardfokusposition entgegengesetzt der zweiten Fokusposition liegt; ein Bild bei der dritten Fokusposition aufgenommen wird; aus dem aufgenommenen Bild ein dritter Schärfeparameter berechnet wird; dann, wenn der dritte Schärfeparameter größer als der Standardschärfeparameter ist, die Standardfokusposition auf die dritte Fokusposition neu eingestellt wird und der Standardschärfeparameter auf den dritten Schärfeparameter neu eingestellt wird, wobei die Schritte der Einstellung, Aufnahme, Berechnung und Neueinstellung wiederholt werden, bis der dritte Schärfeparameter kleiner oder gleich der Standardfokusposition ist, wobei die Standardfokusposition daraufhin als optimale Fokusposition ausgewählt wird.
  13. Einrichtung zum automatischen Fokussieren einer Abbildungseinrichtung mit: einem Bildaufnahmesensor; einer mit dem Bildaufnahmesensor gekoppelten DWT(Discrete Wavelet Transformation)-Maschine, wobei die DWT-Maschine eine DWT an von dem Sensor aufgenommenen Bildern durchführen kann, und einem mit dem Bildaufnahmesensor und der DWT-Maschine gekoppelten Fokussteuermechanismus, der automatisch eine optimale Fokusposition für den Bildaufnahmesensor auf der Basis der DWT einstellen kann.
  14. Einrichtung nach Anspruch 13, gekennzeichnet durch: eine mit der DWT-Maschine gekoppelte Schärfenberechnungsmaschine, wobei die Schärfenberechnungsmaschine für aufgenommene Bilder auf der Basis einer Mittelung von ausgewählten Teilmengen der DWT-Ergebnisdaten einen Schärfeparameter für die aufgenommenen Bilder bereitstellen kann.
  15. Einrichtung nach Anspruch 14, gekennzeichnet durch: eine mit der Schärfenberechnungsmaschine und dem Fokussteuermechanismus gekoppelten Komparator- und Neueinstellungslogik, wobei die Logik die automatische Einstellung eine optimalen Fokusposition beendet, wenn aus den von der Schärfenberechnungsmaschine erzeugten Schärfeparametern eine optimale Fokusposition bestimmbar ist, wobei die Logik dem Fokussteuermechanismus eine neue Fokusposition liefern kann, um einen Standardschärfeparameter mit einem neuen Schärfeparameter zu vergleichen.
  16. Einrichtung nach Anspruch 14, wobei ein Speichermechanismus mit der DWT-Maschine und der Schärfenberechnungsmaschine gekoppelt ist, wobei der Speichermechanismus DWT-Ergebnisdaten für den Zugriff durch die Schärfenberechnungsmaschine speichern kann.
  17. Einrichtung nach Anspruch 14, gekennzeichnet durch: einen mit der DWT-Maschine und mit der Schärfenberechnungsmaschine gekoppelten Speicher, wobei der Speicher DWT-Ergebnisdaten für einen Zugriff durch die Schärfenberechnungsmaschine speichert.
DE19983806T 1998-12-14 1999-11-10 Ein die diskrete Wavelet-Transformation verwendender Autofokus-Algorithmus Expired - Fee Related DE19983806B4 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US09/211,309 US6151415A (en) 1998-12-14 1998-12-14 Auto-focusing algorithm using discrete wavelet transform
US09/211,309 1998-12-14
PCT/US1999/026664 WO2000036551A1 (en) 1998-12-14 1999-11-10 An auto-focusing algorithm using discrete wavelet transform

Publications (2)

Publication Number Publication Date
DE19983806T1 DE19983806T1 (de) 2002-01-10
DE19983806B4 true DE19983806B4 (de) 2004-04-01

Family

ID=22786377

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19983806T Expired - Fee Related DE19983806B4 (de) 1998-12-14 1999-11-10 Ein die diskrete Wavelet-Transformation verwendender Autofokus-Algorithmus

Country Status (8)

Country Link
US (1) US6151415A (de)
JP (1) JP2002532761A (de)
KR (1) KR100426934B1 (de)
AU (1) AU1617300A (de)
DE (1) DE19983806B4 (de)
GB (1) GB2358978B (de)
TW (1) TW493341B (de)
WO (1) WO2000036551A1 (de)

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7095164B1 (en) 1999-05-25 2006-08-22 Intel Corporation Display screen
US6697534B1 (en) 1999-06-09 2004-02-24 Intel Corporation Method and apparatus for adaptively sharpening local image content of an image
US6373481B1 (en) * 1999-08-25 2002-04-16 Intel Corporation Method and apparatus for automatic focusing in an image capture system using symmetric FIR filters
US6625308B1 (en) 1999-09-10 2003-09-23 Intel Corporation Fuzzy distinction based thresholding technique for image segmentation
US6658399B1 (en) 1999-09-10 2003-12-02 Intel Corporation Fuzzy based thresholding technique for image segmentation
US7053944B1 (en) 1999-10-01 2006-05-30 Intel Corporation Method of using hue to interpolate color pixel signals
US7106910B2 (en) * 1999-10-01 2006-09-12 Intel Corporation Color video coding scheme
US7158178B1 (en) 1999-12-14 2007-01-02 Intel Corporation Method of converting a sub-sampled color image
US6628827B1 (en) 1999-12-14 2003-09-30 Intel Corporation Method of upscaling a color image
EP1111444B1 (de) * 1999-12-21 2005-10-05 Koninklijke Philips Electronics N.V. Photoapparat mit automatischem Fokussierungsgerät
US6766062B1 (en) * 2000-02-16 2004-07-20 The Board Of Trustees Of The Leland Stanford Junior University - Office Of Technology Digital ridgelet transform via digital polar coordinate transform
US6748118B1 (en) 2000-02-18 2004-06-08 Intel Corporation Method of quantizing signal samples of an image during same
US6961472B1 (en) 2000-02-18 2005-11-01 Intel Corporation Method of inverse quantized signal samples of an image during image decompression
US6738520B1 (en) * 2000-06-19 2004-05-18 Intel Corporation Method of compressing an image
US7046728B1 (en) 2000-06-30 2006-05-16 Intel Corporation Method of video coding the movement of a human face from a sequence of images
US6775413B1 (en) 2000-09-18 2004-08-10 Intel Corporation Techniques to implement one-dimensional compression
US6788824B1 (en) * 2000-09-29 2004-09-07 Adobe Systems Incorporated Creating image-sharpening profiles
US6563439B1 (en) 2000-10-31 2003-05-13 Intel Corporation Method of performing Huffman decoding
US6636167B1 (en) 2000-10-31 2003-10-21 Intel Corporation Method of generating Huffman code length information
US20020118746A1 (en) * 2001-01-03 2002-08-29 Kim Hyun Mun Method of performing video encoding rate control using motion estimation
US6766286B2 (en) 2001-03-28 2004-07-20 Intel Corporation Pyramid filter
US20020184276A1 (en) * 2001-03-30 2002-12-05 Tinku Acharya Two-dimensional pyramid filter architecture
US6889237B2 (en) * 2001-03-30 2005-05-03 Intel Corporation Two-dimensional pyramid filter architecture
US20030118245A1 (en) * 2001-12-21 2003-06-26 Leonid Yaroslavsky Automatic focusing of an imaging system
US6624688B2 (en) * 2002-01-07 2003-09-23 Intel Corporation Filtering variable offset amplifer
US7538815B1 (en) 2002-01-23 2009-05-26 Marena Systems Corporation Autofocus system and method using focus measure gradient
US6650184B2 (en) 2002-03-15 2003-11-18 Intel Corporation High gain amplifier circuits and their applications
US20040042551A1 (en) * 2002-09-04 2004-03-04 Tinku Acharya Motion estimation
US7266151B2 (en) * 2002-09-04 2007-09-04 Intel Corporation Method and system for performing motion estimation using logarithmic search
US20040057626A1 (en) * 2002-09-23 2004-03-25 Tinku Acharya Motion estimation using a context adaptive search
US6876776B2 (en) * 2003-02-14 2005-04-05 Ikonicys, Inc. System and method for auto-focusing an image
US20040174446A1 (en) * 2003-02-28 2004-09-09 Tinku Acharya Four-color mosaic pattern for depth and image capture
US7274393B2 (en) * 2003-02-28 2007-09-25 Intel Corporation Four-color mosaic pattern for depth and image capture
US20040169748A1 (en) * 2003-02-28 2004-09-02 Tinku Acharya Sub-sampled infrared sensor for use in a digital image capture device
US7589781B2 (en) * 2005-01-26 2009-09-15 Omnivision Technologies, Inc. Automatic focus for image sensors
US7676103B2 (en) * 2005-06-20 2010-03-09 Intel Corporation Enhancing video sharpness and contrast by luminance and chrominance transient improvement
US20070014468A1 (en) * 2005-07-12 2007-01-18 Gines David L System and method for confidence measures for mult-resolution auto-focused tomosynthesis
JP4636979B2 (ja) * 2005-09-09 2011-02-23 キヤノン株式会社 撮像装置及びその制御方法
US20080025630A1 (en) * 2006-07-28 2008-01-31 Atmel Corporation Adaptive noise filtering for reducing imager noise in digital image applications
KR101488655B1 (ko) * 2007-09-14 2015-02-03 삼성전자 주식회사 자동 초점 조절 장치 및 방법
US9019422B2 (en) 2009-07-08 2015-04-28 Freescale Semiconductor, Inc. Degree-of-focus determination module, position-of-best-focus selection modules, image processing module, imaging system, and corresponding method
DE102009035587B3 (de) * 2009-07-31 2011-03-24 Siemens Aktiengesellschaft Verfahren zur Filterung eines Chromatogramms
US8294811B2 (en) * 2009-08-04 2012-10-23 Aptina Imaging Corporation Auto-focusing techniques based on statistical blur estimation and associated systems and methods
FR2949003B1 (fr) * 2009-08-10 2017-09-08 Dxo Labs Systeme et procede de capture d'images avec deux modes de fonctionnement
US8666194B2 (en) 2009-08-28 2014-03-04 Adobe Systems Incorporated System and method for editing frequency content of images
DE112010005589T5 (de) * 2010-05-26 2013-03-14 Hiok Nam Tay Autofokus-bildsystem
KR101157791B1 (ko) * 2010-06-10 2012-06-19 주식회사 휴비츠 자동 포커싱 시스템을 구비한 광학 현미경
US9398205B2 (en) * 2010-09-01 2016-07-19 Apple Inc. Auto-focus control using image statistics data with coarse and fine auto-focus scores
CN102445812B (zh) * 2010-10-13 2013-10-16 致茂电子(苏州)有限公司 高速自动对焦方法
JP4988057B1 (ja) * 2011-10-11 2012-08-01 アキュートロジック株式会社 全焦点画像生成方法、全焦点画像生成装置、全焦点画像生成プログラム、被写体高さ情報取得方法、被写体高さ情報取得装置及び被写体高さ情報取得プログラム
JP6467257B2 (ja) * 2015-03-17 2019-02-06 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
TWI782280B (zh) * 2020-06-01 2022-11-01 財團法人國家實驗研究院 應用於遙測衛星的自動對焦方法及該遙測衛星

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0404592A1 (de) * 1989-06-23 1990-12-27 General Electric Company NMR-Sensor mit mehreren isolierten koplanaren Oberflächenspulen
US5200828A (en) * 1990-03-19 1993-04-06 Sam Jung Co., Ltd. Autofocusing device for use in a video camera and an autofocusing method thereof

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3125257B2 (ja) * 1991-05-14 2001-01-15 コニカ株式会社 撮像装置の自動焦点装置
JPH0630319A (ja) * 1992-06-02 1994-02-04 Sony Corp オートフォーカス装置
JPH06138383A (ja) * 1992-10-27 1994-05-20 Ibiden Co Ltd 自動焦点カメラ
KR0179067B1 (ko) * 1994-02-25 1999-05-01 구자홍 비디오 포커싱 방식에서의 자동 포커싱장치 및 방법
JPH0915506A (ja) * 1995-04-28 1997-01-17 Hitachi Ltd 画像処理方法および装置
JP3296687B2 (ja) * 1995-05-24 2002-07-02 三洋電機株式会社 オートフォーカスビデオカメラ
JP3907729B2 (ja) * 1996-02-05 2007-04-18 オリンパス株式会社 静止画像撮像装置
JPH1074192A (ja) * 1996-08-30 1998-03-17 Mitsubishi Electric Corp 画像処理方法およびその装置
US5885841A (en) * 1996-09-11 1999-03-23 Eli Lilly And Company System and methods for qualitatively and quantitatively comparing complex admixtures using single ion chromatograms derived from spectroscopic analysis of such admixtures
US6211515B1 (en) * 1998-10-19 2001-04-03 Raytheon Company Adaptive non-uniformity compensation using feedforward shunting and wavelet filter

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0404592A1 (de) * 1989-06-23 1990-12-27 General Electric Company NMR-Sensor mit mehreren isolierten koplanaren Oberflächenspulen
US5200828A (en) * 1990-03-19 1993-04-06 Sam Jung Co., Ltd. Autofocusing device for use in a video camera and an autofocusing method thereof

Also Published As

Publication number Publication date
WO2000036551A1 (en) 2000-06-22
GB2358978B (en) 2003-07-02
TW493341B (en) 2002-07-01
GB0113364D0 (en) 2001-07-25
AU1617300A (en) 2000-07-03
JP2002532761A (ja) 2002-10-02
KR100426934B1 (ko) 2004-04-13
GB2358978A (en) 2001-08-08
US6151415A (en) 2000-11-21
KR20010093824A (ko) 2001-10-29
DE19983806T1 (de) 2002-01-10

Similar Documents

Publication Publication Date Title
DE19983806B4 (de) Ein die diskrete Wavelet-Transformation verwendender Autofokus-Algorithmus
DE69028946T2 (de) Verfahren zur adaptiven Schärfung elektronischer Bilder
DE69836540T2 (de) Verfahren und vorrichtung zur ausführung von bildverbesserungen
DE69322423T2 (de) Vorrichtung zur Detektion von Bewegungsvektoren
DE69627982T2 (de) Signaladaptives Nachverarbeitungssystem um Blockierungseffekte und Ringstörungen zu verringern
DE69620963T2 (de) Verfahren und Vorrichtung zur Bilddatenkomprimierung
DE69509577T2 (de) Anordnung zur Verminderung des Rauschens unter Verwendung von zeitvarianten Filterkoeffizienten
DE69424591T2 (de) Verfahren zur Kontrolle der Datenmenge und Kodierer zur Durchführung desselben.
DE69828909T2 (de) Neue perzeptive lokale gradientenbasierte gratbestimmung
DE69312132T2 (de) Bildkompressionsgerät
DE602005004299T2 (de) Digitales bilderfassungssystem mit mitteln zur bestimmung der kamerabewegungsunschärfefunktion
DE602004002561T2 (de) Wasserzeicheneinbettung und Detektion eines Bewegungsbildsignals
EP0645037B1 (de) Verfahren zur detektion von änderungen in bewegtbildern
DE69419635T2 (de) Bewegungsvektorprozessor für Bildsignalkompression
DE60315568T2 (de) Verfahren zur Verbesserung der Schärfe eines Digitalbildes
DE69226559T2 (de) Bildverarbeitung
DE102004007637A1 (de) Verfahren zum Erzeugen eines Bildes mit erhöhter Auflösung unter Verwendung einer Mehrzahl von Bildern mit niedriger Auflösung
DE19815861A1 (de) Verfahren und Vorrichtung für eine auf Blöcken basierende Bildverarbeitung
DE69309732T2 (de) Verfahren und Vorrichtung ein Bild zu komprimieren und zu dekomprimieren
DE10331048A1 (de) Vorrichtung und Verfahren für die Detektion, ob sich ein ankommendes Bildsignal in einem Filmmodus befindet
DE102013017099A1 (de) Auf interpolation inverser brennpunktstatistiken basierende tiefenschätzung
DE19536691B4 (de) Verfahren und Anordnung zur Korrektur von Bildstandsfehlern bei der fernsehmäßigen Filmabtastung
DE69211965T2 (de) Anordnung und Verfahren zur Verarbeitung von Bildsignalen
DE60023837T2 (de) Vorrichtung und verfahren zur filterung
EP0525900B1 (de) Filterschaltung zur Vorverarbeitung eines Videosignals

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8125 Change of the main classification

Ipc: G02B 7/28

8607 Notification of search results after publication
8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee