DE112011105320T5 - Autofokus-Bildsystem - Google Patents

Autofokus-Bildsystem Download PDF

Info

Publication number
DE112011105320T5
DE112011105320T5 DE112011105320.7T DE112011105320T DE112011105320T5 DE 112011105320 T5 DE112011105320 T5 DE 112011105320T5 DE 112011105320 T DE112011105320 T DE 112011105320T DE 112011105320 T5 DE112011105320 T5 DE 112011105320T5
Authority
DE
Germany
Prior art keywords
edge
gradient
width
edges
gradients
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112011105320.7T
Other languages
English (en)
Inventor
Anmelder Gleich
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of DE112011105320T5 publication Critical patent/DE112011105320T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)

Abstract

Ein Autofokus-Bildsystem umfasst eine mit einem Fokussignalgenerator gekoppelte Pixelanordnung (Pixelarray). Die Pixelanordnung erfasst ein Bild, das mehrere Kanten aufweist. Der Generator generiert ein Fokussignal, das eine Funktion von mehreren Kantenschärfemaßen ist, die an den einzelnen der mehreren Kanten gemessen werden. Der Generator vergleicht eine Folge von Gradienten quer zu der Kante mit einer oder mehreren Referenzfolgen von Gradienten und/oder Referenzkurven, die durch Daten definiert werden, die aus einem nichtflüchtigen Speicher abgerufen werden. Der Generator trifft die Entscheidung, ob der Beitrag der Kante zu dem Fokussignal niedriger gewichtet oder zurückgewiesen werden soll, auf der Grundlage einer vorgefundenen Unähnlichkeit zwischen der Folge von Gradienten und den Referenzfolgen oder Referenzkurven, die eine vorbestimmte Schwelle überschreitet.

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Gegenstand der Erfindung
  • Die Erfindung betrifft die automatische Fokussierung elektronisch erfasster Bilder.
  • 2. Hintergrundinformationen
  • Photographische Geräte wie Digitalkameras und digitale Camcorder können elektronische Bildsensoren enthalten, die Licht zur Verarbeitung in Fest- oder Videobilder erfassen. Elektronische Bildsensoren umfassen meistens Millionen von Lichterfassungselementen wie z. B. Photodioden.
  • Viele Bilderfassungsgeräte wie z. B. Kameras enthalten ein System zur automatischen Fokussierung. Das Verfahren zur automatischen Fokussierung umfasst die folgenden Schritte: Erfassen eines Bildes, Verarbeiten des Bildes zur Überprüfung der Fokussierung, und, falls das Bild nicht fokussiert ist, Erzeugen eines Rückkopplungssignals, das zur Anpassung einer Position einer Fokuslinse („Fokusposition”) verwendet wird. Es gibt zwei hauptsächliche Methoden der automatischen Fokussierung. Die erste Methode beruht auf einer Kontrastmessung, während bei der anderen die Phasendifferenz eines Bildpaars betrachtet wird. Bei der Kontrastmethode wird der Intensitätsunterschied zwischen nebeneinander liegenden Pixeln analysiert und der Fokus angepasst, bis ein maximaler Kontrast gefunden wird. Die Kontrastmethode ist zwar für Festbilder akzeptabel, aber nicht für bewegte Videobilder geeignet.
  • Bei der Phasendifferenzmethode wird ein Eingangsbild in zwei Bilder aufgeteilt, die von getrennten Bildsensoren erfasst werden. Die beiden Bilder werden verglichen, um die Phasendifferenz zu bestimmen. Die Fokusposition wird angepasst, bis die beiden Bilder übereinstimmen. Die Phasendifferenzmethode erfordert zusätzliche Gerätekomponenten wie einen Strahlteiler und einen zusätzlichen Bildsensor. Darüber hinaus wird beim Phasendifferenzverfahren ein verhältnismäßig kleiner Bereich festgelegter Erkennungspunkte analysiert. Aufgrund der geringen Anzahl der Erkennungspunkte ist das Verfahren fehleranfällig, da ein oder mehrere Punkte mit Rauschen überlagert sein können. Diese Methode ist außerdem ineffektiv, wenn die Erkennungspunkte nicht mit einer Bildkante zusammenfallen. Zuletzt ist anzuführen, dass die Lichtmenge, die einen Lichtsensor erreicht, bei der Phasendifferenzmethode halbiert oder noch stärker reduziert wird, da der Lichtstrahl geteilt wird. Dies kann sich bei schlechter Beleuchtung als problematisch erweisen, wo die Lichtintensität des Bilds ohnehin niedrig ist.
  • KURZDARSTELLUNG DER ERFINDUNG
  • Ein Autofokus-Bildsystem, das eine mit einem Fokussignalgenerator gekoppelte Pixelanordnung (Pixelarray) umfasst. Die Pixelanordnung erfasst ein Bild, das mehrere Kanten aufweist. Der Generator generiert ein Fokussignal, das eine Funktion von mehreren Kantenschärfemaßen ist, die an den einzelnen der mehreren Kanten gemessen werden. Der Generator vergleicht eine Folge von Gradienten quer zu der Kante mit einer oder mehreren Referenzgradientenfolgen und/oder Referenzkurven, die durch Daten definiert werden, welche aus einem nichtflüchtigen Speicher abgerufen werden. Der Generator entscheidet, die Ecke zurückzuweisen oder ihren Beitrag zum Fokussignal niedriger zu gewichten, wenn er eine Unähnlichkeit zwischen der Gradientenfolge und den Referenzgradientenfolgen oder Referenzkurven feststellt, die eine vorbestimmte Schwelle übersteigt.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist eine schematische Darstellung einer Ausführungsform einer Autofokus-Bildaufnahmevorrichtung;
  • 2 ist eine schematische Darstellung einer alternativen Ausführungsform einer Autofokus-Bildaufnahmevorrichtung;
  • 3 zeigt ein Blockdiagramm eines Fokussignalgenerators;
  • 4 stellt die Anwendung eines horizontalen Sobel-Operators auf eine Bildsignalmatrix dar;
  • 5 illustriert eine Berechnung der Kantenbreite aus einem horizontalen Gradienten;
  • 6A, 6B sind Illustrationen einer Berechnung der Kantenbreite einer vertikalen Kante, die einen Neigungswinkel ϕ aufweist;
  • 6A, 6B sind Illustrationen einer Berechnung der Kantenbreite einer horizontalen Kante, die einen Neigungswinkel ϕ aufweist;
  • 7 ist ein Ablaufdiagramm eines Verfahrens zur Berechnung eines Neigungswinkels ϕ und zur Korrektur der Kantenbreite einer vertikalen Kante, die eine Neigung aufweist;
  • 8 zeigt eine vertikale Kantenkette;
  • 9A zeigt eine Gruppe dicht beieinanderliegender vertikaler Balken;
  • 9B ist ein Diagramm eines Bildsignals für 9A;
  • 9C ist ein Diagramm eines horizontalen Sobel-Gradienten für 9A;
  • 10 ist ein Ablaufdiagramm eines Verfahrens zur Eliminierung dicht beieinanderliegender Kanten, die eine geringe Modulationstiefe aufweisen;
  • 11 ist ein Histogramm von Kantenbreiten, das einen Kantenbreitenbereich zur Berechnung eines Feinfokussignals zeigt;
  • 12 zeigt eine Szene;
  • 13 ist ein Diagramm, das die Veränderung der Anzahl schmaler Kanten während einer Abtastung des Fokuspositionsbereichs der Szene von 12 zeigt;
  • 14 ist ein Diagramm, das die Veränderung eines Grobfokussignals während einer Abtastung des Fokuspositionsbereichs der Szene von 12 zeigt;
  • 15 ist ein Diagramm, das die Veränderung eines Feinfokussignals in einem Fokuspositionsbereich zeigt;
  • 16 ist eine Illustration einer Vorrichtung, die mehrere Objekte in einer Szene und eine Auswahlmarkierung über einem der Objekte anzeigt;
  • 17 zeigt ein Blockdiagramm einer alternativen Ausführungsform eines Fokussignalgenerators;
  • 18 ist eine schematische Darstellung einer alternativen Ausführungsform einer Autofokus-Bildaufnahmevorrichtung;
  • 19 ist eine schematische Darstellung einer Ausführungsform einer Autofokus-Bildaufnahmevorrichtung, die eine Hauptpixelanordnung und eine Hilfspixelanordnung aufweist;
  • 20 ist eine schematische Darstellung einer alternativen Ausführungsform einer Autofokus-Bildaufnahmevorrichtung, die eine Hauptpixelanordnung und eine Hilfspixelanordnung aufweist;
  • 21 ist eine schematische Darstellung einer alternativen Ausführungsform einer Autofokus-Bildaufnahmevorrichtung, die eine Hauptpixelanordnung und eine Hilfspixelanordnung aufweist;
  • 22 zeigt die Veränderung der Kantenbreite von einer Hauptpixelanordnung und die Veränderung der Kantenbreite von einer Hilfspixelanordnung für verschiedene Fokuspositionen;
  • 23A veranschaulicht einen Gradienten eines Bildsignals quer zu zwei benachbarten Kanten unterschiedlicher Polarität (unterschiedlichen Vorzeichens), die nicht miteinander interagieren;
  • 23B veranschaulicht einen Gradienten eines Bildsignals quer zu zwei benachbarten Kanten unterschiedlicher Polarität (unterschiedlichen Vorzeichens), die miteinander interagieren;
  • 24A veranschaulicht eine Auftragung einer Folge zweiter Ableitungen eines Bildsignals quer zu einer Kante gegen die in Vielfachen des Abstands zwischen aufeinanderfolgenden zweiten Ableitungen gemessene Distanz und zeigt a) eine Breite Ws zwischen einem Paar aus einer positiven und einer negativen Spitze, b) eine Breite W1 zwischen einem Paar äußerster interpolierter zweiter Ableitungen mit gegebenem Betrag h1, c) eine Breite W2 zwischen einem inneren Paar interpolierter zweiter Ableitungen mit dem gegebenen Betrag h1 und d) eine Distanz D1 zwischen einem Nulldurchgang (zwischen dem Paar aus negativer und positiver Spitze) und einer äußersten interpolierten zweiten Ableitung mit dem gegebenen Betrag h1;
  • 24B veranschaulicht eine Auftragung einer Folge von Bilddaten-Stichproben des Bildsignals gegen die in Vielfachen des Abstands zwischen aufeinanderfolgenden Stichproben gemessene Distanz und zeigt a) eine Breite WKante und einen Kontrast CKante zwischen zwei Stichproben an zwei Enden der Kante, b) einen Spitzengradientenwert gSpitze zwischen zwei Stichproben, der die steilste Änderung des Stichprobenwerts anzeigt, c) einen ungeteilten Abschnitt der Kante mit einem Kontrast C1 und einer Breite W1, und d) einen ungeteilten Abschnitt der Kante mit einem Kontrast C2 und einer Breite W2;
  • 24C veranschaulicht eine Auftragung einer Folge von Gradienten quer zu einer Kante gegen die in Vielfachen des Abstands zwischen aufeinanderfolgenden Gradienten gemessene Distanz sowie eine Fläche eines Bereichs unter der aufgetragenen Gradientenfolge;
  • 24D veranschaulicht eine Auftragung von Gradienten eines Bildsignals quer zu einer Kante gegen die in Vielfachen des Abstands zwischen aufeinanderfolgenden Gradienten gemessene Distanz, einen Schwerpunkt (d. h. Momentennullpunkt) und Distanzen der Gradienten vom Schwerpunkt;
  • 25 veranschaulicht das Auffinden der Position einer interpolierten Spitze durch Interpolation;
  • 26 zeigt eine alternative Ausführungsform eines Fokussignalgenerators;
  • 27 bis 29 veranschaulichen Gradientenfolgen längsseits von Gradientenprofilen;
  • 30 zeigt eine Folge von Referenzgradiente, die nur im Bereich von der Spitze bis herunter zu 50% der Höhe der Spitze an ein Gradientenprofil angepasst ist;
  • 31 zeigt eine Folge von Referenzgradienten, die stattdessen nur an eine Seite und von der Spitze bis herunter zu 30% der Höhe der Spitze an das Gradientenprofil aus Figur bbb angepasst ist;
  • 32 zeigt eine Folge von Referenzgradienten, die gemäß einer ersten Ausrichtung an Gradienten aus einem Gradientenprofil ausgerichtet ist, wobei der Abstand zwischen Gradienten und nächstliegendem Referenzgradienten innerhalb eines Paars jeweils 0,2 beträgt;
  • 33 zeigt die Folge, die gemäß einer zweiten Ausrichtung an den Gradienten ausgerichtet ist, wobei der Abstand zwischen Gradienten und nächstliegendem Referenzgradienten innerhalb eines Paars jeweils 0,5 beträgt, wobei sich eine kürzere Gesamtlänge der Liniensegmente ergibt;
  • 34 zeigt eine Folge von Referenzgradienten, die derart an einem Gradientenprofil ausgerichtet ist, dass eine Referenzspitze an einem Mittelpunkt des Gradientenprofils auf einer bestimmten Gradientenhöhe ausgerichtet ist;
  • 35 zeigt die Folge, die derart an dem Gradientenprofil aus 34 ausgerichtet ist, dass die Referenzspitze stattdessen an einer interpolierten Spitze des Gradientenprofils ausgerichtet ist;
  • 36 zeigt eine Ausführungsform eines Gradientenprofilprüfers, der Gradientenprofile einstuft.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die Erfindung betrifft ein Autofokus-Bildsystem, das eine mit einem Fokussignalgenerator gekoppelte Pixelanordnung (Pixelarray) umfasst. Die Pixelanordnung erfasst ein Bild, das über wenigstens eine Kante mit einer Breite verfügt. Der Fokussignalgenerator kann ein Fokussignal erzeugen, das eine Funktion der Kantenbreite und/oder von Statistiken der Kantenbreiten ist. Ein Autofokus-Bildsystem, das eine mit einem Fokussignalgenerator gekoppelte Pixelanordnung (Pixelarray) umfasst. Die Pixelanordnung erfasst ein Bild, das über wenigstens eine Kante mit einer Breite verfügt. Der Generator erzeugt ein Fokussignal, das eine Funktion der Kantenbreite und verschiedener Statistiken der Kantenbreite ist. Der Generator kann eine Kante mit einer Asymmetrie eines Gradienten eines Bildsignals eliminieren. Der Generator kann auch eine Kante eliminieren, die nicht einer Vorlage für eine entsprechende Spitzenbildung des Gradienten entspricht. Ein Prozessor empfängt das Fokussignal und/oder die Statistiken der Kantenbreiten und korrigiert eine Fokusposition einer Fokuslinse. Die Kantenbreite kann mit Hilfe verschiedener Methoden ermittelt werden, u. A. durch Verwendung von Gradienten. Es kann ein Histogramm der Kantenbreiten eingesetzt werden, um festzustellen, ob ein bestimmtes Bild fokussiert oder unfokussiert ist. Ein Histogramm, das eine große Anzahl niedriger Kantenbreiten enthält, weist auf ein fokussiertes Bild hin.
  • Aufbau
  • Im Folgenden wird mit Hilfe von Bezugsnummern konkreter auf die Zeichnungen Bezug genommen. 1 zeigt eine Ausführungsform eines Autofokus-Bilderfassungssystems 102. Das System 102 kann Teil einer digitalen Standbildkamera sein. Es versteht sich jedoch von selbst, dass das System in jedem Gerät eingesetzt werden kann, das die kontrollierte Fokussierung eines Bilds erfordert. Das System 102 kann eine Fokuslinse 104, eine Pixelanordnung und Schaltkreise 108, einen A/D-Konverter 110, einen Prozessor 112, ein Display 114, eine Speicherkarte 116 und einen Antriebsmotor/-schaltkreis 118 umfassen. Das Licht einer Szene tritt durch die Linse 104 ein. Die Pixelanordnung und Schaltkreise 108 erzeugen ein analoges Signal, das durch den A/D-Konverter 110 in ein digitales Signal umgewandelt wird. Die Pixelanordnung 108 kann ein mosaikartiges Farbmuster umfassen, z. B. die Bayer-Matrix. Das digitale Signal kann an den Prozessor 112 übermittelt werden, der verschiedene Verarbeitungsvorgänge durchführt, z. B. Farbinterpolation, Regelung der Fokusposition, Farbkorrektur, Bildkomprimierung/-dekomprimierung, Steuerung der Benutzeroberfläche und Steuerung des Displays, sowie an den Fokussignalgenerator 120. Wenn der Fokussignalgenerator 120 und der Prozessor 112 sich in verschiedenen Paketen befinden, kann eine Farbinterpolationseinheit 148 vorgesehen sein, die eine Farbinterpolation für das digitale Signal 130 durchführt, um dem Fokussignalgenerator 120 Schätzwerte der fehlenden Farbsignale der einzelnen Pixel bereitzustellen. Wenn der Fokussignalgenerator 120 und der Prozessor 112 sich stattdessen gemeinsam innerhalb eines Pakets 144 befinden, kann der Fokussignalgenerator 120 alternativ interpolierte Farbbilder vom Prozessor 112 über den Bus 146 empfangen, wie in 2 gezeigt, oder ein einzelnes Bildsignal, das von dem ursprünglichen vom A/D-Konverter 110 erzeugten Bildsignal abgeleitet wurde, zum Beispiel ein Graustufensignal.
  • Der Fokussignalgenerator 120 empfängt darüber hinaus eine Gruppe von Steuersignalen 132 vom Prozessor 112 und kann Signale 134 an den Prozessor 112 ausgeben. Die Ausgabesignale 134 können eine oder mehrere der folgenden Komponenten umfassen: ein Fokussignal 134, einen Wert für die Anzahl der schmalen Kanten und einen Satz von Zahlen, die eine Statistik der Kantenbreiten im Bild darstellen. Der Prozessor 112 kann ein Fokussteuersignal 136 erzeugen, das zur Steuerung der Fokuslinse 104 an den Antriebsmotor/-schaltkreis 118 übermittelt wird. Als Ergebnis wird ein fokussiertes Bild auf das Display 114 übertragen und/oder in der Speicherkarte 116 gespeichert. Der Algorithmus bzw. die Algorithmen, die zur Einstellung einer Fokusposition verwendet werden, können vom Prozessor 112 ausgeführt werden.
  • Die Pixelanordnung und Schaltkreise 108, der A/D-Konverter 110, der Fokussignalgenerator 120 und der Prozessor 112 können sich alle innerhalb desselben Pakets befinden. Alternativ können sich die Pixelanordnung und Schaltkreise 108, der A/D-Konverter 110 und der Fokussignalgenerator 120 als der in 1 gezeigte Bildsensor 150 innerhalb eines Pakets 142 befinden und vom Prozessor 112 getrennt sein. Alternativ können sich der Fokussignalgenerator 120 und der Prozessor 112 als die in 2 gezeigte Kamerasteuerung 160 zusammen in einem Paket 144 befinden und von der Pixelanordnung 108 und dem A/D-Konverter 110 getrennt sein. Der Fokussignalgenerator 120 (oder eine alternative Ausführungsform wie die in 26 gezeigte) und der Prozessor 112 können sich zusammen auf einem Halbleitersubstrat wie einem Siliziumsubstrat befinden.
  • Fokussignalgenerator
  • 3 zeigt eine Ausführungsform eines Fokussignalgenerators 120, der ein Bild bzw. Bilder von einer bildgebenden Einheit 202 empfängt. Bei der bildgebenden Einheit 202 kann es sich um die Farbinterpolationseinheit 148 in 1 oder den Prozessor 212 in 2 handeln. Der Fokussignalgenerator 120 kann eine Kantenerkennungs- und Breitenmesseinheit (KE-BM-Einheit) 206, eine Fokussignal-Berechnungseinheit 210, einen Längenfilter 212 und einen Breitenfilter 209 umfassen. Er kann weiterhin einen Feinsignalschalter 220 umfassen, der über die Eingabe ,fein' 222 gesteuert wird. Der Fokussignalgenerator 120 kann einen Wert für die Anzahl der schmalen Kanten vom Breitenfilter 209 und ein Fokussignal von der Fokussignal-Berechnungseinheit 210 bereitstellen, wobei das Fokussignal durch die Eingabe ,fein' 222 auf ein Fein- oder Grobfokussignal eingestellt werden kann. Alternativ können sowohl das Fein- als auch das Grobfokussignal berechnet und als Komponente der Ausgabesignale 134 ausgegeben werden. Die Kantenerkennungs- und Breitenmesseinheit 206 empfängt ein Bild bzw. Bilder, die von der bildgebenden Einheit 202 übermittelt werden. Im Zusammenhang mit 1 und 2 können Steuersignale wie das Steuersignal ,fein' 222 vom Prozessor 112 als Komponente der Signale 132 bereitgestellt werden. Ebenfalls im Zusammenhang mit 1 und 2 können die Ausgabesignale 134 dem Prozessor 112 bereitgestellt werden, der die Funktion einer Fokussystemsteuerung ausübt, welche die Fokusposition der Fokuslinse 104 regelt, um Bilder von Objekten auf der Pixelanordnung 108 zu fokussieren, indem zur Erkennung eines scharfen Objekts im Bild die Ausgabesignale 134 analysiert werden. Im Folgenden werden verschiedene Komponenten des Fokussignalgenerators 120 beschrieben.
  • Die KE-BM-Einheit 206 kann das Eingabebild umwandeln, so dass die drei Signale des Bilds, Rot (R), Grün (G) und Blau (B), in ein einziges Bildsignal konvertiert werden. Es können verschiedene Methoden eingesetzt werden, um ein Bild in ein einziges Bildsignal umzuwandeln. Zur Bildung des Einzelbildsignals können RGB-Werte verwendet werden, um einen Luminanz- oder Chrominanzwert zu berechnen, oder aber ein bestimmtes Verhältnis von RGB-Werten. Beispielsweise kann der Luminanzwert aus der Gleichung Y = 0,2126·R + 0,7152·G + 0,072.2·B errechnet werden, wobei Y der Luminanzwert ist. Das Einzelbildsignal kann dann mit Hilfe eines Gauß-Filters oder beliebigen Tiefpassfilters verarbeitet werden, um die Bilddaten-Stichprobenwerte benachbarter Pixel zu glätten und Rauschen zu unterdrücken.
  • Der Fokussignalgenerator 120, 120', 120'' ist nicht auf Graustufensignale eingeschränkt. Er kann ein beliebiges einzelnes Bildsignal verarbeiten, um darin eine oder mehrere Kanten zu erkennen. Er kann auch eine beliebige Kombination von Bildsignalen verarbeiten, beispielsweise Y, R-G oder B-G. Er kann zur Erkennung von Kanten jedes der R-, G- und B-Signale des Bilds einzeln verarbeiten oder eine oder mehrere beliebige Kombinationen davon. Er kann Statistiken der Kantenbreiten für jedes der Bildsignale R, G und B oder für eine beliebige Kombination dieser erzeugen. Er kann auf Grundlage der Kantenbreiten-Statistik eines oder mehrerer Bildsignale ein Fokussignal erzeugen.
  • Der Fokussignalgenerator weist einen Kantendetektor zum Identifizieren einer Kante in einem Bildsignal auf. Der Kantendetektor kann einen Kantendetektionsoperator erster Ordnung wie einen Sobel-Operator, Prewitt-Operator, Roberts-Cross-Operator oder Roberts-Operator verwenden. Der Kantendetektor kann zum Identifizieren der Kante auch einen Kantendetektionsoperator höherer Ordnung verwenden, zum Beispiel einen Operator zweiter Ordnung wie einen Laplace-Operator. Der Kantendetektionsoperator kann jeden beliebigen bekannten Kantendetektionsoperator oder jeden beliebigen verbesserten Operator benutzen, der sich mit einem beliebigen der bekannten Operatoren ein gemeinsames Kantendetektionsprinzip teilt.
  • Sofern der Kantendetektor einen Kantendetektionsoperator erster Ordnung verwendet, wird ein Gradient (d. h., eine erste Ableitung) des Bildsignals berechnet. Es gibt verschiedene Verfahren zum Berechnen des Gradienten, darunter beliebige von verschiedenen Kantendetektionsoperatoren erster Ordnung wie dem Sobel-Operator, dem Prewitt-Operator, dem Roberts-Cross-Operator oder dem Roberts-Operator. Der Roberts-Operator hat zwei Kerne, bei denen es sich um eine einspaltige bzw. eine einzeilige Matrix [–1 +1] und ihre Transponierte handelt. Der Roberts-Operator hat zwei Kerne, bei denen es sich um 2 × 2-Matrizen [+1, 0; 0, –1] und [0, +1; –1, 0] handelt, die wie in Matlab als [<erster Zeilenvektor>; <zweiter Zeilenvektor>; <dritter Zeilenvektor>] angegeben sind. Der Prewitt- und der Sobel-Operator haben im Wesentlichen dieselben Kerne: [–1, 0, +1], der einen Gradienten in Zeilenrichtung berechnet, und seine Transponierte, die einen Gradienten in Spaltenrichtung berechnet, weiterhin multipliziert mit verschiedenen Tiefpassfilter-Kernen, die Tiefpassfiltervorgänge orthogonal zu den jeweiligen Gradientenrichtungen durchführen. Es können beispielsweise mit Hilfe des Sobel-X-Operators bzw. Sobel-Y-Operators die Gradienten in Zeilen- und Spaltenrichtung berechnet werden, um vertikale Kanten bzw. horizontale Kanten zu erkennen. Der Sobel-X-Operator an der Pixelposition [k, q], wobei k eine Zeilennummer und q eine Spaltennummer ist, ergibt sich aus der Gleichung Sx [k, q] = U[k, q + 1] – U[k, q–1]. Der Sobel-Y-Operator an derselben Position ergibt sich aus der Gleichung Sy[k, q] = U[k + 1, q] – U[k – 1, q], wobei U ein Bildsignal des verarbeiteten Bilds ist.
  • Sofern als Kantendetektor ein Operator zweiter Ordnung verwendet wird, wird eine zweite Ableitung des Bildsignals (wie etwa der Laplace-Operator) berechnet.
  • Kennzeichnung der Orientierung
  • Jedes Pixel kann entweder als einer horizontalen Kante (,H') oder einer vertikalen Kante (,V') zugehörig gekennzeichnet werden, wenn entweder der Betrag des vertikalen oder des horizontalen Gradienten einen vorgegebenen unteren Grenzwert („Eliminations-Schwellwert”) überschreitet, z. B. 5 bei einem 8-Bit-Bild. Sind beide Bedingungen nicht erfüllt, wird das Pixel als keiner Kante zugehörig gekennzeichnet. Dieser untere Grenzwert verhindert die Fehlerkennung von Kanten aufgrund von weicher Schattierung oder Rauschen. Ein Pixel kann als Teil einer vertikalen Kante gekennzeichnet werden, wenn der Betrag seines horizontalen Gradienten den Betrag seines vertikalen Gradienten um einen vorgegebenen Hysteresewert oder mehr überschreitet, z. B. 2 bei einem 8-Bit-Bild, und umgekehrt. Wenn sich die Beträge der beiden Gradienten um weniger als den Hysteresewert unterscheiden, wird dem Pixel das gleiche Richtungskennzeichen zugewiesen wie dem nächsten Nachbarpixel, dessen Richtung bereits gekennzeichnet wurde. Wenn das Bild beispielsweise spaltenweise von links nach rechts und zeilenweise von oben nach unten abgetastet wird, können die benachbarten Pixel in der folgenden Reihenfolge überprüft werden: zuerst das Pixel unmittelbar darüber, als zweites das Pixel links darüber, als drittes das Pixel unmittelbar links davon und zuletzt das Pixel rechts darüber. Durch Anwendung dieser Hysterese wird sichergestellt, dass benachbarte Pixel, deren horizontaler und vertikaler Gradient betragsmäßig nahezu übereinstimmen, gleich gekennzeichnet werden. 4 zeigt das Ergebnis der Kennzeichnung am Beispiel einer Matrix von 6 mal 6 horizontalen und vertikalen Gradienten. In jeder Zelle wird der horizontale Gradient oben links, der vertikale Gradient rechts und die Richtungskennzeichnung unten angegeben. Nur Pixel, bei denen der Betrag des horizontalen oder vertikalen Gradienten 5 überschreitet, werden in diesem Schritt als Kantenpixel eingestuft. Sie sind in Fettdruck dargestellt und verfügen über eine Richtungskennzeichnung.
  • Das Bild, die Gradienten und Kennzeichnungen können bei vertikalen Kanten in horizontaler Richtung und bei horizontalen Kanten in vertikaler Richtung abgetastet werden. Eine Gruppe aufeinanderfolgender Pixel einer bestimmten Zeile, deren horizontale Gradienten das gleiche Vorzeichen haben und die alle als Teil einer vertikalen Kante gekennzeichnet sind, kann als vertikale Kante eingestuft werden, sofern keine angrenzenden Pixel links oder rechts davon die gleichen Bedingungen erfüllen. Analog dazu kann eine Gruppe aufeinanderfolgender Pixel einer bestimmten Spalte, deren vertikale Gradienten das gleiche Vorzeichen haben und die alle als Teil einer horizontalen Kante gekennzeichnet sind, als horizontale Kante eingestuft werden, sofern keine angrenzenden Pixel oberhalb oder unterhalb davon die gleichen Bedingungen erfüllen. Auf diese Weise können horizontale und vertikale Kanten erkannt werden.
  • Kantenbreite
  • Kanten können verfeinert werden, indem Pixel entfernt werden, bei denen der Betrag des Gradienten kleiner ist als ein bestimmter Bruchteil des Spitzengradientenbetrags der Kante. 5 stellt diesen Schritt dar, wobei für die Verfeinerung ein Schwellenwert von einem Drittel des höchsten Gradientenbetrags der Kante angesetzt wird. Die Breite der Kante wird damit von den ursprünglichen 9 Pixeln auf 3 reduziert. Durch diese Kantenverfeinerung wird die dominante Komponente des Gradienten hervorgehoben, welche die scheinbare, die visuelle Wahrnehmung prägende Kantenbreite bestimmt, auch wenn ein Bild mehrere sich überlappende Schattierungen aufweist, die zu einer allmählichen Abnahme des Gradienten über mehrere Pixel hinweg führen können.
  • Die Kantenbreite kann mit Hilfe verschiedener bekannter Methoden berechnet werden. Eine einfache solche Methode zur Berechnung der Kantenbreite stellt die Zählung der Pixel innerhalb einer Kante dar. Eine alternative Methode zur Berechnung der Kantenbreite wird in 5 gezeigt. In 5 wird eine erste Zwischenpixelposition (2,4), die sich zwischen einem ersten äußeren Pixel (Pixel 3) einer verfeinerten Kante und einem benachbarten äußeren Pixel (Pixel 2) befindet, durch Interpolation der Position, die dem Verfeinerungs-Schwellenwert 304 entspricht, ermittelt. Auf analoge Weise wird eine zweite Zwischenpixelposition (5,5) zwischen einem zweiten äußeren Pixel (Pixel 5) und seinem benachbarten äußeren Pixel (Pixel 6) ermittelt. Die Breite der Kante ist die Differenz zwischen diesen beiden Zwischenpixelpositionen, d. h. 5,5 – 2,4 = 3,1.
  • Ein weiteres alternatives Verfahren zur Kantenbreitenberechnung besteht darin, eine Differenz des Bildsignals (mit oder ohne Kantenverfeinerung) quer zum Verlauf der Kante zu berechnen und durch einen Spitzengradienten der Kante zu dividieren.
  • Alternativ hierzu kann die Kantenbreite eine Distanz zwischen einem Paar aus einer positiven und einer negativen Spitze (oder interpolierten Spitzen) der zweiten Ableitung des Bildsignals quer zum Verlauf der Kante sein. Weitere Alternativen sind möglich und werden später in dieser Patentschrift unter der Überschrift „Kantenschärfemaß” beschrieben.
  • Später in dieser Patentschrift wird sichtbar werden, dass es weitere Alternativen als eine Breite gibt, bei der es sich lediglich um ein Beispiel für ein Kantenschärfemaß handelt, das im Wesentlichen unabhängig von der Beleuchtung der Szene ist.
  • Neigungskorrektur
  • Zwar ist es möglich, jede Kante einer vorbestimmten Richtung (z. B. vertikale oder horizontale Richtung) oder einer anderen, orthogonalen vorbestimmten Richtung (z. B. horizontale Richtung oder vertikale Richtung) zuzuordnen und ihre Kantenbreite in einer Richtung zu messen, die orthogonal zu der zugeordneten Richtung verläuft, aber die Grenzen zwischen Bereichen unterschiedlicher Bildsignalwerte im Bild, aus denen diese Kanten entstehen, sind möglicherweise bzw. in der Regel nicht perfekt an einer der beiden vorbestimmten Richtungen ausgerichtet. In 6A sind eine bezüglich der vertikalen gestrichelten Linie unter einem Neigungswinkel ϕ geneigte Grenze (schattiertes Band) und eine in der dazu orthogonalen (d. h. horizontalen) Richtung gemessene Breite a gezeigt. Allerdings kommt eine in einer orthogonal zu der Richtung des Verlaufs der Grenze (und damit auch der Richtung einer Kante, die einen Teil der Grenze bildet) verlaufenden Richtung gemessene Breite b (siehe Zeichnung) der tatsächlichen Breite der Grenze (und auch der Kante) näher als die Breite a. Solche Breiten a, die nicht orthogonal zu den Verlaufsrichtungen der jeweiligen Kanten gemessen werden, sind in der Regel zu groß und stehen nicht für die realen Dicken der betreffenden Grenzen.
  • Zum Zweck der Berechnung eines Fokussignals anhand von Kantenbreiten müssen die Kantenbreiten, die in der einen oder anderen dieser vorgeschriebenen Richtungen gemessen werden, korrigiert werden, indem sie auf die Breite in einer zur Richtung der jeweiligen Kante orthogonalen Richtung reduziert werden. Die Kantenerkennungs- und Breitenmesseinheit 206 führt eine solche Korrektur der Kantenbreiten durch. Wie in 6A gezeigt, stellt die gemessene Breite a die Länge der Hypotenuse eines rechtwinkligen Dreiecks dar, dessen eine Kathete (durch die Breite b gekennzeichnet) orthogonal zur schattierten Grenze (also orthogonal zur Kantenrichtung) verläuft und den Winkel ϕ aufweist. Die korrigierte Breite b kann sodann durch Projektion der gemessenen Breite a auf die zur Verlaufsrichtung der Kante orthogonale Richtung ermittelt werden. Gemäß elementarer Trigonometrie kann eine solche Projektion durch b = a cos(ϕ) ausgedrückt werden. Es kann aber auch eine Näherung verwendet werden, solange eine Abweichung von nicht mehr als 20% nicht überschritten wird. Der Winkel ϕ oder cos(ϕ) selbst kann mit Hilfe einer der im Stand der Technik bekannten Methoden zur Ermittlung der Richtung einer Kante in einem Bild oder durch eine genauere Methode, die im Ablaufdiagramm von 7 beschrieben wird, ermittelt werden.
  • Die Kantenbreite jeder horizontalen oder vertikalen Kante kann um die Neigung relativ zur horizontalen bzw. vertikalen Richtung (den vorgeschriebenen Richtungen) korrigiert werden. Die 6A und 6B zeigen die Berechnung der Korrektur einer Kantenbreite, die in der horizontalen Richtung gemessen wird, für eine Grenze (und daher die Kanten, die die Grenze bilden), die relativ zur vertikalen Linie geneigt ist. Die 6C und 6D zeigen die Berechnung der Korrektur einer Kantenbreite, die in der vertikalen Richtung gemessen wird, für eine Grenze (und daher die Kanten, die die Grenze bilden), die relativ zur horizontalen Linie geneigt ist. Zur Korrektur kann die Kantenbreite, die in einer vorgeschriebenen Richtung wie der vertikalen oder horizontalen Richtung gemessen wird, mit dem Faktor cos(ϕ) multipliziert werden, wobei ϕ ein Neigungswinkel relativ zur vorgeschriebenen Richtung ist.
  • 7 zeigt beispielsweise ein Ablaufdiagramm, das ein Verfahren zur Neigungskorrektur von Kantenbreiten für Kanten, die relativ zu einer vertikalen Linie geneigt sind, darstellt. (Für horizontale Kanten ist im Ablaufdiagramm ,Spalte' durch ,Zeile' zu ersetzen, und die Begriffe ,vertikal' und ,horizontal' sind auszutauschen.)
  • Von Schritt 502 bis Schritt 506 wird ein Neigungswinkel ϕ ermittelt. In Schritt 502 wird für jede vertikale Kante die Spaltenposition ermittelt, an welcher der Betrag des horizontalen Gradienten eine Spitze bildet, und der entsprechende horizontale Gradient x ermittelt. In Schritt 504 wird der Ort ermittelt, an dem der Betrag des vertikalen Gradienten in der betreffenden Spalte und in einem Abstand von bis zu zwei Pixeln eine Spitze bildet, und der vertikale Gradient y ermittelt.
  • In Schritt 506 wird der Neigungswinkel ϕ = tan–1(y/x) ermittelt. In Schritt 506 kann der Neigungswinkel durch Auslesen aus einer Wertetabelle ermittelt werden. Die Schritte 502 bis 506 stellen nur eine bestimmte Vorgehensweise und Methode zur Ermittlung des Neigungswinkels dar. Es können stattdessen auch andere im Stand der Technik bekannte Vorgehensweisen und Methoden verwendet werden.
  • In Schritt 508 schließlich wird die Kantenbreite durch Multiplikation mit cos(ϕ) oder einer Annäherung davon heruntergerechnet, wie dies von einem Fachmann in der Praxis üblicherweise durchgeführt wird.
  • Als eine erste Modifikation des in 7 gezeigten Verfahrens werden Schritt 506 und Teil von Schritt 508 ersetzt, indem eine Wertetabelle bereitgestellt wird, die über Einträge für verschiedene Kombinationen der Eingabewerte x und y verfügt. Für jede Kombination der Eingabewerte x und y liefert die Wertetabelle einen Kantenbreiten-Korrekturfaktor. Der von der Wertetabelle gelieferte Kantenbreiten-Korrekturfaktor kann eine Annäherung von cos(tan–1(y/x)) mit einer Abweichung von nicht mehr als 20% und bevorzugt von nicht mehr als 5% sein. Die Kantenbreite wird dann mit diesem Korrekturfaktor multipliziert, so dass sich eine neigungskorrigierte Kantenbreite ergibt.
  • Als eine zweite Modifikation wird ein Quotient y/x aus einem vertikalen Gradienten y und einem horizontalen Gradienten x berechnet, der als q bezeichnet wird. Anschließend wird q als Eingabe in eine Wertetabelle benutzt, die über Einträge für verschiedene Werte von q verfügt. Für jeden Wert von q liefert die Wertetabelle einen Kantenbreiten-Korrekturfaktor. Der Kantenbreiten-Korrekturfaktor kann eine Annäherung von cos(tan–1(q)) mit einer Abweichung von nicht mehr als 20% und bevorzugt von nicht mehr als 5% sein.
  • Zur Berechnung des Neigungswinkels ϕ (oder einer Annäherung davon, so dass der Korrekturfaktor eine Abweichung von nicht mehr als 20% aufweist) und daraufhin des Korrekturfaktors cos(ϕ) (oder einer Annäherung davon) oder zur direkten Ermittlung des Korrekturfaktors ohne Ermittlung des Neigungswinkels ϕ (wie bei der ersten und zweiten Modifikation) können die Werte von x und y in den Schritten 502 bis 506 ermittelt werden, aber es können stattdessen auch andere Methoden angewandt werden.
  • Als eine dritte Modifikation werden die folgenden Schritte für jedes einer Mehrzahl von Pixeln in der Kante ausgeführt: (a) Es wird sowohl ein horizontaler Gradient x als auch ein vertikaler Gradient y eines Pixels ermittelt, (b) der Quotient q = y/x für dieses Pixel ermittelt und (c) ein q entsprechender Korrekturfaktor ermittelt, zum Beispiel cos(tan–1(q)) oder eine Annäherung davon mit einer Abweichung von nicht mehr als 20%. Schließlich wird der Korrekturfaktor für die Kantenbreite durch Mittelung der Korrekturfaktoren der einzelnen Pixel der Mehrzahl von Pixeln ermittelt. Der Mittelwert kann ein gewichteter Durchschnitt sein, wobei zum Beispiel ein Pixel mit einem größeren horizontalen Gradienten eine höhere Gewichtung erhält als ein anderes Pixel, das über einen geringen horizontalen Gradienten verfügt.
  • Andere Modifikationen sind gemäß diesen oder anderen Vorschriften möglich.
  • Schwellenwert für die Filterung
  • Zur Bildung des Fokussignals können benachbarte Kanten entweder vollständig ausgeschlossen werden oder ihr Beitrag kann reduziert werden, wenn ihr Spitzengradientenbetrag kleiner als ein vorgegebener Bruchteil des Spitzengradientenbetrags einer benachbarten breiteren Kante ist. 9A, 9B und 9C stellen ein Problem dar, das behoben wird.
  • 9A zeigt drei vertikale weiße Balken, die von zwei schmalen schwarzen Bereichen mit einer Breite von jeweils 2 Pixeln getrennt werden. Der mittlere weiße Balken ist ein schmaler Balken, der zwei Pixel breit ist. In 9B ist das Bildsignal in horizontaler Richtung für eine scharfe und eine unscharfe Version des Bilds in 9A aufgetragen. In 9C sind die Sobel-X-Gradienten von 9B für das scharfe und unscharfe Bild aufgetragen. In 9C ist erwartungsgemäß die erste Kante (Pixel 2–5) beim unscharfen Bild breiter als beim scharfen Bild und gleichermaßen die letzte Kante (Pixel 13–15). Die beiden schmalsten Kanten (Pixel 9 & 10 und Pixel 11 & 12) haben jedoch in beiden Bildern die Breite 2. Die entsprechenden Pegeländerungen bei den Pixeln 9 & 10 sowie 11 & 12 in 98 verlaufen jeweils über eine Länge von zwei Pixeln. Im unscharfen Bild ist der Betrag des Spitzengradienten der schmaleren Kanten jedoch deutlich – rund 50% – kleiner als derjenige der breiteren Kanten. Das scharfe Bild andererseits weist einen Unterschied von weniger als 10% zwischen den breiteren Kanten und schmaleren Kanten auf.
  • Ein deutlich geringerer Spitzengradientenbetrag einer schmaleren Kante – z. B. von 20% oder mehr –, die sich neben einer breiteren Kante mit einem Gradienten mit umgekehrten Vorzeichen befindet, ist ein Anzeichen dafür, dass das unscharfe Bild nicht gut fokussiert ist und die schmalere Kante daher keinen zuverlässigen Hinweis auf ein scharfes Bild darstellt.
  • In gleicher Weise stellen nebeneinander liegende Kanten wechselnden Gradientenvorzeichens auch dann keinen solchen zuverlässigen Hinweis dar, wenn ihre Kantenbreiten gering sind, sofern sie sich in unmittelbarer Nähe zueinander befinden, z. B. einen Abstand von nicht mehr als einem Pixel aufweisen („Minimaler Kantenabstand”). Der minimale Kantenabstand wird als Anzahl von Pixeln ausgedrückt, z. B. 1, 2 oder ein Wert dazwischen.
  • Da außerdem eine Kante aufgrund eines Spitzengradienten, dessen Betrag kleiner als der Schwellenwert für die Eliminierung ist, ausgelöscht worden sein könnte, können auch zwei aufeinanderfolgende schmale Kanten mit gleichem Gradientenvorzeichen und einem Abstand kleiner oder gleich dem doppelten minimalen Kantenabstand plus einer Breite_scharfer_Kanten (Breite_scharfer_Kanten ist eine Zahl, die die Kantenbreite einer scharfen Kante festlegt) als eine Bedingung zur Eliminierung oder Herabstufung des Beitrags einer oder beider der nebeneinander liegenden Kanten verwendet werden.
  • Die Kantenerkennungs- und Breitenmesseinheit 206 kann anhand eines Filterschwellenwerts, der anhand einer breiteren Kante festgelegt wird, und einer Modulations-Filterkennzeichnung, die aktiviert und deaktiviert werden kann, den folgenden Algorithmus zur Eliminierung dicht beieinander liegender schmalerer Kanten ausführen.
  • Für jede Kante werden der Filterschwellenwert und die Filterkennzeichnung, die für die unmittelbar nächste Kante mit umgekehrtem Vorzeichen verwendet werden sollen, gemäß dem Verfahren des in 10 gezeigten Ablaufdiagramms festgelegt.
  • Wenn der Filterwert und die Filterkennzeichnung festgelegt sind, kann eine Kante eliminiert werden, sofern nicht eine der folgenden Bedingungen erfüllt ist: (a) Für diese Kante ist die Filterkennzeichnung deaktiviert, (b) ein Spitzengradientenbetrag der Kante ist nicht kleiner als der Filterschwellenwert für diese Kante. Zu den Bedingungen (a) und (b) kann die folgende Bedingung hinzugefügt werden: (c) Die Kantenbreite ist nicht geringer als die Breite_scharfer_Kanten +1, wobei dem Parameter Breite_scharfer_Kanten eine Zahl zugewiesen wurde, die der Kantenbreite einer scharfen Kante entspricht, und wobei der Summand „+1” variiert werden kann, um einen Kantenbreitenbereich oberhalb von Breite_scharfer_Kanten festzulegen, innerhalb dessen Kanten eliminiert werden können, wenn sie die Bedingungen (a) und (b) nicht erfüllen. Bei den in den 9A9C gezeigten Beispielen kann der Wert von Breite_scharfer_Kanten 2 betragen. 10 ist ein Ablaufdiagramm für die Festlegung eines Filterschwellenwerts und einer Filterkennzeichnung für Kanten. Bei vertikalen Kanten wird angenommen, dass die Abtastung entlang einer Zeile von links nach rechts erfolgt, was aber keine Voraussetzung ist. (Bei horizontalen Kanten wird angenommen, dass die Abtastung entlang einer Spalte von oben nach unten erfolgt, was aber keine Voraussetzung ist.) Dem Parameter Breite_scharfer_Kanten wird eine Zahl zugewiesen, die bei den in den 9A9C gezeigten Beispielen 2 betragen kann. Ausgehend von der ersten Kante in Schritt 702, werden alle Kanten in Schritt 720 daraufhin überprüft, ob die Kantenbreite größer oder gleich 1 plus Breite_scharfer_Kanten ist, wobei 1 der für diese Darstellung benutzte Wert des minimalen Kantenabstands ist. Es kann jedoch auch ein anderer Wert verwendet werden, zum Beispiel ein Wert zwischen 0,5 und 2,0. Wenn dies der Fall ist, handelt es sich bei der Kante um eine breitere Kante, und im darauffolgenden Schritt 706 wird der Filterschwellenwert für die unmittelbar nächste Kante mit umgekehrtem Vorzeichen auf beta mal einen Spitzengradientenbetrag der Kante festgesetzt, wobei beta zwischen 0,3 und 0,7 und bevorzugt bei 0,55 liegt. Im anschließenden Schritt 708 wird die Filterkennzeichnung für die nächste Kante aktiviert, woraufhin mit der nächsten Kante fortgefahren wird. Falls nicht, handelt es sich bei der Kante nicht um eine breitere Kante. Im darauffolgenden Schritt 730 wird überprüft, ob der Abstand der vorangehenden Kante gleichen Vorzeichens größer als der doppelte minimale Kantenabstand (oder ein anderer vorgegebener Wert) plus Breite_scharfer_Kanten und der Abstand der unmittelbar vorangehenden Kante entgegengesetzten Vorzeichens, sofern vorhanden, größer als der minimale Kantenabstand ist. Falls dies der Fall ist, wird im darauffolgenden Schritt 710 die Filterkennzeichnung für die nächste Kante deaktiviert. Falls nicht, werden Filterkennzeichnung und Filterschwellenwert für die nächste Kante beibehalten und anschließend wird mit der nächsten Kante fortgefahren. Beta kann ein bestimmter vorgegebener Bruchteil sein oder anhand einer vorgegebenen Formel berechnet werden, die z. B. eine Funktion der Kantenbreite darstellen kann. Im letzteren Fall kann sich beta zwischen den verschiedenen Teilen des Bilds unterscheiden.
  • Alternative Ausführungsformen
  • Orientierung des Pixelgitters:
  • Das von dem Fokussignalgenerator 120 eingegebene Bild kann Pixel aufweisen, die in einem rechteckigen Gitter („Pixelgitter”) angeordnet sind, das um 45 Grad gegen einen rechtwinkligen Bildrahmen gedreht ist. In diesem Fall können die x- und y-Richtungen der Kantendetektionsvorgänge und Breitenmessvorgänge entsprechend rotiert werden.
  • Kantenschärfemaße:
  • In der vorstehenden Beschreibung wird die Schärfe eines Bilds einer Kante durch eine Breite der Kante dargestellt, die anhand einer Folge von Gradienten quer zum Verlauf der Kante gemessen wird, wobei die Kanten quer zum Verlauf der Kante ausgerichtet sind. Es gibt Alternativen, die nach einem ähnlichen Prinzip arbeiten. Im Wesentlichen kann das Fokussignal auf diese Weise erzeugt werden, weil die einzelnen Kanten jeweils eine Größe (im Weiteren: „Kantenschärfemaß”) beitragen, die von einer Skalierung der Bilddaten um beispielsweise 20% unabhängig oder im Wesentlichen unabhängig – Veränderung um höchstens 5% bei einer Herunterskalierung der Bilddaten um 20% – ist, was dazu beiträgt, das Fokussignal unabhängig oder deutlich weniger abhängig von der Beleuchtung der Szene des Bilds oder dem Reflexionsvermögen von Objekten in der Szene zu machen als bei dem herkömmlichen Kontrastdetektionsverfahren.
  • Bei dem vorliegenden Fokussignalgenerator 120 ist jedes Kantenschärfemaß, das zusätzlich die vorstehend erwähnte Eigenschaft aufweist, unabhängig oder im Wesentlichen unabhängig von einem 20%igen Herunterskalieren der Bilddaten zu sein, eine gute Alternative zu der von einem Gradienten oder interpolierten Gradienten zu einem anderen Gradienten oder interpolierten Gradienten mit demselben Gradientenwert gemessenen Breite.
  • Das alternative Kantenschärfemaß weist bevorzugt eine Einheit auf, die frei von Energieeinheiten ist. Die Einheit des Kantenschärfemaßes wird auf der Grundlage zweier Punkte festgelegt: a) Stichproben der Bilddaten, auf die der Kantendetektionsoperator erster Ordnung angewendet wurde, weisen Energieeinheiten auf, und b) Abstände zwischen Stichproben weisen Längeneinheiten auf. Aus a) und b) folgt, dass ein Gradientenwert eine Einheit aufweist, die eine Energieeinheit dividiert durch eine Längeneinheit ist. Auch der Kontrast quer zum Verlauf der Kante oder quer zu einem beliebigen ungeteilten Abschnitt der Kante weist eine Energieeinheit auf. Daher ist der Kontrast kein gutes Kantenschärfemaß, da aus der Einheit deutlich wird, dass er von der Beleuchtung der Szene und dem Reflexionsvermögen des Objekts beeinflusst wird. Auch der Spitzengradient der Kante ist ungeeignet, da in der Einheit des Spitzengradienten ebenfalls Energieeinheiten stecken, was anzeigt, dass auch diese Größe auf Änderungen der Beleuchtung der Szene reagiert. Der Quotient aus dem Spitzengradienten der Kante und einem Kontrast der Kante dagegen ist ein hinreichend gutes Kantenschärfemaß, da er eine Einheit aufweist, die der Kehrwert einer Längeneinheit ist. Als ein weiteres Beispiel ist die Anzahl der Gradienten, deren Gradientenwerte einen bestimmten vorbestimmten Bruchteil des Spitzengradienten übersteigen, ein gutes Kantenschärfemaß, da die Anzahl einfach ein auf die Größe des Abstands zwischen benachbarten Gradienten quantisiertes Maß für die Distanz ist und daher eine Längeneinheit aufweist.
  • Es sei hier darauf hingewiesen, dass bei der Erzeugung eines Kantenschärfemaßes ein Gradient mit einem Kantendetektionsoperator erster Ordnung, der zur Detektion der Kante benutzt wird, oder mit einem anderen Erste-Ableitungs-Operator (d. h. Gradientenoperator) erzeugt werden kann. Während beispielsweise der Sobel-Operator (oder sogar ein Kantendetektionsoperator zweiter Ordnung wie etwa ein Laplace-Operator) zur Detektion der Kante benutzt werden kann, kann zum Erzeugen des Gradienten der Roberts-Operator benutzt werden, dessen Kerne einfach [–1, +1] und die Transponierte davon sind, wodurch einfach eine Bilddatenstichprobe von der nächsten Stichprobe in Richtung des Gradientenoperators subtrahiert wird, wobei der sich ergebende Gradient in der Mitte zwischen den Stichproben angeordnet ist. Die Kanten können unabhängig von einem oder mehreren Ableitungsoperatoren, die zum Erzeugen des Kantenschärfemaßes oder eines beliebigen anderen im nächsten Abschnitt beschriebenen Formmaßes benutzt werden, mit einem Kantendetektionsoperator höherer als erster Ordnung detektiert werden.
  • Noch anders betrachtet: Das Kantenschärfemaß sollte eine Einheit aufweisen, die eine Potenz einer Länge ist, zum Beispiel das Quadrat, der Kehrwert, die Quadratwurzel aus der Länge oder die Länge selbst.
  • Jedes solche alternative Kantenschärfemaß kann bei dem Fokussignalgenerator 120 die Kantenbreite ersetzen.
  • Um eine Neigung der Kante zu korrigieren, muss der oben in Bezug auf die 6A bis 6D und 7 beschriebene Korrekturfaktor (im Weiteren „Breitenkorrekturfaktor”) in dieselbe Potenz konvertiert werden. Wenn zum Beispiel das Kantenschärfemaß der Spitzengradient dividiert durch einen Kontrast ist, was ihm den Kehrwert einer Längeneinheit als Einheit verleiht, so ist der geeignete Korrekturfaktor für das Kantenschärfemaß der Kehrwert des in Bezug auf die 6A bis 6D und 7 beschriebenen Korrekturfaktors. Wenn als weiteres Beispiel das Kantenschärfemaß eine Einheit aufweist, die das Quadrat einer Längeneinheit ist, so muss auch der Neigungskorrekturfaktor für das Kantenschärfemaß ein Quadrat des Breitenkorrekturfaktors sein.
  • Nachstehend werden anhand der Zeichnungen in den 24A bis D mehrere Beispiele für alternative Kantenschärfemaße beschrieben.
  • 24C veranschaulicht eine Auftragung einer Folge von Gradienten quer zu einer Kante gegen die in Vielfachen des Abstands zwischen aufeinanderfolgenden Gradienten gemessene Distanz sowie eine Fläche A3 eines schraffierten Bereichs unter der aufgetragenen Gradientenfolge. In diesem Beispiel ist der Bereich zwischen zwei Gradientenhöhen L1 und L2 definiert, die in Bezug auf einen interpolierten Spitzengradientenwert (alternativ den Spitzengradientenwert) der Gradientenfolge zum Beispiel als vorbestimmter Anteil des interpolierten Spitzengradientenwerts definiert sein können. Der schraffierte Bereich weist vier Ecken auf, bei denen es sich um interpolierte Gradienten handelt. Die Fläche dividiert durch den interpolierten Spitzengradientenwert (alternativ: den Spitzengradientenwert) ist ein gutes Kantenschärfemaß, da es eine Längeneinheit aufweist. Es sei angemerkt, dass alternative Definitionen des Bereichs möglich sind. Zum Beispiel kann der Bereich von oben nicht von der Gradientenhöhe L1, sondern von der Gradientenfolge begrenzt werden.
  • 24D veranschaulicht eine Auftragung von Gradienten von Stichproben der Bilddaten quer zu einer Kante gegen die in Vielfachen des Abstands zwischen aufeinanderfolgenden Gradienten gemessene Distanz, einen Schwerpunkt 3401 (d. h. Momentennullpunkt) und Distanzen u2, u3, u4, u5 und u6 der Gradienten (mit Gradientenwerten g2, g3, g4, g5 und g6) vom Schwerpunkt. Ein gutes Kantenschärfemaß ist ein k-tes Zentralmoment der Gradienten um den Schwerpunkt, und zwar ein gewichtetes Mittel der Distanzen der Gradienten vom Schwerpunkt, wobei die Gewichte Beträge der jeweiligen Gradienten sind und k eine gerade Ganzzahl ist. Zum Beispiel kann k gleich 2 sein, was das Kantenschärfemaß zu einer Varianz macht, so als ob die Gradientenfolge eine Wahrscheinlichkeitsverteilung wäre. In diesem Beispiel weist das Kantenschärfemaß eine Einheit auf, die ein Quadrat einer Längeneinheit ist. Allgemeiner kann das Kantenschärfemaß eine Funktion von Distanzen zwischen mehreren Gradienten aus einer Gradientenfolge und einer vordefinierten Position relativ zu den Gradienten sein, wobei die Folge als Array quer über die Kante angeordnet ist. Anstelle des Schwerpunkts kann es sich bei der vordefinierten Position auch um eine Position einer interpolierten Spitze für die Gradientenfolge handeln. Zur Teilnahme an dieser Berechnung kann gemäß einem vordefinierten Kriterium eine geeignete Teilmenge der Gradienten der Kante ausgewählt werden. Zum Beispiel kann an die Gradienten die Anforderung gestellt werden, Gradientenwerte aufzuweisen, die mindestens einen vorbestimmten Bruchteil des Spitzengradienten bzw. des Gradientenwerts einer interpolierten Spitze der Gradientenfolge erreichen.
  • 24A veranschaulicht eine Auftragung einer Folge zweiter Ableitungen einer Folge von Stichproben von Bilddaten quer zu einer Kante gegen die in Vielfachen des Abstands zwischen aufeinanderfolgenden zweiten Ableitungen gemessene Distanz und zeigt a) eine Breite Ws zwischen einem Paar aus einer positiven und einer negativen Spitze, b) eine Breite W1 zwischen einem Paar äußerster interpolierter zweiter Ableitungen mit gegebenem Betrag h1, c) eine Breite W2 zwischen einem inneren Paar interpolierter zweiter Ableitungen mit dem gegebenen Betrag h1 und d) eine Distanz D1 zwischen einem Nulldurchgang (zwischen dem Paar aus positiver und negativer Spitze) und einer äußersten interpolierten zweiten Ableitung mit dem gegebenen Betrag h1. Jede der drei Breiten Ws, W1 und W2 kann als Kantenschärfemaß benutzt werden.
  • In dem Beispiel aus 24A kann das Kantenschärfemaß weiterhin eine gewichtete Summe der Distanzen zwischen den zweiten Ableitungen und dem Nulldurchgang (zwischen dem Paar aus positiver und negativer Spitze, ggf. interpoliert) sein, wobei die Beträge der jeweiligen zweiten Ableitungen als Gewichtungen dienen. Allgemeiner kann das Kantenschärfemaß eine Funktion von Distanzen zwischen mehreren zweiten Ableitungen quer zur Kante und einer vordefinierten Position relativ zu den mehreren zweiten Ableitungen sein. Anstelle der Position des Nulldurchgangs ist auch ein Schwerpunkt ein guter Kandidat für die vordefinierte Position, wobei Beträge der zweiten Ableitungen als Gewichtungen dienen. Ein weiterer guter Kandidat für die vordefinierte Funktion kann der Mittelpunkt zwischen dem Paar aus positivem und negativem Gradienten sein.
  • 24B veranschaulicht eine Auftragung einer Folge von Bilddaten von Pixeln einer Kante gegen die in Vielfachen des Abstands zwischen benachbarten Pixeln gemessene Distanz und zeigt a) eine Breite WKante und einen Kontrast CKante zwischen zwei Stichproben an zwei Enden der Kante, b) einen Spitzengradientenwert gSpitze (generiert von dem Roberts-Operator) zwischen zwei Stichproben, der die steilste Änderung des Stichprobenwerts anzeigt, c) einen schmalsten ungeteilten Abschnitt der Kante mit einem Kontrast C1 und einer Breite W1, und d) einen schmalsten ungeteilten Abschnitt der Kante mit einem Kontrast C2 und einer Breite W2. Wie zuvor erwähnt wurde, ist der Spitzengradientenwert gSpitze dividiert durch den Kontrast CKante ein gutes Kantenschärfemaß. Die Breite WKante ist ein weiteres gutes Kantenschärfemaß. Die Breiten W1 und W2 sind ebenfalls gute Alternativen. Die Kontraste C1 und/oder C2 können so definiert sein, dass sie ein vorbestimmter Anteil des Kantenkontrasts CKante sind. Alternativ hierzu können sie jeweils als vorbestimmtes Vielfaches eines Spitzengradienten der Kante wie dem Spitzengradienten gSpitze definiert sein. Es sei hier auch angemerkt, dass der „schmalste ungeteilte Abschnitt” durch interpolierte Stichproben von Bilddaten begrenzt sein kann, wie sie in 24B durch Quadrate gezeigt werden, oder durch Ab- oder Aufrunden auf die nächstliegende Pixelzahl.
  • Einstufen von Kanten
  • In der Kantenerkennungs- und Breitenmesseinheit 206 kann das nachstehende Verfahren zum Einstufen von Kanten ausgeführt werden, das nachstehend anhand der 27 bis 35 beschrieben wird.
  • Bei diesem Verfahren wird das Gradientenprofil mit einer Folge von Referenzgradienten verglichen. Jeder der Referenzgradienten weist einen Gradientenwert und einen Abstand zum nächsten Referenzgradienten in der Folge auf. Die Referenzgradienten werden so erzeugt, dass eine vorbestimmte Beziehung zwischen ihnen besteht. Zum Beispiel kann die Folge aus einer Wertetabelle erzeugt werden und/oder als Folge in einer Wertetabelle gespeichert sein. Als weiteres Beispiel kann die Folge über eine mathematische Formel definiert sein.
  • 27 veranschaulicht eine Abfolge von Referenzgradienten 3402, 3404, 3406, 3406, die gemeinsam mit einem Gradientenprofil aus den Gradienten 3502, 3504, 3506, 3508 (Markierungen „x”) an den Positionen 2, 3, 4 bzw. 5 aufgetragen ist. Der Referenzgradient 3402 weist einen Abstand D1 zum nächsten Referenzgradienten 3404 auf. Der Referenzgradient 3404 weist einen Abstand D2 zum nächsten Referenzgradienten 3406 auf. Der Referenzgradient 3406 weist einen Abstand D3 zum nächsten Referenzgradienten 3408 auf. Die Referenzgradienten 3402, 3404, 3406 und 3406 fallen auf eine glockenförmige Referenzgradientenkurve 3400 (gepunktete Kurve), deren Referenz-Spitzenposition 3401 zwischen den Positionen 3 und 4 liegt. Die Referenzgradientenkurve 3400 gibt an, welchen Wert ein Referenzgradient bei gegebener Distanz zur Referenz-Spitzenposition 3401 annehmen sollte.
  • Die Referenzgradientenkurve 3402 kann über eine mathematische Formel definiert sein. Die Formel kann für verschiedene Abschnitte der Referenzgradientenkurve 3402 unterschiedliche mathematische Ausdrücke verwenden. Sie kann zum Beispiel für die Definition eines Bereichs zwischen einer Referenzspitze der Referenzgradientenkurve 3402 bis herunter zu 50% der Höhe der Referenzspitze eine hyperbolische Formel und zur Definition der Bereiche ab 50% unterhalb der Referenzspitze auf beiden Seiten der Kurve ein Polynom dritten Grades benutzen. Vorzugsweise wird die mathematische Formel durch einen oder mehrere Parameter festgelegt (ist von einem oder mehreren Parametern abhängig), zum Beispiel einem oder mehreren der folgenden Parameter: eine Referenzbreite, ein Kantenneigungswinkel (der zur Anpassung an einen Neigungswinkel einer Kante benutzt werden kann), eine Spitzengradientenhöhe, ein Zoomfaktor (einer Zoomlinse an der Kamera), eine Blendenöffnungsgröße (der Linse der Kamera) usw. Koeffizienten, die die Formel definieren, können in einer Wertetabelle gespeichert sein (zum Beispiel in einem nichtflüchtigen Speicher, oder sie kann von einem nichtflüchtigen Speicher in einen Direktzugriffsspeicher wie einen SRAM oder einen DRAM geladen werden) und nach verschiedenen Kombinationen der Parameterwerte indexiert sein (d. h., die Parameterwerte dienen als Schlüsselwerte für den Zugriff auf die Wertetabelle).
  • Alternativ hierzu können die Referenzgradienten über eine und/oder in einer Wertetabelle definiert sein. Die Wertetabelle kann mehr als eine Folge spezifizieren. Jede Folge ist in der Wertetabelle über einen Gradientenwert für jeden Referenzgradienten und eine Distanz zum nächsten Referenzgradientenwert in der Folge spezifiziert. Wenn der Abstand über die Folge hinweg konstant ist, kann er nur einmal für die gesamte Folge spezifiziert sein. Wenn der Abstand für alle Folgen in der gesamten Wertetabelle konstant ist, kann er nur einmal für die ganze Wertetabelle spezifiziert sein. Alternativ hierzu kann der Abstand einen Vorgabewert wie zum Beispiel 1,0 annehmen. Für die Folge kann anhand einer Spitzengradientenhöhe und einer relativen Position in Bezug auf einen Referenzgradienten aus der Folge (d. h.: Abstand und Lage vor oder nach dem Referenzgradienten) eine Referenzspitze spezifiziert sein.
  • Aus den direkt aus der Quelle (d. h. der Verweistabelle oder der mathematischen Formel) als Generator für vordefinierte Referenzgradienten erzeugten Gradienten können weitere Referenzgradienten interpoliert werden. Die Interpolation eines Referenzgradienten kann an Stellen nützlich sein, wo das Gradientenprofil eine steile Neigung aufweist. Zum Beispiel wird in 27 an der Position 3, wo sich der Gradient 3504 befindet, aus den Referenzgradienten 3402, 3404, 3406 der interpolierte Referenzgradient 3412 (Markierung „+”) interpoliert. In den 28 bis 35 sind interpolierte Referenzgradienten ebenso mit „+” markiert.
  • Umgekehrt könnten auch an den Stellen, an denen sich ein Referenzgradient befindet, Gradienten aus dem Gradientenprofil interpoliert werden. Die Interpolation eines interpolierten Gradienten an Stellen, an denen sich ein Referenzgradient befindet, kann nützlich sein. Zum Beispiel wird in der Nähe des Referenzgradienten 3402 aus den Gradienten 3502, 3504 und 3506 der interpolierte Gradient 3514 (Markierung „☐”) interpoliert. In den 28 bis 35 sind interpolierte Gradienten ebenso mit „☐” markiert.
  • In der Wertetabelle können mehrere Folgen jeweils für eine andere Kombination von Parameterwerten gespeichert sein. Jede Folge kann durch einen oder mehrere Parameter festgelegt werden (von einem oder mehreren Parametern abhängig sein), zum Beispiel einem oder mehreren der folgenden Parameter: eine Referenzbreite, ein Kantenneigungswinkel, eine Spitzengradientenhöhe, ein Zoomfaktor (einer Zoomlinse an der Kamera), eine Blendenöffnungsgröße (der Linse der Kamera) usw.
  • Die Wertetabelle kann in einem Speicher gespeichert sein, bei dem es sich um RAM (SRAM oder DRAM) oder nichtflüchtigen Speicher, zum Beispiel Flash-Speicher, oder einfach um eine Registerbank handeln kann. Die Wertetabelle kann in einem nichtflüchtigen Speicher außerhalb des Fokussignalgenerators, aber innerhalb des Bilderfassungssystems 102 gespeichert sein.
  • Aus einer in der Wertetabelle gespeicherten Folge kann eine kürzere Folge derart extrahiert werden, dass die extrahierte Folge aus einer geeigneten Teilmenge der Referenzgradienten der in der Wertetabelle gespeicherten Folge besteht. Zusammen damit können auch Distanzen zwischen den extrahierten Referenzgradienten sowie weitere Daten wie zum Beispiel die relativen Positionen der extrahierten Referenzgradienten bezüglich der Referenzspitze extrahiert werden. Zum Beispiel kann eine Folge aus 30 Referenzgradienten, die in der Wertetabelle gespeichert ist, einen gleichmäßigen Abstand von 0,2 zwischen aufeinanderfolgenden Referenzgradienten und eine Referenzspitze aufweisen, die mit dem 16. Referenzgradienten in der Folge zusammenfällt, aber extrahiert werden beispielsweise der 7., der 13. und der 22. Referenzgradient, die eine kürzere Folge bilden, die aus diesen drei Referenzgradienten besteht. In der extrahierten Folge aus diesem Beispiel beträgt ein Abstand von dem ersten Referenzgradienten zu dem zweiten Referenzgradienten 1,2, ein Abstand von dem zweiten Referenzgradienten zu dem dritten Referenzgradienten beträgt 1,8, und von der Referenzspitze wird vermerkt, dass sie in einem Abstand von 0,6 zum zweiten Referenzgradienten zwischen dem zweiten und dem dritten Referenzgradienten liegt.
  • Die Folge von Referenzgradienten kann mittels Kurvenanpassung an das Gradientenprofil oder einen Abschnitt davon angepasst werden. Zum Beispiel kann die Folge in dem Bereich von dem Spitzengradienten bis zu dessen halber Höhe an das Gradientenprofil angepasst werden, wie in 30 gezeigt ist. Als weiteres Beispiel kann die Folge etwa von dem Spitzengradienten bis herunter zu 30% von dessen Höhe nur an eine Seite des Gradientenprofils angepasst werden, wie in 31 gezeigt ist. Vorzugsweise weist mindestens ein Referenzgradient einen Gradientenwert auf, der höher als 70% der Gradientenhöhe des Spitzengradienten (oder alternativ des interpolierten Spitzengradienten) liegt. Besonders bevorzugt liegt er oberhalb von 85%. Außerdem weist vorzugsweise mindestens ein Referenzgradient einen Gradientenwert unterhalb von 70% und besonders bevorzugt unterhalb von 50% der Höhe des Spitzengradienten (oder alternativ des interpolierten Spitzengradienten) auf. Zur Verbesserung der Kurvenanpassung können alle Referenzgradientenwerte mit einem Skalierungsfaktor multipliziert werden. Zur Verbesserung der Kurvenanpassung können alle angepassten Gradientenwerte mit einem Skalierungsfaktor multipliziert werden.
  • Für eine bessere Kurvenanpassung kann die Position aller Referenzgradienten gemeinsam relativ zu dem Gradientenprofil verschoben werden. Zum Beispiel kann ein Gradientenprofil einen ersten, einen zweiten, einen dritten und einen vierten Gradienten aufweisen und einen einheitlichen Abstand von 1,0 zwischen den einzelnen Gradienten aufweisen, und eine Folge von Referenzgradienten aus einem ersten, einem zweiten, einem dritten und einem vierten Referenzgradienten mit einem einheitlichen Abstand von 1,0 zwischen den einzelnen Referenzgradienten kann derart relativ zu dem Gradientenprofil positioniert werden, dass sich der erste Referenzgradient in einem Abstand von 0,2 zu dem ersten Gradienten zwischen dem ersten und dem zweiten Gradienten befindet, der zweite Referenzgradient sich in einem Abstand von 0,2 zu dem zweiten Gradienten zwischen dem zweiten und dem dritten Gradienten befindet und so weiter, wie in 32 gezeigt ist, oder die Folge kann derart positioniert werden, dass der Abstand des ersten Referenzgradienten zu dem ersten Gradienten 0,5, der Abstand des zweiten Referenzgradienten zu dem zweiten Gradienten 0,5 beträgt und so weiter, wie in 33 gezeigt ist. Die letztere Positionierung führt zu einer besseren Kurvenanpassung, wobei ein Kurvenanpassungskriterium spezifiziert, dass die bessere Kurvenanpassung die Gesamtlänge der Liniensegmente (dicke, durchgezogene Linien) zwischen Paaren aus jeweils benachbarten Gradienten und Referenzgradienten reduziert. Es gibt alternative Kriterien zur Ermittlung einer besseren Kurvenanpassung. Zum Beispiel besteht eine Alternative darin, Referenzgradienten so zu interpolieren, dass sie Paare mit den Gradienten bilden (oder umgekehrt) und die Quadratsumme der Differenzen zwischen den Gradienten (Referenzgradienten) und den mit ihnen jeweils gepaarten Referenzgradienten (Gradienten) zu bilden. In den einzelnen Paaren müssen der jeweilige Gradient und der jeweilige Referenzgradient nicht notwendigerweise exakt auf derselben Position zusammenfallen, vorzugsweise beträgt der Abstand zwischen ihnen jedoch 0,25 oder weniger und besonders bevorzugt 0,1 oder weniger. Es gibt noch weitere Alternativen.
  • Wenn zusammen mit der Folge von Referenzgradienten ein Ort einer Referenzspitze bereitgestellt wird, kann die Folge an dem Gradientenprofil ausgerichtet werden, indem die Referenzspitze an einer Position ausgerichtet wird, die auf eine vorbestimmte Weise aus dem Gradientenprofil ermittelt wird. Es gibt mehr als einen Weg, diese Position zu ermitteln. Eine Möglichkeit besteht darin, dass diese Position ein Mittelpunkt zwischen zwei Gradienten/interpolierten Gradienten ist, je einem auf jeder der beiden Seiten des Gradientenprofils bei einer vorbestimmten Gradientenhöhe, die als vorbestimmter Prozentsatz der Gradientenhöhe des Spitzengradienten oder einer interpolierten Spitze spezifiziert werden kann, wie in 34 gezeigt ist. In 34 ist die Position der Referenzspitze 3401 so gewählt, dass sie mit einem Mittelpunkt zwischen dem Gradienten 3802 und dem interpolierten Gradienten 3824 zusammenfällt. Eine weitere Möglichkeit besteht darin, die Referenzspitze an einer interpolierten Spitzenposition anzupassen, wie 35 zeigt. Allgemeiner oder alternativ dazu kann die Folge auf solche Weise an dem Gradientenprofil ausgerichtet werden, dass sich die Referenzspitze zwischen einem Paar von Gradienten wie etwa den Gradienten 3804, 3806 in 34 befindet, die den Mittelpunkt (oder alternativ dazu die interpolierte Spitze) flankieren.
  • Das Gradientenprofil wird auf eine vorbestimmte Art und Weise mit der Folge verglichen, um ein Vergleichsergebnis zu erzeugen; dies kann dieselbe, eine ähnliche oder eine andere Art und Weise sein als die Art und Weise der Bestimmung des Kriteriums für die Kurvenanpassung. In den Vergleich können interpolierte Gradienten/Referenzgradienten miteinbezogen werden, insbesondere dort, wo dies die Präzision bzw. Genauigkeit des Vergleichs verbessern kann. Ein Ansatz für den Vergleich besteht darin, die Beziehung zwischen einer Breite des Gradientenprofils und einer Referenzbreite der Folge auszuwerten. Beide Breiten können auf einer Gradientenhöhe gemessen werden, die als vorbestimmter Prozentsatz der Höhe des Spitzengradienten oder einer interpolierten Spitze vorbestimmt sein kann. Zum Beispiel beziehen sich in 27 die Referenzbreite WRef und eine Gradientenprofilbreite W1 (gemessen zwischen dem interpolierten Gradienten 3512 und dem Gradienten 3508) beide auf dieselbe Gradientenhöhe (horizontale gepunktete Linie). Alternativ hierzu können sie auf unterschiedlichen Gradientenhöhen gemessen werden. Zum Beispiel kann erwartet werden, dass die Referenzbreite idealerweise 70% der Breite des Gradientenprofils beträgt, wobei die Referenzbreite eine Breite der Referenzgradientenkurve bei 70% der Höhe der Referenzspitze der Referenzgradientenkurve ist, wohingegen die Breite des Gradientenprofils bei 50% der Höhe des Spitzengradienten oder einer interpolierten Spitze des Gradientenprofils gemessen wird. Die Referenzbreite kann gemeinsam mit der Folge durch den Folgengenerator bereitgestellt werden. Alternativ dazu kann sie an der bereitgestellten Sequenz gemessen werden. Bei diesem Ansatz kann der Vergleich ein „Ja”/„Nein”-Ergebnis liefern, je nachdem, wie ähnlich oder unähnlich – nach einem vorbestimmten Kriterium – sich diese beiden Breiten sind; z. B. wird eine Differenz zwischen den Breiten mit einem vorbestimmten Prozentsatz einer der Breiten verglichen. Alternativ hierzu kann der Vergleich einen Parameter liefern, der einen Grad angibt, welcher von einer Stufe, die hohe Ähnlichkeit repräsentiert, bis zu einer Stufe, die hohe Unähnlichkeit repräsentiert, reicht, wobei ein oder mehrere andere Stufen dazwischenliegende Stufen von Unähnlichkeit/Ähnlichkeit repräsentieren.
  • Ein weiterer Ansatz zum Vergleich von Gradientenprofil und Referenzfolge besteht darin, einzelne Gradienten und Referenzgradienten paarweise zu vergleichen. Wie in 27 gezeigt ist, werden Gradienten/interpolierte Gradienten 3514, 3504, 3506 bzw. 3508 mit Referenzgradienten/interpolierten Referenzgradienten 3402, 3412, 3406 bzw. 3408 gepaart. Zwischen Ersteren und Letzteren werden arithmetische Differenzen gebildet, und ein Endergebnis des Vergleichs auf Basis eines oder mehrerer solcher Vergleiche (z. B. arithmetischer Differenzen) wird binär als „Ja” oder „Nein” oder auf eine differenzierte, abgestufte Weise gemeldet, die verschiedene Grade an Ähnlichkeit oder Unähnlichkeit angibt. Zum Beispiel wird in den 28 und 29 neben jedem Gradient-Referenzgradient-Paar (aus fünf Paaren; Gradient und Referenzgradient können jeweils interpoliert sein) eine „I”-Markierung platziert, die angibt, wie weit die Gradientenhöhen auseinanderliegen. In den einzelnen Paaren müssen der jeweilige Gradient und der jeweilige Referenzgradient nicht notwendigerweise exakt auf derselben Position zusammenfallen, vorzugsweise beträgt der Abstand zwischen ihnen jedoch 0,25 oder weniger und besonders bevorzugt 0,1 oder weniger. Der Vergleich kann ein binäres oder ein abgestuftes Ergebnis auf Basis der größten aus den fünf Gradientenhöhendifferenzen melden. Alternativ hierzu kann der Vergleich dies auf Basis einer Quadratwurzel einer Summe über die Quadrate der fünf Differenzen tun. Es gibt weitere mögliche Wege, die Abweichung der fünf Gradienten von den Referenzgradienten quantitativ darzustellen, die dem Durchschnittsfachmann bekannt sind. Um ein binäres Ergebnis zu melden, kann ein abgestuftes Ergebnis wie das zuvor beschriebene, das sich aus einer oder mehreren solcher Differenzen ergibt, mit einer vorbestimmten Schwelle verglichen werden.
  • Eine oder mehrere Folgen können für die Kurvenanpassung an das Gradientenprofil ausgewählt werden. Wenn mehr als eine Folge gewählt wird, wird eine Folge ausgewählt, die am besten zu dem Gradientenprofil passt, und das Vergleichsergebnis dieser Folge wird gemeldet. Folgen können auf der Grundlage eines oder mehrerer zu dem Gradientenprofil gehöriger Parameter ausgewählt werden, wie etwa: eine Breite des Gradientenprofils, die bei einem vorbestimmten Prozentsatz der Höhe des Spitzengradienten oder einer interpolierten Spitze gemessen wird, oder eine einseitige Breite des Gradientenprofils, die von einer interpolierten Spitzenposition bis zu einem Gradienten/interpolierten Gradienten bei einem Prozentsatz der Höhe des Spitzengradienten oder der interpolierten Spitze gemessen wird, oder ein Neigungswinkel einer Kante, die zu dem Gradientenprofil gehört oder ausschlaggebend für das Gradientenprofil ist, oder eine Fläche unter dem Gradientenprofil (bis herunter zu einem bestimmten Prozentsatz der Höhe der Spitze/interpolierten Spitze), oder ein Abstand zwischen der interpolierten Spitzenposition und dem Spitzengradienten, oder ein Zoomfaktor einer Zoomlinse, oder eine Größe der Linsenblendenöffnung usw.
  • Wenn das Vergleichsergebnis angibt, dass eine Unähnlichkeit vorliegt, die eine Schwelle überschreitet, kann der Fokussignalgenerator eine zu dem Gradientenprofil zugehörige Kante und ihre Kantenbreite niedriger gewichten oder vollständig aus der Berechnung für ein Fokussignal oder eine Kantenzahl oder der Fokussteuerung ausschließen.
  • Wie in einer Ausführungsform in 36 gezeigt ist, empfängt ein Parameterextrahierer die Gradienten des Bildes und gibt einen oder mehreren unter den Gradienten aus einem Gradientenprofil extrahierten Parameter an einen Folgenwähler aus, der den einen oder die mehreren Parameter in eine oder mehrere Adressen umwandelt. Diese Adressen werden von dem Folgengenerator empfangen, der als Reaktion darauf eine oder mehrere Folgen von Referenzgradienten oder eine oder mehrere Sätze von Parametern, die die entsprechenden Referenzgradientenkurven definieren, an eine Auswertungseinheit ausgibt. Die Auswertungseinheit führt die Kurvenanpassung und den Vergleich durch und erzeugt das Vergleichsergebnis. Extrahierte Parameter wie etwa Kantenneigungswinkel und Kantenbreite werden an die Auswertungseinheit eingegeben. Die Auswertungseinheit weist eine arithmetische Schaltung auf, die dazu dient, die Kurvenanpassung und/oder den Vergleich durchzuführen. Die Auswertungseinheit kann ferner einen Speicher aufweisen, der an die arithmetische Schaltung gekoppelt ist. Diese Blöcke sind Teil der Kantenerkennungs- und Breitenmesseinheit 206. Die Folgen-/Kurvenerzeugung, die Kurvenanpassung und/oder der Vergleich können jeweils unter Kontrolle von Computeranweisungen ausgeführt werden, die in einem nichtflüchtigen Speicher in dem Bilderfassungssystem 102 gespeichert sind. Das vorstehende Verfahren kann in der Kantenerkennungs- und Breitenmesseinheit 206 ausgeführt werden.
  • Es sei angemerkt, dass in dieser Offenbarung eine Größe, die eine Kante beschreibt, wie etwa eine Gradientenhöhe, als „normiert” bezeichnet wird, wenn sie – sofern nichts Anderweitiges angegeben ist – entweder durch einen Spitzengradientenwert der Kante oder einen Gradientenwert einer interpolierten Spitze dividiert wird. So weist zum Beispiel in 23B der Spitzengradient 3212 einen normierten Wert von exakt 1 auf, wohingegen in 24C die interpolierte Spitze 3270 sich von dem Spitzengradienten 3212 unterscheidet, und die in 24C gezeigten Gradienten sind bezüglich der interpolierten Spitze 3270 und nicht des Spitzengradienten 3212 normiert.
  • Längenfilter
  • Im Folgenden wird eine Funktion des Längenfilters 212 beschrieben. Allgemein gesagt bewirkt der Längenfilter 212 eine Priorisierung von Kanten, die mit einer oder mehreren Kanten ähnlicher Orientierung verbunden sind. Eine Gruppe von Kanten, die ähnlich orientiert und innerhalb der Gruppe miteinander verbunden sind („Kantenkette”), ist mit geringerer Wahrscheinlichkeit auf Rauschen zurückzuführen als eine einzelne Kante, die keine andere Kante ähnlicher Orientierung berührt. Je mehr Kanten einer ähnlichen Orientierung auf diese Weise miteinander verbunden sind, desto geringer ist die Wahrscheinlichkeit, dass sie auf Rauschen zurückzuführen sind. Die Wahrscheinlichkeit, dass die Gruppe auf Rauschen zurückzuführen ist, fällt mit steigender Kantenanzahl der Gruppe exponentiell ab, also wesentlich schneller als nur linear. Diese Eigenschaft kann ausgenutzt werden, um Rauschen innerhalb des Bilds oder des relevanten Bildbereichs zu unterdrücken, insbesondere bei schlechter Beleuchtung oder kurzer Belichtungszeit, wo das Signal-Rausch-Verhältnis niedrig ist, z. B. kleiner als 10. Diese Priorisierung kann mit Hilfe jeder Methode umgesetzt werden, die zur Formulierung einer solchen Priorisierung geeignet ist. Die im Folgenden beschriebenen verschiedenen Verfahren stellen lediglich Beispiele dar.
  • Eine erste Methode ist die Beseitigung von Kanten, die zu vertikalen/horizontalen Kantenketten gehören, deren Längen einen Schwellenwert für Kantenketten unterschreiten. Der Schwellenwert für Kantenketten kann größer sein, wenn der relevante Bereich dunkler ist. Beispielsweise kann der Schwellenwert für Kantenketten normalerweise nur 2 betragen, aber auf 8 erhöht werden, wenn das Signal-Rausch-Verhältnis im relevanten Bereich auf 5 fällt. Der Schwellenwert für Kantenketten kann vom Prozessor 112, 112', 112'' bereitgestellt werden, beispielsweise als Komponente der Signale 132 durch ein ,Längenbefehl'-Signal, wie in 3 gezeigt. Alternativ kann der Schwellenwert anhand einer Formel durch den Fokussignalgenerator berechnet werden.
  • Eine zweite Methode ist die Bereitstellung einer Längengewichtung für jede Kante im Längenfilter 212 und die Verwendung dieser Gewichtung zur Berechnung eines Fokussignals in der Fokussignal-Berechnungseinheit 210. Eine Kante, die Teil einer längeren Kantenkette ist, wird stärker gewichtet als eine Kante, die Teil einer kürzeren Kette ist. Beispielsweise könnte sich die Längengewichtung aus dem Quadrat der Länge der Kantenkette ergeben. Auf diese Weise kann ein Beitrag jeder Kante zum Fokussignal mit einem Faktor A/B multipliziert werden, bevor alle Beiträge summiert werden, um das Fokussignal zu bilden. Dabei ist B die Summe der Längengewichtungen aller Kanten, die in die Berechnung des Fokussignals eingehen, und A eine Längengewichtung der Kante. In analoger Weise können diejenigen Kanten, die längeren Kantenketten angehören, bevorzugt mit einer höheren Gewichtung in die der jeweiligen Kantenbreite entsprechende Klasse des Kantenbreiten-Histogramms eingehen, das im Rahmen der Signale 134 ausgegeben werden kann, anstatt dass alle Kanten den jeweils gleichen Betrag, z. B. 1, beitragen. So kann beispielsweise jede Kante A/C beitragen, wobei C der mittlere Wert von A aller Kanten ist. In ähnlicher Weise können Kanten, die längeren Kantenketten angehören, mit höherer Gewichtung in die Zählung der schmalen Kanten eingehen. So können die einzelnen Kanten beispielsweise mit dem Faktor A/D gewichtet werden, wobei D der mittlere Wert von A aller Kanten ist, die in die Zählung der schmalen Kanten eingehen.
  • Eine Gruppe von N vertikalen (horizontalen) Kanten, von denen jede mit Ausnahme derjenigen ganz oben (ganz links) und ganz unten (ganz rechts) zwei andere vertikale (horizontale) Kanten berührt – nämlich eine darüber (links davon) und eine darunter (rechts davon) –, ist eine vertikale (horizontale) Kantenkette der Länge N. Die Kante ganz oben (ganz links) muss lediglich eine Kante berühren, die sich darunter (rechts davon) befindet. Die Kante ganz unten (ganz rechts) muss lediglich eine Kante berühren, die sich darüber (links davon) befindet.
  • 8 zeigt eine vertikale Kantenkette sowie ihre Länge. In 8 bilden die Zellen R2C3 und R2C4 eine erste vertikale Kante, die Zellen R3C3, R3C4 und R3C5 gemeinsam eine zweite vertikale Kante und die Zellen R4C4 und R4C5 gemeinsam eine dritte vertikale Kante. Die erste und die dritte vertikale Kante berühren jeweils nur eine weitere vertikale Kante, die zweite Kante dagegen zwei weitere. Die erste, zweite und dritte vertikale Kante bilden gemeinsam eine vertikale Kantenkette der Länge 3.
  • Für den Fall (nicht gezeigt), dass eine vertikale (horizontale) Kantenkette zwei oder mehrere Verzweigungen aufweist, d. h. über zwei Kanten in einer Zeile (Spalte) verfügt, kann die Länge als die Gesamtzahl der Kanten innerhalb der Kantenkette definiert werden. Alternativ kann die Länge als der vertikale (horizontale) Abstand der Kante ganz oben (ganz links) zur Kante ganz unten (ganz rechts) der Kantenkette plus 1 definiert werden.
  • Neben den oben beschriebenen Vorschlägen gibt es auch noch weitere Möglichkeiten zur Definition der Kantenkettenlänge. Beispielsweise kann eine Definition der Länge einer Kantenkette die Eigenschaft aufweisen, dass die Länge bis zu einer Anzahl von mindestens 3 proportional zur Anzahl der in der Kantenkette enthaltenen Kanten ist. Dies hat der oben beschriebenen Überlegung zu entsprechen, dass die Wahrscheinlichkeit, dass eine Kantenkette auf Rauschen zurückzuführen ist, mit steigender Anzahl miteinander durch Berührung verbundener Kanten exponentiell abfällt. Folglich sollte die Länge bis zu einer geeigneten Anzahl, welche diese Wahrscheinlichkeit gegenüber der Wahrscheinlichkeit bei einer einzelnen Kante ausreichend reduziert, eine Proportionalität zur Anzahl der in der Kantenkette enthaltenen Kanten aufweisen. Der Längenfilter 212 kann Kanten mit einer Kantenkettenlänge von eins niedriger gewichten oder eliminieren, d. h., allgemein gesagt, zurückstufen. Der Längenfilter 212 kann Kanten mit einer Kantenkettenlänge von zwei zurückstufen. Der Längenfilter 212 kann Kanten mit einer Kantenkettenlänge von drei zurückstufen, um den Einfluss von Rauschen weiter zu reduzieren. Der Längenfilter 212 kann eine beliebige dieser Maßnahmen nach einem Befehl des Prozessors ausführen.
  • Der Längenfilter folgt in 3 zwar unmittelbar auf die Kantenerkennungs- & Breitenmesseinheit 206, es sind jedoch auch andere Anordnungen möglich. Beispielsweise kann der Längenfilter 212 vor dem Fokussignalgenerator 210 eingefügt werden, wobei die vom Längenfilter 212 verarbeiteten Kanten diejenigen sind, die in Abhängigkeit von dem Signal ,fein' den Breitenfilter 209 durchlaufen.
  • In einer alternativen Ausführungsform eines Fokussignalgenerators kann kein Feinsignalschalter 220 vorgesehen sein, so dass die Fokussignal-Berechnungseinheit 210 einen ersten Datensatz, der nicht vom Breitenfilter 209 gefiltert wird, sowie einen zweiten gefilterten Satz empfängt, für jeden ein anderes Fokussignal berechnet, nämlich ein Grobfokussignal für Ersteren und ein Feinfokussignal für Letzteren, und beide an den Prozessor 112, 112' ausgibt.
  • Breitenfilter
  • 3 veranschaulicht die Arbeitsweise des Breitenfilters 209. 11 ist ein Histogramm von Kantenbreiten, d. h. ein Diagramm, dass die Häufigkeit von Kanten mit bestimmten Breiten zeigt. Bei einer Kantenbreite von 2, d. h. bei dem erwähnten Wert von Breite_scharfer_Kanten, liegt eine Spitze vor, die auf das Vorliegen scharfer Kanten im Bild hinweist. Bei den Kantenbreiten 4 und 5 liegen jedoch Spitzen vor, die auf unscharfe Kanten hinweisen. Der Grund dafür kann sein, dass die entsprechenden abgebildeten Objekte nicht fokussiert sind, weil sie sich in einem anderen Abstand zur Fokuslinse befinden als diejenigen Objekte, auf die die scharfen Kanten zurückzuführen sind. Bei der Berechnung eines Fokussignals können diejenigen Kanten, deren Breiten außerhalb eines vorgegebenen Bereichs liegen („Bereich schmaler Kanten”), mittels des Breitenfilters 209 nur in geringerem Maße berücksichtigt werden. Der Breitenfilter 209 kann für die Berechnung des Fokussignals eine geringere Gewichtung für Kantenbreiten festlegen, die nicht in den Bereich schmaler Kanten fallen. Beispielsweise können Kantenbreiten im Bereich schmaler Kanten eine Gewichtung von 1,0 erhalten, wohingegen denjenigen Kantenbreiten, die die obere Schranke 840 um mehr als 1 überschreiten, die Gewichtung 0 zugeordnet wird und Kantenbreiten im Bereich dazwischen eine Gewichtung, die mit steigender Breite monoton von 1,0 auf 0 abfällt. Alternativ kann der Breitenfilter 209 solche Kanten vollständig von der Berechnung des Fokussignals ausschließen. Welche Werte als obere und untere Schranken 830, 840 geeignet sind, hängt von verschiedenen Faktoren ab, z. B. optischem Übersprechen in der Pixelanordnung 108, der Interpolationsmethode, die zur Berechnung der fehlenden Farben des an den Fokussignalgenerator 120 übermittelten Bildsignals verwendet wird, sowie den Filterkoeffizienten, die für den von der Kantenerkennungs- und Breitenmesseinheit 206 eingesetzten Tiefpassfilter verwendet werden. Für die Bildaufnahmevorrichtung 102, 102' können geeignete obere und untere Schranken 830, 840 sowie der Parameter Breite_scharfer_Kanten festgelegt werden, indem Bilder verschiedener Schärfegrade aufgenommen und die Kantenbreiten-Histogramme untersucht werden. Wenn beispielsweise ein scharfes Bild eine Spitze bei der Kantenbreite 2 aufweist, könnten eine geeignete untere und obere Schranke bei 1,5 bzw. 3 liegen und der Parameter Breite_scharfer_Kanten auf 2,0 festgelegt werden. Die untere und obere Schranke sowie der Parameter Breite_scharfer_Kanten können wie oben beschrieben bestimmt und vom Prozessor 112, 112'' an den Fokussignalgenerator 120, 120', 120'' übermittelt werden. Wenn das Steuersignal ,fein' aktiviert ist, werden für das entsprechend berechnete Feinfokussignal Kantenbreiten außerhalb des Bereichs schmaler Kanten in geringerem Maße berücksichtigt.
  • Darüber hinaus kann der Breitenfilter 209 die Gesamtzahl der Kanten berechnen, deren Kantenbreite innerhalb des Bereichs schmaler Kanten liegt, und als Komponente der Ausgabesignale 134 ausgeben. Die Anzahl der schmalen Kanten kann an die Fokussystemsteuerung (Prozessor 112) übermittelt und von dieser verwendet werden, um das Vorliegen eines scharfen Bilds zu erkennen und/oder die Verfolgung zu aktivieren.
  • Fokussignal
  • Die Fokussignal-Berechnungseinheit 210, die in 3 dargestellt ist, empfängt Kantenbreitenwerte und gibt ein Fokussignal aus. Das Fokussignal kann als gewichtetes Mittel aller Kantenbreiten berechnet werden, wobei als Gewichtung jeweils die Anzahl der Kanten mit der entsprechenden Breite gewählt wird, d. h. Fokussignal = Σwiei/Σwi, wobei ei die Kantenbreiten sind und wi die Gewichtungen. Dabei gilt hier wi = ci, wobei ci die Anzahl der Kanten mit der Kantenbreite ei ist und i die Nummer einer Klasse eines Kantenbreiten-Histogramms. Alternativ kann die Gewichtung einer Kantenbreite das Produkt der Anzahl der Kanten der entsprechenden Breite und der Kantenbreite selbst sein, d. h. wi = ciei. Darüber hinaus können Prioritäten des Breitenfilters 209, die durch Gewichtungen ausgedrückt werden, mit den einzelnen Kantenbreiten multipliziert werden. Beispielsweise kann das Fokussignal anhand der vom Breitenfilter 209 erzeugten Gewichtungen Ωi mit ΣΩi = 1 über die Formel ΣΩiwiei/ΣΩiwi berechnet werden. Wenn das Steuersignal ,fein' aktiviert und ,ausschließen' deaktiviert ist, erhält das Fokussignal im Beispiel von 11 einen Wert, der sehr nahe an der Breite scharfer Kanten, d. h. 2,0, liegt. Dies weist darauf hin, dass die meisten der Objektdetails in demjenigen Fokusabstandsbereich, der Kantenbreiten zwischen 2,0 und 3,0 entspricht, tatsächlich scharf fokussiert sind. Wenn sowohl das Steuersignal ,fein' als auch ,ausschließen' deaktiviert ist, könnte das Fokussignal einen Wert nahe 5,0 annehmen, was darauf hinweist, dass wesentliche Details des Bilds nicht fokussiert sind. Durch Aktivierung des Feinsignalschalters 220 wird das Fokussignal empfindlicher für Objekte, die etwas unscharf sind, aber weniger empfindlich für Objekte, die vollständig unscharf sind. Wenn der Feinsignalschalter 220 aktiviert ist, wird das Fokussignal hierin als „Feinfokussignal” bezeichnet. Ist der Feinsignalschalter 220 dagegen deaktiviert, heißt es „Grobfokussignal”. Wie zuvor erwähnt, kann die durch den Längenfilter 212 ausgedrückte Priorisierung auf verschiedene Weise im Fokussignal berücksichtigt werden, z. B. dadurch, dass Kanten, die keine Priorität erhalten, nicht in die Berechnung des Fokussignals einbezogen werden oder mit geringerer Gewichtung zur Häufigkeit ei der entsprechenden Kantenbreitenklasse beitragen.
  • 15 skizziert eine Reaktion des Feinfokussignals auf eine Anpassung der Fokusposition in der Nähe der Position, wo ein Objekt fokussiert ist. Das Feinfokussignal erreicht ein Minimum, wo die Fokusposition zu einem scharf fokussierten Bild führt – ungefähr bei Breite_scharfer_Kanten –, und nimmt ansonsten höhere Werte an. Das Feinfokussignal kann zum Verfolgen von Objekten verwendet werden, die bereits fokussiert oder beinahe fokussiert sind. Bei sich bewegenden Objekten kann das Fokussteuerungssystem mit Hilfe des Feinfokussignals die Fokussierung der Objekte auch dann aufrechterhalten, wenn sich die Entfernung von der Fokuslinse fortlaufend ändert. Das Feinfokussignal kann auch eingesetzt werden, um eine scharfe Fokussierung eines Objekts herzustellen („Scharffokussierung”), das zwar noch nicht scharf fokussiert ist, aber nahezu, so dass die zugehörigen Kanten eine Breite aufweisen, die in den Bereich schmaler Kanten fällt. Da das Kantenbreiten-Histogramm eine Spitze der auf das Objekt zurückzuführenden Kantenbreiten bei einem von Breite_scharfer_Kanten abweichenden Wert aufweist, kann das Fokussteuerungssystem reagieren, indem es die Fokusposition so anpasst, dass sich der Wert des Feinfokussignals dem Parameter Breite_scharfer_Kanten annähert und die Spitze der Kantenbreiten, die auf das Objekt zurückzuführen sind, bei einem Kantenbreitenwert von Breite_scharfer_Kanten zentriert wird.
  • Allgemeine Verwendung
  • Die 1216 stellen dar, wie die Anzahl der schmalen Kanten, das Grobfokussignal und das Feinfokussignal zur Fokussteuerung verwendet werden können, um scharfe Bilder erzielen.
  • 12 zeigt eine Szene im Freien, die 3 Gruppen von Objekten mit jeweils unterschiedlicher Entfernung von der Fokuslinse enthält: „Person” im Vordergrund, „Berg, Sonne und Horizont” im Hintergrund und „Fahrzeug” dazwischen.
  • In 13 ist die Anzahl der schmalen Kanten über der Zeit aufgetragen, während der die Fokusposition der Fokuslinse 104 in der in 12 gezeigten Szene aus großer Entfernung herangeholt wird. Die Anzahl der schmalen Kanten weist immer dann eine Spitze auf, wenn eine Fokusposition erreicht wird, bei der ein scharfes Bild eines Objekts auf die Pixelanordnung 108 projiziert wird. Das Diagramm der Anzahl der schmalen Kanten weist über den gesamten Fokuspositionsbereich 3 Spitzen auf, nämlich – in dieser Reihenfolge – eines für „Berg, Sonne und Horizont”, eines für „Fahrzeug” und eines für „Person”.
  • 14 stellt das Grobfokussignal in Abhängigkeit von der Zeit dar. Das Grobfokussignal weist immer dann ein Minimum auf, wenn sich die Fokusposition in der Nähe der 3 Positionen befindet, wo die Anzahl der schmalen Kanten eine Spitze erreicht. Bei keinem der Minima entspricht das Grobfokussignal jedoch der Breite scharfer Kanten, in diesem Beispiel 2,0, da von den anderen, nicht fokussierten Objekten größere Kantenbreiten beigetragen werden.
  • 15 zeigt das Feinfokussignal in Abhängigkeit von der Fokusposition in der Nähe derjenigen Position, an der das „Fahrzeug” der Szene von 12 scharf fokussiert ist. Das Feinfokussignal erreicht trotz Gegenwart unscharfer Objekte („Person” und „Berge, Sonne und Horizont”) im Wesentlichen den Wert der Breite scharfer Kanten, also in diesem Beispiel 2. Wieder bezogen auf 11, wo zwei Spitzen bei einer Breite von 4 und 5 von diesen beiden Gruppen unscharfer Objekte beigetragen werden, kann dies dadurch erklärt werden, dass der Breitenfilter 324 die Gewichtung der Beiträge der Kantenbreiten oberhalb der oberen Schranke 840 reduziert oder diese vollständig eliminiert hat.
  • Ein Fokussteuerungssystem kann das Grobfokussignal in einem Suchmodus dazu einsetzen, nach der nächsten scharf fokussierten Position zu suchen. Es kann die Fokusposition gegenüber der aktuellen Fokusposition verschieben, um zu überprüfen, ob das Grobfokussignal dabei höhere oder niedrigere Werte annimmt. Wenn das Grobfokussignal beispielsweise beim Verschieben der Fokusposition in die Nähe (Ferne) ansteigt (abfällt), gibt es eine scharf fokussierte Position, die weiter entfernt ist als die aktuelle Fokusposition. Der Prozessor 112, 112', 112'' kann dann ein Fokusantriebssignal bereitstellen, um die Fokuslinse 104 in Richtung der nächsten fokussierten Position zu verschieben.
  • Ein Fokussteuerungssystem kann das Feinfokussignal zur Verfolgung eines Objekts verwenden, das bereits scharf fokussiert ist, um die Schärfe des entsprechenden Bilds aufrechtzuerhalten („Verfolgungsmodus”), auch wenn sich die Szene ändert oder sich das Objekt oder die Bildaufnahmevorrichtung bewegt. Wenn ein Objekt scharf fokussiert ist, bleibt der Feinfokussignalpegel trotz solcher Änderungen konstant. Eine Änderung des Feinfokussignals weist daher auf eine Änderung der Entfernung des Objekts von der Fokuslinse der Bildaufnahmevorrichtung hin. Indem das Fokussteuerungssystem bei einem bestimmten Feinfokussignalpegel in der Nähe des Minimums „festgestellt” wird, beispielsweise zwischen 2,0 und 2,5, insbesondere bei 2,1, wird der Prozessor 112, 112', 112'' durch Änderungen des Feinfokussignalpegels sofort über Änderungen der Entfernung des Objekts von der Fokuslinse informiert. Der Prozessor 112, 112', 112'' kann dann eine Richtung ermitteln und eine Verschiebung der Fokuslinse 104 veranlassen, um den Pegel des Feinfokussignals wieder an den „festgestellten” Pegel anzugleichen. Die Bildaufnahmevorrichtung 102, 103, 103', 103'' ist somit in der Lage, ein sich bewegendes Objekt zu verfolgen.
  • Ein Fokussteuerungssystem, das z. B. in Form eines Algorithmus des Prozessors 112, 112', 112'' implementiert wird, kann auf Grundlage der Anzahl schmaler Kanten einen Wechsel von einem Suchmodus in einen Verfolgungsmodus einleiten. Im Verfolgungsmodus verwendet das Fokussteuerungssystem das Feinfokussignal, um die Fokussierung des Objekts aufrechtzuhalten. Solange die Fokusposition nicht ausreichend nahe an der Position ist, bei der das Objekt scharf fokussiert ist, kann das Fokussteuerungssystem das Grobfokussignal verwenden, um die Verschiebungsrichtung zu bestimmen und die Geschwindigkeit der Linsenverschiebung zu regeln. Wenn ein Objekt scharf fokussiert wird, steigt die Anzahl der schmalen Kanten stark an. Der Prozessor 112, 112', 112'' kann bei Erkennung eines starken Anstiegs der Anzahl schmaler Kanten und/oder einer Spitzenbildung in den Verfolgungsmodus wechseln und das Feinfokussignal zur Regelung der Fokusposition verwenden. Jeder Objektgruppe, die bei einer „Abtastung” des gesamten Fokuspositionsbereichs gefunden wird, kann ein Schwellenwert zugewiesen werden, der für jede der verschiedenen Positionen, bei denen eine Gruppe scharf fokussiert ist, unterschiedlich sein kann. Wenn daraufhin die Anzahl der schmalen Kanten diesen Schwellenwert übersteigt, wird die entsprechende Objektgruppe erkannt. Bei einer unbewegten Szene, z. B. der Aufnahme eines Standbilds, kann als Ergebnis der Abtastung des gesamten Fokuspositionsbereichs eine Liste von Maximalzählwerten zurückgegeben werden, d. h. ein Maximalzählwert für jede Spitze der Anzahl schmaler Kanten. Aus der Liste der Maximalzählwerte kann eine Liste von Schwellenwerten abgeleitet werden, beispielsweise, indem 50% des Werts der Maximalzählwerte zugrundegelegt werden.
  • 16 stellt eine Bildaufnahmevorrichtung 102 dar, die ein Display 114, eine Eingabevorrichtung 107 mit Tasten und eine Auswahlmarkierung 1920 umfasst, die auf dem Display 114 angezeigt wird. Ein Benutzer kann die Auswahlmarkierung 1920 mit Hilfe der Eingabevorrichtung 107 aufrufen, bewegen und ihre Form anpassen. Obwohl die Eingabevorrichtung 107 in diesem Beispiel Tasten aufweist, kann sie auch einen berührungsempfindlichen Bildschirm umfassen, der vor dem Display 114 angebracht ist, damit die Positionen von Berührungen und Bewegungen auf dem Display 114 erkannt werden können. Der Auswahlbereich kann durch die Eingabevorrichtung 107 und den Prozessor 112, 112', 112'' oder eine separate, zu diesem Zweck bestimmte Steuerung (nicht gezeigt) für die Eingabevorrichtung 107 festgelegt werden. Die Parameter zur Beschreibung des Auswahlbereichs können über den Bus 132 an den Fokussignalgenerator 120, 120', 120'' übermittelt werden (oder intern im Prozessor 112, falls der Fokussignalgenerator 120 Teil des Prozessors 112 ist). Als Reaktion darauf kann der Fokussignalgenerator 120 die Berechnung des Fokussignals und/oder die Zählung der schmalen Kanten auf den durch die erwähnten Parameter beschriebenen Auswahlbereich einschränken oder Kanten außerhalb des Auswahlbereichs niedriger gewichten. Auf diese Weise kann der Einfluss unerwünschter Objekte auf das Fokussignal reduziert werden, so dass auch das Grobfokussignal nur ein Minimum mit einem Wert aufweist, der um 1,0 oder weniger von der Breite scharfer Kanten abweicht.
  • Alternative Ausführungsformen
  • 17 zeigt eine alternative Ausführungsform eines Fokussignalgenerators 120'. Der Fokussignalgenerator 120' gibt Statistiken zu Kanten und Kantenbreiten aus. Die vom Fokussignalgenerator 120' ausgegebenen Kantenbreiten-Statistiken können eine oder mehrere der Folgenden umfassen: ein Kantenbreiten-Histogramm, das die Anzahl der Kanten mit verschiedenen Kantenbreiten enthält; eine Kantenbreite, bei der die Anzahl der entsprechenden Kanten maximal ist; einen Satz von Koeffizienten, die eine Splinefunktion definieren, die die Anzahl der Kanten für verschiedene Kantenbreiten approximiert; und andere Daten, die eine Funktion der Kantenbreite darstellen können. Die Zähleinheit 240 kann mit einer oder mehreren der anderen Einheiten des Fokussignalgenerators 120' berechnete Daten empfangen, um Statistiken der Kantenbreiten zu erstellen. Im Allgemeinen kann der Fokussignalgenerator 120' ein Signal ausgeben, das einen Hinweis auf eine Verteilung von Kantenbreiten gibt.
  • Bezogen auf 18 können die so über die Signale 134 einer alternativen Ausführungsform des Prozessors 112' in einer alternativen Autofokus-Bildaufnahmevorrichtung 102' bereitgestellten Kantenbreiten-Statistiken vom Prozessor 112' verwendet werden, um ein Grob- und/oder Feinfokussignal sowie die Anzahl schmaler Kanten gemäß den oben beschriebenen oder äquivalenten Methoden zu berechnen. Darüber hinaus können im Fokussignalgenerator 120' berechnete Daten als Komponente der Ausgabesignale 134 an den Prozessor 112' ausgegeben werden.
  • Der Prozessor 112' kann neben den im Prozessor 112 von 1 umfassten Funktionen intern ein Fokussignal und/oder einen Wert für die Anzahl der schmalen Kanten erzeugen.
  • Die Pixelanordnung 108, der A/D-Konverter 110, die Farbinterpolationseinheit 148 und der Generator 120' können sich innerhalb eines Pakets 142 befinden und zusammen einen vom Prozessor 112' getrennten Bildsensor 150' bilden.
  • Hilfspixelanordnung
  • 19 zeigt eine alternative Ausführungsform einer Autofokus-Bildaufnahmevorrichtung 103. Neben den in einem System 102 enthaltenen Elementen kann das System 103 einen teilreflektierenden Spiegel 2850, einen totalreflektierenden Spiegel 2852, einen optischen Tiefpassfilter 2840, eine Hauptpixelanordnung 2808 und einen Haupt-A/D-Konverter 2810 umfassen. Der teilreflektierende Spiegel 2850 kann den einfallenden Lichtstrahl in einen ersten Lichtstrahl und einen zweiten Lichtstrahl aufteilen, indem ein Strahl durchgelassen und ein Strahl reflektiert wird. Der erste Teilstrahl kann weiterhin den optischen Tiefpassfilter 2840 durchlaufen, bevor er schließlich die Hauptpixelanordnung 2808 erreicht, die den ersten Teilstrahl erfasst und in analoge Signale umwandelt. Der zweite Teilstrahl kann vom totalreflektierenden Spiegel 2852 reflektiert werden, bevor er schließlich die Hilfspixelanordnung 108'' erreicht, die der Pixelanordnung 108 des in 1 gezeigten Systems 102 entspricht. Die Lichtintensität des ersten Strahls kann in einem Verhältnis von 1:1 oder größer als 1:1 zu der des zweiten Strahls stehen. Das Verhältnis kann z. B. 4:1 betragen.
  • Vor der Pixelanordnung 2808 kann sich eine Farbfilteranordnung einer Farbmatrix befinden, z. B. der Bayer-Matrix. Der optische Tiefpassfilter 2808 verhindert, dass die kleinsten auf der Pixelanordnung 2808 fokussierten Lichtpunkte zu klein sind und Aliasing verursachen. Wenn sich vor der Pixelanordnung 2808 eine Farbfilteranordnung einer Farbmatrix befindet, kann Aliasing nach einer Farbinterpolation einen Farb-Moiré-Effekt verursachen. Beispielsweise kann durch den optischen Tiefpassfilter sichergestellt werden, dass der kleinste Durchmesser eines Kreises, der 84% der Leistung des sichtbaren Lichts eines Lichtpunkts auf der Hauptpixelanordnung 2808 umfasst („kleinster Hauptdurchmesser”), größer als eineinhalb Pixelbreiten und kleiner als zwei Pixelbreiten ist. Wenn beispielsweise die Hauptpixelanordnung 2808 eine Pixelbreite von 4,5 μm aufweist, während der kleinste Durchmesser ohne optische Tiefpassfilterung 2,0 μm beträgt, kann über den optischen Tiefpassfilter 2840 erreicht werden, dass Lichtpunkte mindestens einen Durchmesser von 6,7 μm haben.
  • Die Hilfspixelanordnung 108'' kann eine oder mehrere Photodetektoranordnungen umfassen. Vor jeder dieser Anordnungen kann sich optional eine Farbfilteranordnung einer Farbmatrix befinden. Die Anordnung/en der Hilfspixelanordnung 108 gibt/geben ein Bild/Bilder in Form analoger Signale aus, die vom A/D-Konverter 110 in digitale Signale 130 umgewandelt werden. Die Bilder werden an den Fokussignalgenerator 120 übermittelt. Eine Farbinterpolationseinheit 148 kann die fehlenden Farben der Bilder berechnen, die von Pixeln mit Farbfilter geliefert werden. Wenn die Hilfspixelanordnung 108'' mehrere Anordnungen von Photodetektoren umfasst, kann jede Anordnung ein Teilbild erfassen, das einem Teil des von der Hauptpixelanordnung 2808 erfassten Bilds entspricht. Die verschiedenen Anordnungen können räumlich durch einen Abstand von mehr als 100 Pixelbreiten getrennt sein und optional ein gemeinsames Halbleitersubstrat verwenden. Wenn die Pixelanordnungen innerhalb der Hilfspixelanordnung 108'' kein gemeinsames Halbleitersubstrat besitzen, können sie zusammen in einem Paket untergebracht sein (nicht gezeigt).
  • Der Haupt-A/D-Konverter 2810 wandelt analoge Signale der Hauptpixelanordnung 2808 in ein digitales Hauptbild-Datensignal 2830 um, das an den Prozessor 112 übermittelt wird, wo das von der Hauptpixelanordnung 2808 erfasste Bild weiterverarbeitet (z. B. Farbinterpolation, Farbkorrektur und Bildkomprimierung/-dekomprimierung) und schließlich auf der Speicherkarte 116 gespeichert werden kann.
  • Eine Anordnung von Photodetektoren in der Hilfspixelanordnung 108'' kann eine geringere Pixelbreite („Hilfspixelbreite”) aufweisen als die Hauptpixelanordnung 2808 („Hauptpixelbreite”). Die Hilfspixelbreite kann um bis zu 50% kleiner sein als die Hauptpixelbreite. Wenn sich vor einem Hilfspixel ein Farbfilter befindet und die Hilfspixelbreite ohne optische Tiefpassfilterung kleiner als das 1,3-fache des kleinsten Punkts sichtbaren Lichts ist, kann ein zweiter optischer Tiefpassfilter vor der Hilfsanordnung 108'' eingefügt werden, um den kleinsten Durchmesser auf der Hilfspixelanordnung 108” („kleinster Hilfsdurchmesser”) auf einen Wert zu erhöhen, der zwischen dem 1,3-fachen und 2-fachen liegt, aber immer noch kleiner als der kleinste Hauptdurchmesser ist, und bevorzugt auf das 1,5-fache. Der geringfügige Moiré-Effekt im Hilfsbild stellt kein Problem dar, da das Hilfsbild nicht die endgültige Aufnahme für den Benutzer ist.
  • 22 zeigt, wie die Kantenbreiten im Bereich um eine scharfe Fokusposition bei Hauptbildern von der Hauptpixelanordnung 2808 (durchgezogene Linie) und bei Hilfsbildern von der Hilfspixelanordnung 108'' (gestrichelte Linie) variieren können. Die Hilfsbilder ergeben auch dann noch höhere Steigungswerte, wenn die Hauptbilder den Zielwert der Breite scharfer Kanten von 2 erreichen. Für das Hilfsbild kann ein Wert unterhalb des Zielwerts der Breite scharfer Kanten zugelassen werden, da Moiré-Effekte aufgrund von Aliasing beim Hilfsbild, das nicht die endgültige Aufnahme für den Benutzer darstellt, geringere Bedeutung haben. Dies ermöglicht es, eine höhere Steigung unterhalb und oberhalb der Breite scharfer Kante zu erzielen. Eine höhere Steigung wird auch dadurch begünstigt, dass die Hilfspixelbreite geringer als die Hauptpixelbreite ist.
  • Der schattierte Bereich in 22 stellt einen guten Bereich zur Regelung der Fokusposition dar, um die scharfe Fokussierung des Hauptbilds aufrechtzuerhalten. Eine Verschiebung der Fokusposition in die Ferne würde eine Erhöhung der Kantenbreite im Hilfsbild bewirken, eine Verschiebung in die Nähe dagegen eine Verringerung. Es kann ein lineares Rückkopplungs-Steuersystem eingesetzt werden, das den mittleren Wert der Hilfskantenbreite im schattierten Bereich als Zielwert und die sich aus den Hilfsbildern ergebenden Kantenbreiten als Rückkopplungssignal verwendet, um die Kantenbreiten des Hauptbilds in der Nähe der Breite scharfer Kanten zu halten.
  • Die Hilfspixelanordnung 108'', der A/D-Konverter 110 und der Fokussignalgenerator 120 können gemeinsam in einem Paket 142 angeordnet sein und einen Hilfssensor 150 darstellen. Der Hilfssensor 150 kann weiterhin eine Farbinterpolationseinheit 148 umfassen.
  • 20 zeigt eine alternative Ausführungsform einer Autofokus-Bildaufnahmevorrichtung 103' ähnlich der Vorrichtung 103, aber mit dem Unterschied, dass der Fokussignalgenerator 120' den Fokussignalgenerator 120 ersetzt. Die Hilfspixelanordnung 108'', der A/D-Konverter 110 und der Fokussignalgenerator 120 können gemeinsam in einem Paket 142 angeordnet sein und einen Hilfssensor 150' darstellen. Der Hilfssensor 150 kann weiterhin eine Farbinterpolationseinheit 148 umfassen.
  • 21 zeigt eine alternative Ausführungsform einer Autofokus-Bildaufnahmevorrichtung 103''. Der Fokussignalgenerator 120 und der Prozessor 112'' können getrennt von der Hilfspixelanordnung 108'' in einem Paket 144 als Kamerasteuerung angeordnet sein. Der Prozessor 112'' ist dem Prozessor 112 ähnlich, aber mit dem Unterschied, dass der Prozessor 112'' Bilder sowohl von der Hauptpixelanordnung 2808 als auch von der Hilfspixelanordnung 108'' empfängt. Der Prozessor 112'' kann für die über das Signal 2830 erhaltenen Bilder eine Farbinterpolation, Farbkorrektur, Komprimierung/Dekomprimierung und Speicherung auf der Speicherkarte 116 durchführen, ähnlich den Verarbeitungsvorgängen, die der Prozessor 112 für das Signal 130 in 2 durchführen kann. Anders als in 2 müssen die über das Signal 130 empfangenen Bilder hier nicht Komprimierung/Dekomprimierung und Speicherung auf der Speicherkarte 116 erfahren. Der Prozessor 112'' kann bei über das Signal 130 empfangenen Bildern eine Farbinterpolation für Pixel der Hilfspixelanordnung 108'' durchführen, vor denen sich ein Farbfilter befindet, und die interpolierten Bilder über das Signal 146 an den Fokussignalgenerator 120 übermitteln.
  • Die Autofokus-Bildaufnahmevorrichtung 102, 102', 103, 103', 103'' kann ein Speichermedium für Computerprogramme umfassen (nicht gezeigt), das Anweisungen enthält, die den Prozessor 112, 112' bzw. 112'' und/oder den Fokussignalgenerator 120, 120' dazu veranlassen, eine oder mehrere der hierin beschriebenen Funktionen auszuführen. Beispielsweise können die Anweisungen den Prozessor 112 oder den Generator 120' zur Durchführung einer Neigungskorrektur für eine Kantenbreite gemäß dem Ablaufdiagramm von 7 veranlassen. Als weiteres Beispiel können die Anweisungen den Prozessor 112' oder den Generator 120 zur Filterung der Kantenbreiten gemäß der obigen Beschreibung für den Breitenfilter 209 veranlassen. Alternativ kann der Prozessor 112, 112' oder der Generator 120, 120' mit einer Kombination von Firm- und Hardware oder einer reinen Hardware-Implementierung für eine oder mehrere der hierhin genannten Funktionen konfiguriert sein. Beispielsweise kann im Generator 120 eine Neigungskorrektur vollständig hardwarebasiert und eine Längenfilterung 212 gemäß den Anweisungen in der Firmware durchgeführt werden.
  • 26 zeigt noch eine weitere Ausführungsform eines Fokussignalgenerators 120'. Diese Ausführungsform kann in jedem der obenstehenden Bilderfassungssysteme eingesetzt werden.
  • Obgleich eine Speicherkarte 116 als Teil des Systems 102 gezeigt wird, kann stattdessen auch jedes andere nichtflüchtige Speichermedium verwendet werden, z. B. eine Festplatte, von dem der Benutzer gespeicherte Bilder abrufen und auf einen anderen Datenträger außerhalb und entfernt vom System 102 kopieren kann.
  • Ein oder mehrere Parameter zum Betrieb des Systems, beispielsweise der Parameter Breite_scharfer_Kanten, können in einem nichtflüchtigen Speicher einer Vorrichtung innerhalb des Systems gespeichert werden. Bei dieser Vorrichtung kann es sich um eine Flashspeichervorrichtung, den Prozessor, den Bildsensor oder den Fokussignalgenerator als davon getrennte Einrichtung handeln. Ein oder mehrere Formeln zur Verwendung im System, z. B. zur Berechnung des Schwellenwerts für Kantenketten oder zur Berechnung von beta, können gleichermaßen als Parameter oder als computerausführbare Anweisungen in einem nichtflüchtigen Speicher in einer oder mehreren dieser Vorrichtungen gespeichert werden.
  • Es wird darauf hingewiesen, dass zwar bestimmte beispielhafte Ausführungsformen beschrieben und in den zugehörigen Zeichnungen dargestellt wurden, diese aber lediglich illustrativen Zwecken dienen und die Interpretation der Erfindung nicht einschränken, und dass diese Erfindung nicht auf die speziellen Konstruktionsweisen und Anordnungen beschränkt ist, die beschrieben und dargestellt wurden, da ein Fachmann verschiedene Modifikationen ableiten kann.

Claims (12)

  1. Bilderfassungssystem, das einen Schärfegrad eines Bildes auf der Grundlage mehrerer Kanten in dem Bild auswählt und aufweist: einen Speicher oder eine Registerbank, der/die Daten speichert (ein Speichermittel zum Speichern von Daten)), welche einen oder mehrere Referenzgradientenkurven und/oder Folgen von Referenzgradienten definieren.
  2. Bilderfassungssystem nach Anspruch 1, wobei die Daten einen Abstand einer Referenzspitze von einem Referenzgradienten in mindestens einer der einen oder mehreren Folgen definieren.
  3. Bilderfassungssystem nach Anspruch 1, das weiterhin aufweist: eine Auswertungseinheit, die dazu eingerichtet ist, eine Folge von Referenzgradienten oder eine Referenzgradientenkurve, die in dem Speicher definiert sind, mit einem Gradientenprofil quer zu einer der mehreren Kanten zu vergleichen, wobei es sich bei der Folge von Referenzgradienten oder der Referenzgradientenkurve um eine aus der einen oder den mehreren Referenzgradientenkurven oder -folgen handelt.
  4. Bilderfassungssystem nach Anspruch 3, wobei die Auswertungseinheit einen Parameter der Folge von Referenzgradienten oder der Referenzgradientenkurve mit einem an dem Gradientenprofil gemessenen Parameter vergleicht.
  5. Bilderfassungssystem nach Anspruch 4, wobei die Auswertungseinheit eine arithmetische Schaltung aufweist.
  6. Bilderfassungssystem nach Anspruch 5, wobei die Auswertungseinheit einen Speicher aufweist.
  7. Bilderfassungssystem nach Anspruch 1, das weiterhin aufweist: eine Parameterextraktionseinheit, die dazu eingerichtet ist, aus dem Gradientenprofil einen oder mehrere Parameter zu extrahieren, die das Gradientenprofil beschreiben.
  8. Bilderfassungssystem nach Anspruch 1, das weiterhin aufweist: einen Folgenwähler, der dazu eingerichtet ist, auf der Grundlage des einen oder der mehreren Parameter eine oder mehrere aus den mehreren Folgen auszuwählen.
  9. Verfahren zum Auswerten eines Schärfegrads eines Bildes auf der Grundlage mehrerer Kanten in dem Bild, das folgende Schritte umfasst: Kurvenanpassen eines Gradientenprofils einer Kante aus den mehreren Kanten mit einer Folge von zwei oder mehr Referenzgradienten, unter denen mindestens zwei Referenzgradienten unterschiedliche Gradientenwerte aufweisen; Durchführen eines Vergleichs der Folge mit dem Gradientenprofil gemäß einem vorbestimmten Kriterium und Entscheiden, mindestens zum Teil auf der Grundlage eines Ergebnisses dieses Vergleichs, wie eine oder mehrere Größen aus dem Gradientenprofil und/oder der Folge beim Auswerten des Schärfegrads zu benutzen sind.
  10. Verfahren nach Anspruch 9, das ferner Folgendes umfasst: Erzeugen eines Fokussignals aus den mehreren Kanten durch Modifizieren eines Beitrags der Kante auf der Grundlage der Entscheidung.
  11. Verfahren nach Anspruch 10, wobei die Kante daran gehindert wird, das Erzeugen des Fokussignals zu beeinflussen, wenn der Vergleich ergibt, dass das Gradientenprofil gemäß dem vorbestimmten Kriterium der Folge nicht hinreichend ähnlich ist.
  12. Verfahren nach Anspruch 10, wobei der Vergleich ein abgestuftes Ergebnis liefert und das Fokussignal einen Beitrag einer Kantenbreite der Kante in einem relativen Ausmaß im Vergleich zu anderen Kanten erhält, wobei der relative Ausmaß von dem abgestuften Ergebnis abhängt.
DE112011105320.7T 2011-06-09 2011-06-09 Autofokus-Bildsystem Withdrawn DE112011105320T5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/IB2011/052524 WO2012168766A1 (en) 2011-06-09 2011-06-09 Auto-focus image system

Publications (1)

Publication Number Publication Date
DE112011105320T5 true DE112011105320T5 (de) 2014-04-03

Family

ID=44509487

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112011105320.7T Withdrawn DE112011105320T5 (de) 2011-06-09 2011-06-09 Autofokus-Bildsystem

Country Status (10)

Country Link
EP (1) EP2719162B1 (de)
JP (1) JP5920608B2 (de)
CN (1) CN103650473B (de)
BR (1) BR112013031316A2 (de)
CA (1) CA2838821A1 (de)
DE (1) DE112011105320T5 (de)
GB (1) GB2505598A (de)
MX (1) MX340988B (de)
SG (1) SG195323A1 (de)
WO (1) WO2012168766A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101733028B1 (ko) 2016-05-30 2017-05-08 경북대학교 산학협력단 영상대조에 따른 에지 변위량 예측 방법
KR101868483B1 (ko) * 2016-10-13 2018-07-23 경북대학교 산학협력단 영상 대조에 따른 두개의 에지 블러 파라미터 예측 방법
EP3503528B1 (de) * 2017-12-21 2020-10-07 Axis AB Bestimmung eines kontrastwerts für ein digitales bild

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07311025A (ja) * 1994-05-17 1995-11-28 Komatsu Ltd 3次元形状検査装置
US20030123704A1 (en) * 2001-05-30 2003-07-03 Eaton Corporation Motion-based image segmentor for occupant tracking
JP3555607B2 (ja) * 2001-11-29 2004-08-18 ミノルタ株式会社 オートフォーカス装置
JP4661084B2 (ja) * 2004-05-20 2011-03-30 セイコーエプソン株式会社 ミスフォーカス判定方法およびこれに関するプログラム
JP2006115446A (ja) * 2004-09-14 2006-04-27 Seiko Epson Corp 撮影装置、及び画像評価方法
CN1892401A (zh) * 2006-05-25 2007-01-10 南京大学 针对虹膜图像捕捉的时频域多阶段自动对焦方法
JP4743773B2 (ja) * 2006-06-01 2011-08-10 コニカミノルタセンシング株式会社 エッジ検出方法、装置、及びプログラム
JP5353141B2 (ja) * 2008-09-18 2013-11-27 株式会社ニコン プログラム、カメラ、画像処理装置、及び画像の合焦度算出方法
US20110109764A1 (en) * 2008-09-24 2011-05-12 Li Hong Autofocus technique utilizing gradient histogram distribution characteristics
CN101860680B (zh) * 2009-04-08 2011-12-21 鸿富锦精密工业(深圳)有限公司 影像处理装置及其影像处理方法
JP2011003124A (ja) * 2009-06-22 2011-01-06 Sony Corp 画像処理装置および画像処理プログラム
GB2488482A (en) * 2009-12-07 2012-08-29 Hiok-Nam Tay Auto-focus image system

Also Published As

Publication number Publication date
JP5920608B2 (ja) 2016-05-25
MX340988B (es) 2016-08-03
WO2012168766A1 (en) 2012-12-13
CN103650473A (zh) 2014-03-19
BR112013031316A2 (pt) 2016-11-29
SG195323A1 (en) 2013-12-30
MX2013014257A (es) 2014-02-27
GB201321654D0 (en) 2014-01-22
WO2012168766A8 (en) 2014-01-30
EP2719162B1 (de) 2016-08-31
CN103650473B (zh) 2018-09-04
GB2505598A (en) 2014-03-05
WO2012168766A9 (en) 2014-07-03
EP2719162A1 (de) 2014-04-16
JP2014521990A (ja) 2014-08-28
CA2838821A1 (en) 2012-12-13

Similar Documents

Publication Publication Date Title
DE112008002819T5 (de) Autofokus-Bildsystem
US20150207978A1 (en) Auto-focus image system
DE102006041645A1 (de) Verfahren und Vorrichtung zur Orientierungsbestimmung in einem Bild
DE112016002229B4 (de) Bildverarbeitungsvorrichtung, bildaufnahmevorrichtung, bildverarbeitungsverfahren und speichermedium
US8630504B2 (en) Auto-focus image system
EP2619525B1 (de) Verfahren zum optischen antasten einer kante in oder an einem oberlächenbereich
DE102010023108A1 (de) Projektor mit automatischer Fokussierung und Abbildungsverfahren
US9065999B2 (en) Method and apparatus for evaluating sharpness of image
DE102014006717A1 (de) Verfahren zur Erzeugung einer dreidimensionalen Information eines Objektes mit einem Digitalmikroskop und Datenverarbeitungsprogramm zur Abarbeitung des Verfahrens
EP3123228A1 (de) Konfokales mikroskop mit aperturkorrelation
DE102016216795A1 (de) Verfahren zur Ermittlung von Ergebnisbilddaten
US20140022443A1 (en) Auto-focus image system
DE102017101169A1 (de) Bildsensor und bildaufnahmegerät
DE112010005589T5 (de) Autofokus-bildsystem
DE112011105320T5 (de) Autofokus-Bildsystem
DE112011104256T5 (de) Autofokus-Bildsystem
DE4121145C2 (de) Objektdetektionssystem für optisches Instrument
WO2021078473A1 (de) Verfahren zur erzeugung eines ausgabesignals eines pdaf-bildpunkts
DE4125537C2 (de) Verfahren und Vorrichtung zum automatischen Scharfeinstellen eines Abbildungssystems
DE112011104233T5 (de) Autofokus-Bildsystem
CN103262524B (zh) 自动聚焦图像系统
DE10033483C1 (de) Verfahren zur Autofokussierung für Fernrohre von Vermessungsgeräten
DE102021113723A1 (de) Spektrales sensorsystem mit räumlich modifizierten mittenwellenlängen
EP4227636B1 (de) Bestimmung von tiefenwerten eines oberflächenbereichs eines werkstücks
WO2020207984A1 (de) Bildaufnahmesystem und verfahren zum aufnehmen von bildern

Legal Events

Date Code Title Description
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee