DE102017223559B4 - Vorrichtung zum fokussieren einer kamera und steuerverfahren für diese - Google Patents

Vorrichtung zum fokussieren einer kamera und steuerverfahren für diese Download PDF

Info

Publication number
DE102017223559B4
DE102017223559B4 DE102017223559.4A DE102017223559A DE102017223559B4 DE 102017223559 B4 DE102017223559 B4 DE 102017223559B4 DE 102017223559 A DE102017223559 A DE 102017223559A DE 102017223559 B4 DE102017223559 B4 DE 102017223559B4
Authority
DE
Germany
Prior art keywords
focus
neurons
frame
edge pattern
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102017223559.4A
Other languages
English (en)
Other versions
DE102017223559A1 (de
Inventor
Shin-Wook Kim
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HL Klemove Corp
Original Assignee
Mando Hella Electronics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mando Hella Electronics Corp filed Critical Mando Hella Electronics Corp
Publication of DE102017223559A1 publication Critical patent/DE102017223559A1/de
Application granted granted Critical
Publication of DE102017223559B4 publication Critical patent/DE102017223559B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10148Varying focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Abstract

Vorrichtung zum Fokussieren einer Kamera, die automatisch eine Fokussierung durch Bewegen einer Fokussierlinse mittels eines Fokussierlinsen-Antriebsmotors (40) einstellt, wobei die Vorrichtung aufweist:eine Bilderwerbsvorrichtung (10), die zum Erhalten eines Vollbilds konfiguriert ist;eine neuromorphe Hardware (30) enthaltend eine Vielzahl von durch einen parallelen Bus verbundenen Neuronen, wobei die Neuronen Kantenmustervektoren, die durch Vektorisieren vorher gelernter Kantenmuster, durch die Kanten eines Bilds spezifizierbar sind, erzeugt wurden; undeine Steuervorrichtung (20), die konfiguriert ist zum Setzen eines spezifischen Bereichs als einen interessierenden Bereich (ROI) auf der Grundlage einer Mitte des von der Bilderwerbsvorrichtung (10) eingegebenen Vollbilds, zum Segmentieren des gesetzten ROI in Einheiten von vorbestimmten Fenstern, zum Erzeugen von Eingabevektoren durch Vektorisieren von von jedem der Fenster erhaltenen Bilddaten durch Gleiten der Fenster, zum Eingeben jedes der erzeugten Eingabevektoren in die neuromorphe Hardware (30), zum Auswählen von Neuronen, die jeweils einen Kantenmustervektor haben, der jedem der Eingangsvektoren am ähnlichsten ist, aus der Vielzahl von Neuronen,zum Empfangen eines Kantenmuster-Typenwerts und eines relativen Abstandswerts zwischen dem Eingabevektor und einem entsprechenden Kantenmuster von jedem der ausgewählten Neuronen, zum Berechnen eines Fokussierparameterwerts des Vollbilds auf der Grundlage der empfangenen Kantenmuster-Typenwerte und der relativen Abstandswerte, zum Vergleichen des Fokussierparameterwerts eines gegenwärtigen Vollbilds und eines Fokussierparameterwerts eines früheren Vollbilds, zum Bestimmen einer Bewegungsrichtung der Fokussierlinse derart, dass eine Fokussierung mit Bezug auf die Vollbilder gemäß einem Vergleichsergebnis zunimmt, und zum Bewegen der Fokussierlinse durch den Fokussierlinsen-Antriebsmotor (40) auf der Grundlage der bestimmten Bewegungsrichtung.

Description

  • HINTERGRUND
  • Technisches Gebiet
  • Die vorliegende Offenbarung bezieht sich auf eine Vorrichtung und ein Verfahren zum Fokussieren einer Kamera, und insbesondere auf eine Vorrichtung und ein Verfahren zum automatischen Fokussieren einer Kamera.
  • Beschreibung des Standes der Technik
  • Im Allgemeinen beeinflusst ein Abstand zwischen einer Kamera und einem Gegenstand eine Fokussierung der Kamera. Das heißt, wenn der Abstand von dem Subjekt vergrößert oder verkleinert wird, bewegt sich eine Kameralinse angemessen hin und her, um in einer optimalen Position in der Weise zu sein, dass ein Bild genau fokussiert ist.
  • Herkömmlich wird eine Kante eines durch eine Linse erworbenen Bilds erfasst und eine optische Fokussierposition wird durch Antreiben einer Fokussierlinse, um nach einem Punkt zu suchen, an dem ein entsprechender Kantenwert einen maximalen Wert erreicht, gefunden. Das heißt, die Fokuslinse wiederholt das Antreiben in Hin- und Herrichtung Schritt für Schritt durch einen Schrittmotor und erhält einen Kantenwert bei jedem Schritt, und die Suche wird wiederholt, bis der Kantenwert einen maximalen Wert erreicht.
  • Jedoch ist in dem Fall eines sich schnell bewegenden Gegenstands oder einer in einem sich schnell bewegenden Objekt wie einem Fahrzeug oder einem Flugzeug befestigten Kamera ein schnelles Auffinden einer Fokussierposition von höchster Wichtigkeit, und während dieses Prozesses können ein übermäßiger Rechenaufwand oder eine Zeitverzögerung für die Fokussiereinstellung auftreten.
  • Die Veröffentlichung DE 10 2016 118 192 A1 offenbart eine Fokuserfassungsvorrichtung, ein Prädiktionsverfahren und ein zugehöriges Speichermedium. Gemäß der Veröffentlichung DE 10 2016 118 192 A1 erfasst eine CPU einen Bildversetzungsausmaß unter Verwendung eines von einem Bildsensor beschafften Signals und wandelt das Bildversetzungsausmaß in ein Defokussierausmaß unter Verwendung eines Umwandlungsfaktors um. Die CPU sagt eine zukünftige Bildebenen-Position eines bewegten Objekts beruhend auf dem Defokussierausmaß, einer Zeit bezüglich einer Fokuserfassung und einer Position einer Linse voraus. Die CPU korrigiert den Umwandlungsfaktor unter Verwendung der Bildebenen-Position des bewegten Objekts und/oder der Zeit bezüglich der Fokuserfassung und/oder der Linsenposition. Die CPU sagt die zukünftige Bildebenen-Position des bewegten Objekts unter Verwendung des korrigierten Umwandlungsfaktors voraus.
  • Die Veröffentlichung US 2017/054896 A1 beschreibt eine Bildgebungsvorrichtung, die eine kontinuierliche Bildgebung durchführt. Die Bildgebungsvorrichtung umfasst eine Fokussierungsfassungseinheit, die eine Fokussierungserkennung durchführt und einen Betrag einer Defokussierung in jeder von mehreren Bildgebungsvorgängen berechnet; eine Positionserfassungseinheit, die eine Bildebenenposition entsprechend einer Objektposition unter Verwendung des Defokussierungsbetrags erfasst; eine Schätzeinheit, die eine nächste Bildebenenposition unter Verwendung einer Vielzahl von Datenpaaren bezüglich der Bildebenenposition und eines Zeitpunkts schätzt, zu dem der Betrag der Defokussierung erfasst wurde; und eine Umkehr-Bestimmungseinheit, die bestimmt, ob ein Subjekt ein Umkehr-Subjekt ist, das ein Subjekt ist, das sich in Richtung der Abbildungsvorrichtung bewegt, die Bewegungsrichtung ändert und sich dann von der Abbildungsvorrichtung wegbewegt. Die Anzahl der für die Schätzung verwendeten Datenpaare nimmt basierend auf einem Verhältnis der höchsten Geschwindigkeit der Bildebene in vergangenen Szenen zu einer aktuellen Geschwindigkeit der Bildebene ab.
  • Die Veröffentlichung US 2015/358549 A1 beschreibt ein Verfahren, das von einem elektronischen Gerät ausgeführt wird, zum Einstellen mindestens eines Bilderfassungsparameters in einem Vorschaumodus. Das Verfahren kann das Erfassen eines Vorschaubildes einer Szene mit mindestens einem Textobjekt basierend auf einem Satz von Bilderfassungsparametern umfassen. Das Verfahren kann auch mehrere Textbereiche in dem Vorschaubild identifizieren. Aus der Vielzahl von Textbereichen kann ein Zielfokusbereich ausgewählt werden. Basierend auf dem Zielfokusbereich kann der mindestens eine Bilderfassungsparameter angepasst werden.
  • KURZFASSUNG
  • Es ist eine Aufgabe der vorliegenden Erfindung, eine Vorrichtung und ein Verfahren zum Fokussieren einer Kamera anzugeben, die eine neuromorphe Hardware verwenden, um den zum Berechnen von Kanten eines Bilds benötigten Rechenaufwand zu verringern.
  • Zusätzliche Aspekte der vorliegenden Erfindung sind teilweise in der folgenden Beschreibung wiedergegeben und ergeben sich teilweise als offensichtlich aus der Beschreibung, oder sie können durch Ausüben der vorliegenden Erfindung erfahren werden.
  • Gemäß der vorliegenden Erfindung enthält eine Vorrichtung zum Fokussieren einer Kamera, die automatisch eine Fokussierung durch Bewegen einer Fokussierlinse mittels eines Fokussierlinsen-Antriebsmotors einstellt: eine Bilderwerbsvorrichtung, die konfiguriert ist zum Erhalten eines Vollbilds; eine neuromorphe Hardware enthaltend eine Vielzahl von Neuronen, die durch einen parallelen Bus verbunden sind, wobei die Neuronen Kantenmustervektoren speichern, die durch Vektorisieren vorher gelernter Kantenmuster erzeugt wurden, die in der Lage sind, Kanten eines Bilds zu spezifizieren; und eine Steuervorrichtung, die konfiguriert ist zum Setzen eines spezifischen Bereichs als einen interessierenden Bereich (ROI) auf der Grundlage einer Mitte des von der Bilderwerbsvorrichtung eingegebenen Vollbilds, zum Segmentieren des gesetzten ROI in Einheiten von vorbestimmten Fenstern, zum Erzeugen von Eingangsvektoren durch Vektorisieren von Bilddaten, die anhand jedes der Fenster erworben wurden, durch Gleiten der Fenster, zum Eingeben jedes der erzeugten Eingangsvektoren in die neuromorphe Hardware, zum Auswählen von Neuronen, jeweils mit einem Kantenmustervektor, der jedem der Eingangsvektoren von der Vielzahl von Neuronen am ähnlichsten ist, zum Empfangen eines Kantenmuster-Typenwerts und eines relativen Abstandswerts zwischen dem Eingangsvektor und einem entsprechenden Kantenmuster von jedem der ausgewählten Neuronen, zum Berechnen eines Fokussierparameterwerts des Vollbilds auf der Grundlage der empfangenen Kantenmuster-Typenwerte und der relativen Abstandswerte, zum Vergleichen des Fokussierparameterwerts eines gegenwärtigen Vollbilds und eines Fokussierparameterwerts eines vorhergehenden Vollbilds, zum Bestimmen einer Bewegungsrichtung der Fokussierlinse derart, dass eine Fokussierung mit Bezug auf die Vollbilder gemäß einem Vergleichsergebnis zunimmt, und zum Bewegen der Fokussierlinse durch den Fokussierlinsen-Antriebsmotor auf der Grundlage der bestimmten Bewegungsrichtung.
  • Die Steuervorrichtung kann die Anzahl von Kantenmustern des Vollbilds und einen Durchschnitt der relativen Abstandswerte auf der Grundlage der empfangenen Kantenmuster-Typenwerte und relativer Abstandswerte berechnen, und kann den Fokussierparameterwert des Vollbilds auf der Grundlage der berechneten Anzahl von Kantenmustern und des Durchschnittswerts berechnen.
  • Die Steuervorrichtung kann den Fokussierparameterwert (F) durch die folgenden Gleichungen 1 und 2 berechnen: F m = N F + μ 1 D F
    Figure DE102017223559B4_0001
    D F = 1 N F i = 1 N F d i s t i
    Figure DE102017223559B4_0002
    wobei Fm einen Fokussierparameter-Berechnungswert eines mth-Vollbilds darstellt, NF die Anzahl von durch die neuromorphe Hardware als Kanten erkannten Fenster darstellt, DF einen Durchschnitt von Abstandswerten der als Kanten erkannten Fenster darstellt, disti einen Abstandswert eines Fensters, das als eine Kante erkannt wurde, darstellt, und u einen Koeffizienten zum Erfassen eines Verhältnisses zwischen zwei Parametern mit unterschiedlichen physischen Charakteristiken darstellt.
  • In der Vielzahl von Neuronen der neuromorphen Hardware gespeicherte Bildkantenmustervektoren können eines von vertikalen, horizontalen, 45-Grad-diagonalen und 135-Grad-diagonalen Kantenmustern sein.
  • Gemäß einem anderen Aspekt der vorliegenden Offenbarung ist ein Verfahren zum Steuern einer Vorrichtung zum Fokussieren einer Kamera, die eine Bilderwerbsvorrichtung, die zum Erwerben eines Vollbilds konfiguriert ist, eine neuromorphe Hardware, die zum Enthalten einer Vielzahl von durch einen parallelen Bus verbundenen Neuronen konfiguriert ist, wobei die Neuronen Kantenmustervektoren speichern, die durch Vektorisieren vorher gelernter Kantenmuster, die zum Spezifizieren von Kanten eines Bilds in der Lage sind, erzeugt wurden, einen Fokussierlinsen-Antriebsmotor, der zum Bewegen einer Fokuslinse konfiguriert ist, und eine Steuervorrichtung enthält, vorgesehen, das enthält: Setzen eines spezifischen Bereichs als einen interessierenden Bereich (ROI) auf der Grundlage einer Mitte des von der Bilderwerbsvorrichtung eingegebenen Vollbilds; Segmentieren des gesetzten ROI in Einheiten von vorbestimmten Fenstern; Erzeugen von Eingabevektoren durch Vektorisieren von Bilddaten, die von jedem der Fenster erhalten wurden durch Gleiten der Fenster; Eingeben jedes der erzeugten Eingabevektoren in die neuromorphe Hardware; Auswählen von Neuronen, von denen jedes einen Kantenmustervektor hat, der jedem der Eingabevektoren von der Vielzahl von Neuronen am ähnlichsten ist; Empfangen eines Kantenmuster-Typenwerts und eines relativen Abstandswerts zwischen dem Eingabevektor und einem entsprechenden Kantenmuster von jedem der ausgewählten Neuronen; Berechnen eines Fokussierparameterwerts des Vollbilds auf der Grundlage der empfangenen Kantenmuster-Typenwerte und der relativen Abstandswerte; Vergleichen des Fokussierparameterwerts eines gegenwärtigen Vollbilds und eines Fokussierparameterwerts eines vorhergehenden Vollbilds; Bestimmen einer Bewegungsrichtung der Fokussierlinse, so dass die Fokussierung mit Bezug auf die Vollbilder gemäß dem Vergleichsergebnis zunimmt; und Bewegen der Fokussierlinse durch den Fokussierlinsen-Antriebsmotor auf der Grundlage der bestimmten Bewegungsrichtung.
  • Die Berechnung des Fokussierparameterwerts kann die Berechnung der Anzahl von Kantenmustern des Vollbilds und eines Durchschnitts der relativen Abstandswerte auf der Grundlage der empfangenen Kantenmuster-Typenwerte und der relativen Abstandswerte enthalten, und der berechnete Fokussierparameterwert des Vollbilds kann zunehmen, wenn die berechnete Anzahl von Kantenmustern zunimmt und der Durchschnitt abnimmt.
  • Figurenliste
  • Diese und/oder andere Aspekte der vorliegenden Offenbarung werden ersichtlich und leichter verständlich anhand der folgenden Beschreibung der Ausführungsbeispiele, die in Verbindung mit den begleitenden Zeichnungen gegeben wird, von denen:
    • 1 ein Steuerblockschaltbild ist, das eine Vorrichtung zum Fokussieren einer Kamera nach einem Ausführungsbeispiel der vorliegenden Offenbarung illustriert;
    • 2 ein Diagramm zum Beschreiben einer Gleitreihenfolge von Fenstern mit Bezug auf einen interessierenden Bereich (ROI) eines Eingangsbilds in der Vorrichtung zum Fokussieren einer Kamera nach einem Ausführungsbeispiel der vorliegenden Offenbarung ist; und
    • 3 ein Diagramm zum Beschreiben eines Erkennungsergebnisses jedes Fensters durch neuromorphe Hardware in der Vorrichtung zum Fokussiereneiner Kamera nach einem Ausführungsbeispiel der vorliegenden Offenbarung ist.
  • DETAILLIERTE BESCHREIBUNG
  • Nachfolgend werden Ausführungsbeispiele der vorliegenden Offenbarung im Einzelnen mit Bezug auf die begleitenden Zeichnungen beschrieben. Die hier dargestellten Ausführungsbeispiele sind beispielhaft wiedergegeben, um dem Fachmann zu ermöglichen, den Bereich der vorliegenden Erfindung vollständig zu verstehen. Die vorliegende Offenbarung ist nicht auf die hier beschriebenen Ausführungsbeispiele beschränkt und kann in vielen alternativen Formen verkörpert sein. Einzelheiten, die nicht relevant sind, sind in den Zeichnungen weggelassen, um die Klarheit und die Prägnanz zu erhöhen. Breiten, Längen und Dicken von Komponenten in den Zeichnungen können aus Gründen der Zweckmäßigkeit der Beschreibung übertrieben dargestellt sein. Gleiche Zahlen beziehen sich in der gesamten detaillierten Beschreibung und in den Zeichnungen auf gleiche Elemente.
  • Eine Autofokussierungs(AF)-Funktion ist eine wesentliche Funktion zum Aufrechterhalten einer optimalen Fokussierung in einer Plattform, auf der sich ein Subjekt bewegt und einen Abstand von einer Kamera ändert oder die Kamera sich bewegt.
  • Herkömmlich wurde die Autofokussierung implementiert durch Messen eines Kantenwerts eines bestimmten Bereichs, der in einem Bild bezeichnet wurde, und Bewegen einer Fokussierlinse in einer Richtung, in der der Kantenwert zunimmt. Alternativ wurde ein Verfahren zur Implementierung der Autofokussierung verwendet, indem ein Bild eines bestimmten Bereichs in eine Frequenzdomäne umgewandelt und eine Fokussierlinse in einer Richtung, in der die Frequenzdomäne zunimmt, bewegt wurde.
  • Jedoch hat in jüngerer Zeit die Auflösung eines Kamerabilds stark zugenommen auf 4K oder mehr, und in dem Fall einer Kamera, die in einer Fahrzeug- oder einer Flugzeugplattform befestigt ist, ist ein großer Rechenaufwand erforderlich, um die Autofokussierungsfunktion zu implementieren, da sich ein Subjekt oder die Kamera schnell bewegt. Dies kann eine Zunahme von Komponentenpreisen und eine Verlängerung der Entwicklungszeit bewirken.
  • Daher wird bei einem Ausführungsbeispiel der vorliegenden Offenbarung ein Kantenwert, der durch eine herkömmliche Bildverarbeitungs-Algorithmusoperation erhalten wurde, durch einen Kantenformmuster-Lern- und Erkennungsprozess mittels neuromorpher Hardware ersetzt, wodurch ermöglicht wird, die Autofokussierung zu beschleunigen, ohne dass eine Berechnung erforderlich ist.
  • Zusätzlich wird durch Einführen eines Konzepts eines Fokussierparameters entsprechend einem Kantenwert ein gegenwärtiger Fokussierzustand durch eine einfache Operation unter Verwendung der Anzahl von Mustern, die als Kanten erkannt werden, und eines relativen Abstandswerts in der neuromorphen Hardware definiert, und eine optimale Fokussierposition wird gesucht durch Vergleichen von Werten auf der Grundlage des gegenwärtigen Fokussierzustands.
  • 1 ist ein Steuerblockschaltbild, das eine Vorrichtung zum Fokussieren einer Kamera nach einem Ausführungsbeispiel der vorliegenden Offenbarung illustriert.
  • Gemäß 1 enthält eine Vorrichtung zum Fokussieren einer Kamera eine Bilderwerbsvorrichtung 10, eine Steuervorrichtung 20, eine neuromorphe Hardware 30, die eine neuromorphe Hardware ist, und einen Fokussierlinsen-Antriebsmotor 40.
  • Die Bilderwerbsvorrichtung 10 enthält einen Bildsensor, der zum Erwerben von Vollbildern konfiguriert ist. Durch eine optische Linse kondensiertes Licht wird auf eine Oberfläche des Bildsensors fokussiert. Der Bildsensor wandelt kondensierte Lichtenergie in ein elektrisches Signal um und erzeugt ein digitales Bild in der Form von Pixeln. Das durch den Bildsensor erzeugte Bildsignal wird zu der Steuervorrichtung 20 gesendet.
  • Die Steuervorrichtung 20 führt die Gesamtsteuerung der Vorrichtung Fokussieren einer Kamera durch.
  • Die Steuervorrichtung 20 kann einen Vektorgenerator 21, eine Fokussierungsberechnungsvorrichtung 22 und eine Motorsteuervorrichtung 23 enthalten.
  • 2 ist ein Diagramm zum Beschreiben einer Gleitreihenfolge von Fenstern mit Bezug auf einen interessierenden Bereich (ROI) eines Eingangsbilds in die Vorrichtung zum Fokussiereneiner Kamera nach einem Ausführungsbeispiel der vorliegenden Offenbarung.
  • Gemäß 2 setzt der Vektorgenerator 21 einen ROI bei Bilddaten, die ein von der Bilderwerbsvorrichtung 10 erzeugtes Eingangsbild sind, segmentiert einen mittleren Bereich des gesetzten ROI in kleinere Fenster und wandelt einen Pixelwert jedes entsprechenden Fensters in eine Vektorform um, indem die Fenster gemäß einer Reihenfolge des Gleitens gleiten. In diesem Fall kann die Anzahl von Gleitschritten in einer X-Richtung und in einer Y-Richtung variabel eingestellt werden. Zusätzlich werden Stücke von Bilddaten, die in Einheiten von kleineren Fenstern erhalten werden, jeweils in eine einreihige Vektorform umgewandelt und kontinuierlich zu der neuromorphen Hardware 30 gesendet. Wenn beispielsweise angenommen wird, dass ein 16x16-Fenster das Gleiten mit Bezug auf den gesamten ROI wiederholt, hat ein Eingangsvektor eine Größe von 1 x 256. Stücke von Bilddaten für den gesamten ROI werden zu der neuromorphen Hardware 30 gesendet, während der Eingabevektor das Gleiten wiederholt.
  • Gemäß 1 kann die neuromorphe Hardware 30 eine Neuroneneinheit 31, eine Erkennungsvorrichtung 32 und eine Lernvorrichtung 33 enthalten. Tausende von als Hardware implementierte Neuronen sind durch einen parallelen Bus verbunden, um die Neuroneneinheit zu bilden. Zusätzlich bilden die Lernvorrichtung 33, die zum Lernen eines Musters konfiguriert ist, und die Erkennungsvorrichtung 32, die zum Erkennen des Musters konfiguriert ist, das Innere der neuromorphen Hardware.
  • Musterinformationen über einen Kantenbereich, die vorher gelernt wurden, werden in der Lernvorrichtung 33 gespeichert. Kantenmustervektoren, die in der Lernvorrichtung 33 gespeichert sind, können verschiedene Kantenmustervektoren gemäß Winkeländerungen in vertikaler, horizontaler und diagonaler Richtung sein. Derartige verschiedene Kantenmuster können vorher erhalten und in der Lernvorrichtung 33 gespeichert sein. Beispielsweise kann die Lernvorrichtung 33 vertikale, horizontale, 45-Grad-diagonale und 35-Grad-diagonale Musterkanten in einer Vektorform speichern. In diesem Fall sind die Kantenmuster so gespeichert, dass die Typen hiervon voneinander unterschieden werden können.
  • Die Lernvorrichtung 33 kann die gespeicherten Kantenmustervektoren verwenden, um Kantenmuster durch Laden der Kantenmuster in lokale Speicher einer Vielzahl von in der Neuroneneinheit 31 enthaltenen Neuronen erkennen.
  • Der in Einheiten von Fenstern umgewandelte und durch den Vektorgenerator 21 der Steuervorrichtung 20 gesendete Eingabevektor wird in die Neuroneneinheit 31 eingegeben. Der Eingabevektor wird durch einen internen parallelen Bus der neuromorphen Hardware gleichzeitig zu allen die Neuroneneinheit 31 bildenden Neuronen gesendet. Jedes der Neuronen berechnet einen Abstand (dist) zwischen einem in dem Speicher des Neurons gespeicherten Kantenmustervektor und dem Eingabevektor und gibt einen Aktivierungssignalwert und einen berechneten Abstandswert aus, wenn der berechnete Abstandswert innerhalb eines Einflussfelds des entsprechenden Neurons ist. Das Aktivierungssignal ist ein Signal, das anzeigt, dass ein Abstand zwischen dem in dem entsprechenden Neuron gespeicherten Kantenmustervektor und dem Eingabevektor innerhalb des Einflussfelds des Neurons ist.
  • Die Erkennungsvorrichtung 32 sammelt die Aktivierungssignale und die Abstandswerte, die von den jeweiligen Neuronen der Neuroneneinheit 31 empfangen wurden, und wählt ein Neuron mit dem geringsten relativen Abstand zu dem Eingabevektor aus allen Neuronen auf der Grundlage eines „Gewinner nimmt alles (WTA)“-Verfahrens aus.
  • In diesem Fall gibt das ausgewählte Neuron einen Kathegorie(CAT)-Wert, der einen Mustertyp, den das ausgewählte Neuron hat, anzeigt, und einen Abstandswert (dist) aus. Das heißt, wenn der Eingabevektor, der ein Teilbereich des Eingangsbilds ist, in die neuromorphe Hardware 30 eingegeben wird, wird eine Ähnlichkeitssuche bei verschiedenen Typen von Kantenmustern, die die Neuronen besitzen, durchgeführt, um ein Kantenmuster zu finden, das einem eingegebenen Wert am ähnlichsten ist, und ein CAT-Wert und ein Abstandswert (dist) eines Kantenmusters mit der größten Ähnlichkeit werden ausgegeben, wenn es vorhanden ist.
  • 3 ist ein Diagramm zum Beschreiben eines Erkennungsergebnisses jedes Fensters durch die neuromorphe Hardware in der Vorrichtung zum Fokussieren einer Kamera nach einem Ausführungsbeispiel der vorliegenden Offenbarung.
  • Gemäß 3 erkennt die neuromorphe Hardware 30 einen empfangenen Eingabefenstervektor, und wenn ein ähnliches Kantenmuster in einem Neuron der Neuroneneinheit 31 vorhanden ist, gibt die neuromorphe Hardware 30 einen Typen- und relativen Abstandswert (dist) des Kantenmusters aus. Wenn eines von einem vertikalen, horizontalen, 45-Grad-diagonalen und 135-Grad-diagonalen Kantenmuster in den Neuronen gespeichert ist, wird ein Typenwert (CAT-Wert) des entsprechenden Kantenmusters ausgegeben.
  • Wenn die neuromorphe Hardware 30 gemäß 1 die Erkennung des gesamten ROI beendet, berechnet die Fokussierungsberechnungsvorrichtung 22 der Steuervorrichtung 20 einen Fokussierparameterwert durch eine Operation bei empfangenen Musterkategorie(CAT)-Werten und Abstandswerten (dist).
  • Ein Fokussierparameterwert F wird durch die folgenden Gleichungen 1 und 2 berechnet. F m = N F   +   μ 1 D F
    Figure DE102017223559B4_0003
    D F = 1 N F i = 1 N F d i s t i
    Figure DE102017223559B4_0004
  • Hier stellt Fm einen Fokussierparameter-Berechnungswert eines m-ten Vollbilds dar, NF stellt die Anzahl von von der neuromorphen Hardware als Kanten erkannten Fenster dar, DF stellt einen Durchschnitt der Abstandswerte der als Kanten erfassten Fenster dar, disti stellt einen Abstandswert eines als eine Kante erfassten Fensters dar, und u stellt einen Koeffizienten zum Einstellen eines Verhältnisses zwischen zwei Parametern mit unterschiedlichen physischen Charakteristiken dar.
  • Der Fokussierparameterwert F wird berechnet durch Kombinieren von N, das die Anzahl von in dem entsprechenden ROI erfassten Kantenmustern ist, und dem D-Wert, der ein Durchschnitt von relativen Abständen (dist) zwischen dem gelernten (gespeicherten) Kantenmuster und einer Kantenkomponente eines Eingangsbilds ist.
  • Je größer die Anzahl von in einem Bild erfassten Kantenkomponenten ist, desto besser ist die Fokussierung. Umgekehrt ist, je kleiner der relative Abstand zwischen der gelernten Kante und einer Kantenkomponente des Eingangsbilds ist, desto besser die Fokussierung. Daher sind ein N-Parameter und ein D-Parameter in einem umgekehrten Verhältnis zueinander.
  • Wenn die Fokussierungsberechnungsvorrichtung 22 einen Fokussierparameterwert für das gegenwärtige Vollbild berechnet, sendet die Fokussierungsberechnungsvorrichtung 22 das Berechnungsergebnis zu der Motorsteuervorrichtung 23.
  • Die Motorsteuervorrichtung 23 vergleicht den Fokussierparameterwert des von der Fokussierungsberechnungsvorrichtung 22 empfangenen gegenwärtigen Vollbilds mit einem Fokussierparameterwert eines früheren Vollbilds.
  • Die Motorsteuervorrichtung 23 bestimmt gemäß einem Vergleichsergebnis, ob der Fokussierwert zunimmt oder abnimmt, und bestimmt eine Bewegungsrichtung der Fokussierlinse. Das heißt, die Motorsteuervorrichtung 23 bestimmt gemäß dem Vergleichsergebnis ob die Fokussierung zunimmt oder abnimmt, und bestimmt die Bewegungsrichtung der Brennpunktlinse zur Bewegung der Brennpunktlinse in einer Richtung, in der die Fokussierung zunimmt.
  • Die Motorsteuervorrichtung 23 erzeugt Motorantriebsinformationen zum Bewegen der Fokussierlinse in der bestimmten Bewegungsrichtung und sendet die Motorantriebsinformationen zu dem Fokussierlinsen-Antriebsmotor 40. Die Motorantriebsinformationen können eine Drehrichtung, die Anzahl von Bewegungsschritten und einen Drehgeschwindigkeitstakt des Fokussierlinsen-Antriebsmotors enthalten.
  • Der Fokussierlinsen-Antriebsmotor 40 kann einen Schrittmotor enthalten, der zum Bewegen der Fokussierlinse konfiguriert ist.
  • Der Fokussierlinsen-Antriebsmotor 40 bewegt die Fokussierlinse in der bestimmten Bewegungsrichtung durch Drehen gemäß den von der Motorsteuervorrichtung 23 empfangenen Motorantriebsinformationen.
  • Wie aus der vorstehenden Beschreibung ersichtlich ist, ist es gemäß einem Ausführungsbeispiel der vorliegenden Offenbarung möglich, eine Autofokussierungsfunktion ohne das Erfordernis einer komplizierten Berechnung zu implementieren. Herkömmlich musste ein Kantenberechnungsvorgang für den gesamten ROI durch eine Matrixoperation bei allen Vollbildern entsprechend wiederholten Motorschrittänderungen durchgeführt werden. In diesem Fall wird, wenn eine Auflösung des Bilds zunimmt oder Mehrfokussierungsbereiche gebildet werden, der Rechenaufwand drastisch zu, was ein Hauptgrund für die Schwierigkeiten bei einer Echtzeitverarbeitung ist.
  • Zusätzlich kann gemäß einem Ausführungsbeispiel der vorliegenden Offenbarung nicht nur eine Kantenoperation durch eine Mustervergleichsfunktion unter Verwendung der neuromorphen Hardware ersetzt werden, sondern es kann auch ein Fokussierparameter durch eine einfache Operation berechnet werden, so dass ein Fokussierzustand intuitiv zwischen Vollbildern verglichen werden kann.
  • Daher ist es durch Antreiben eines Motors durch Hardwarebeschleunigung für eine Kantenoperation und Vergleichen von einfachen Fokussierparameterwerten möglich, eine Autofokussierungsfunktion ohne Verwendung eines Hochleistungs-/kostenaufwendigen Prozessors bei einer Anwendung zu implementieren, bei der eine große Bildauflösung verwendet wird, oder eine schnelle Autofokussierungsfunktion erforderlich ist.
  • Gemäß den Ausführungsbeispielen der vorliegenden Offenbarung ist es möglich, den bei der Berechnung von Kanten eines Bilds aufgebrachten Rechenaufwand drastisch zu reduzieren, indem neuromorphe Hardware verwendet wird, und die Kosten der Systemimplementierung zu verringern.
  • Obgleich wenige Ausführungsbeispiele der vorliegenden Offenbarung gezeigt und beschrieben wurden, ist für den Fachmann offensichtlich, dass Änderungen bei diesen Ausführungsbeispielen vorgenommen werden können, ohne die Prinzipien der vorliegenden Offenbarung, deren Bereich in den Ansprüchen und ihren Äquivalenten definiert ist, zu verlassen.

Claims (6)

  1. Vorrichtung zum Fokussieren einer Kamera, die automatisch eine Fokussierung durch Bewegen einer Fokussierlinse mittels eines Fokussierlinsen-Antriebsmotors (40) einstellt, wobei die Vorrichtung aufweist: eine Bilderwerbsvorrichtung (10), die zum Erhalten eines Vollbilds konfiguriert ist; eine neuromorphe Hardware (30) enthaltend eine Vielzahl von durch einen parallelen Bus verbundenen Neuronen, wobei die Neuronen Kantenmustervektoren, die durch Vektorisieren vorher gelernter Kantenmuster, durch die Kanten eines Bilds spezifizierbar sind, erzeugt wurden; und eine Steuervorrichtung (20), die konfiguriert ist zum Setzen eines spezifischen Bereichs als einen interessierenden Bereich (ROI) auf der Grundlage einer Mitte des von der Bilderwerbsvorrichtung (10) eingegebenen Vollbilds, zum Segmentieren des gesetzten ROI in Einheiten von vorbestimmten Fenstern, zum Erzeugen von Eingabevektoren durch Vektorisieren von von jedem der Fenster erhaltenen Bilddaten durch Gleiten der Fenster, zum Eingeben jedes der erzeugten Eingabevektoren in die neuromorphe Hardware (30), zum Auswählen von Neuronen, die jeweils einen Kantenmustervektor haben, der jedem der Eingangsvektoren am ähnlichsten ist, aus der Vielzahl von Neuronen, zum Empfangen eines Kantenmuster-Typenwerts und eines relativen Abstandswerts zwischen dem Eingabevektor und einem entsprechenden Kantenmuster von jedem der ausgewählten Neuronen, zum Berechnen eines Fokussierparameterwerts des Vollbilds auf der Grundlage der empfangenen Kantenmuster-Typenwerte und der relativen Abstandswerte, zum Vergleichen des Fokussierparameterwerts eines gegenwärtigen Vollbilds und eines Fokussierparameterwerts eines früheren Vollbilds, zum Bestimmen einer Bewegungsrichtung der Fokussierlinse derart, dass eine Fokussierung mit Bezug auf die Vollbilder gemäß einem Vergleichsergebnis zunimmt, und zum Bewegen der Fokussierlinse durch den Fokussierlinsen-Antriebsmotor (40) auf der Grundlage der bestimmten Bewegungsrichtung.
  2. Vorrichtung nach Anspruch 1, bei der die Steuervorrichtung (20) die Anzahl von Kantenmustern des Vollbilds und einen Durchschnitt der relativen Abstandswerte auf der Grundlage der empfangenen Kantenmuster-Typenwerte und der relativen Abstandswerte berechnet und den Fokussierparameterwert des Vollbilds auf der Grundlage der berechneten Anzahl von Kantenmustern und des berechneten Durchschnittswerts berechnet.
  3. Vorrichtung nach einem der Ansprüche 1 oder 2, bei der die Steuervorrichtung (20) den Fokussierparameterwert (F) durch die folgenden Gleichungen 1 und 2 berechnet: F m = N F   +   μ 1 D F
    Figure DE102017223559B4_0005
    D F = 1 N F i = 1 N F d i s t i
    Figure DE102017223559B4_0006
    worin Fm einen Fokussierparameter-Berechnungswert eines m-ten Vollbilds darstellt, NF die Anzahl von von der neuromorphen Hardware als Kanten erfassten Fenstern darstellt, DF einen Durchschnitt von Abstandswerten der als Kanten erkannten Fenster darstellt, disti einen Abstandswert eines als eine Kante erkannten Fensters darstellt, und µ einen Koeffizienten zum Einstellen eines Verhältnisses zwischen zwei Parametern mit unterschiedlichen physischen Charakteristiken darstellt.
  4. Vorrichtung nach einem der Ansprüche 1 bis 3, bei der Bildkanten-Mustervektoren, die in der Vielzahl von Neuronen der neuromorphen Hardware (30) gespeichert sind, eines von vertikalen, horizontalen, 45-Grad-diagonalen und 135-Grad-diagonalen Kantenmustern sind.
  5. Verfahren zum Steuern einer Vorrichtung zum Fokussieren einer Kamera, die eine Bilderwerbsvorrichtung (10), die zum Erwerben eines Vollbilds konfiguriert ist, eine neuromorphe Hardware (30), die zum Enthalten einer Vielzahl durch einen parallelen Bus verbundener Neuronen konfiguriert ist, wobei die Neuronen durch Vektorisieren vorher gelernter Kantenmuster, durch die Kanten eines Bilds spezifizierbar sind, erzeugte Kantenmustervektoren, speichern, einen Fokussierlinsen-Antriebsmotor (40), der zum Bewegen einer Fokussierlinse konfiguriert ist, und eine Steuervorrichtung (20) enthält, wobei das Verfahren aufweist: Setzen eines spezifischen Bereichs als einen interessierenden Bereich (ROI) auf der Grundlage einer Mitte des von der Bilderwerbsvorrichtung (10) eingegebenen Vollbilds; Segmentieren des gesetzten ROI in Einheiten von vorbestimmten Fenstern; Erzeugen von Eingabevektoren durch Vektorisieren von von jedem der Fenster erhaltenen Bilddaten durch Gleiten der Fenster; Eingeben jedes der erzeugten Eingabevektoren in die neuromorphe Hardware (30); Auswählen von Neuronen, die jeweils einen Kantenmustervektor haben, der jedem der Eingabevektoren am ähnlichsten ist, aus der Vielzahl von Neuronen; Empfangen eines Kantenmuster-Typenwerts und eines relativen Abstandswerts zwischen dem Eingabevektor und einem entsprechenden Kantenmuster von jedem der ausgewählten Neuronen; Berechnen eines Fokussierparameterwerts des Vollbilds auf der Grundlage der empfangenen Kantenmuster-Typenwerte und der empfangenen relativen Abstandswerte; Vergleichen des Fokussierparameterwerts eines gegenwärtigen Vollbilds mit einem Fokussierparameterwert eines vorhergehenden Vollbilds; Bestimmen einer Bewegungsrichtung der Fokussierlinse derart, dass eine Fokussierung mit Bezug auf die Vollbilder zunimmt, gemäß einem Vergleichsergebnis; und Bewegen der Fokussierlinse durch den Fokussierlinsen-Antriebsmotor (40) auf der Grundlage der bestimmten Bewegungsrichtung.
  6. Verfahren nach Anspruch 5, bei dem das Berechnen des Fokussierparameterwerts das Berechnen der Anzahl von Kantenmustern des Vollbilds und eines Durchschnitts der relativen Abstandswerte auf der Grundlage der empfangenen Kantenmuster-Typenwerte und der relativen Abstandswerte enthält, und der berechnete Fokussierparameterwert des Vollbilds zunimmt, wenn die berechnete Anzahl von Kantenmustern zunimmt und der Durchschnitt abnimmt.
DE102017223559.4A 2017-09-12 2017-12-21 Vorrichtung zum fokussieren einer kamera und steuerverfahren für diese Active DE102017223559B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2017-0116349 2017-09-12
KR1020170116349A KR101909022B1 (ko) 2017-09-12 2017-09-12 카메라 자동 초점 조절장치 및 방법

Publications (2)

Publication Number Publication Date
DE102017223559A1 DE102017223559A1 (de) 2019-03-14
DE102017223559B4 true DE102017223559B4 (de) 2021-06-24

Family

ID=64050874

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017223559.4A Active DE102017223559B4 (de) 2017-09-12 2017-12-21 Vorrichtung zum fokussieren einer kamera und steuerverfahren für diese

Country Status (3)

Country Link
US (1) US10129456B1 (de)
KR (1) KR101909022B1 (de)
DE (1) DE102017223559B4 (de)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11017288B2 (en) * 2017-12-18 2021-05-25 Intel Corporation Spike timing dependent plasticity in neuromorphic hardware
US11321618B2 (en) * 2018-04-25 2022-05-03 Om Digital Solutions Corporation Learning device, image pickup apparatus, image processing device, learning method, non-transient computer-readable recording medium for recording learning program, display control method and inference model manufacturing method
US20200084392A1 (en) * 2018-09-11 2020-03-12 Sony Corporation Techniques for improving photograph quality for poor focus situations
CN109949286A (zh) * 2019-03-12 2019-06-28 北京百度网讯科技有限公司 用于输出信息的方法和装置
CN110138943B (zh) * 2019-06-28 2021-10-08 Oppo广东移动通信有限公司 电子设备及摄像头的控制方法
CN110545384B (zh) * 2019-09-23 2021-06-08 Oppo广东移动通信有限公司 对焦方法和装置、电子设备、计算机可读存储介质
CN111223114B (zh) * 2020-01-09 2020-10-30 北京达佳互联信息技术有限公司 一种图像区域的分割方法、装置及电子设备
CN113742288A (zh) * 2020-05-29 2021-12-03 伊姆西Ip控股有限责任公司 用于数据索引的方法、电子设备和计算机程序产品
KR20210149542A (ko) * 2020-06-02 2021-12-09 삼성에스디에스 주식회사 이미지 촬영 및 판독 방법, 이를 위한 장치
US11381730B2 (en) * 2020-06-25 2022-07-05 Qualcomm Incorporated Feature-based image autofocus
WO2023063679A1 (en) * 2021-10-12 2023-04-20 Samsung Electronics Co., Ltd. Device and method for predicted autofocus on an object

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150358549A1 (en) * 2014-06-09 2015-12-10 Qualcomm Incorporated Image capturing parameter adjustment in preview mode
US20170054896A1 (en) * 2015-08-21 2017-02-23 Canon Kabushiki Kaisha Imaging apparatus, method for controlling the same, and storage medium storing program
DE102016118192A1 (de) * 2015-09-28 2017-03-30 Canon Kabushiki Kaisha Fokuserfassungsvorrichtung, Prädiktionsverfahren und zugehöriges Speichermedium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009069996A (ja) * 2007-09-11 2009-04-02 Sony Corp 画像処理装置および画像処理方法、認識装置および認識方法、並びに、プログラム
JP5206300B2 (ja) * 2008-10-09 2013-06-12 株式会社ニコン プログラム、カメラ、画像処理装置および画像の合焦度算出方法
KR20110118641A (ko) * 2009-01-29 2011-10-31 파나소닉 주식회사 화상 부호화 방법 및 화상 복호 방법
KR20170116349A (ko) 2016-04-11 2017-10-19 대우조선해양 주식회사 용접 이면부의 도장 손상 방지 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150358549A1 (en) * 2014-06-09 2015-12-10 Qualcomm Incorporated Image capturing parameter adjustment in preview mode
US20170054896A1 (en) * 2015-08-21 2017-02-23 Canon Kabushiki Kaisha Imaging apparatus, method for controlling the same, and storage medium storing program
DE102016118192A1 (de) * 2015-09-28 2017-03-30 Canon Kabushiki Kaisha Fokuserfassungsvorrichtung, Prädiktionsverfahren und zugehöriges Speichermedium

Also Published As

Publication number Publication date
KR101909022B1 (ko) 2018-10-17
US10129456B1 (en) 2018-11-13
DE102017223559A1 (de) 2019-03-14

Similar Documents

Publication Publication Date Title
DE102017223559B4 (de) Vorrichtung zum fokussieren einer kamera und steuerverfahren für diese
DE112009001727B4 (de) Bildverarbeitungsvorrichtung zum Berechnen eines optischen Flusses
DE102018116111A1 (de) Ein einheitliches tiefes faltendes neuronales Netzwerk für die Abschätzung von Freiraum, die Abschätzung der Objekterkennung und die der Objektstellung
DE102017220307B4 (de) Vorrichtung und Verfahren zum Erkennen von Verkehrszeichen
EP2584493B1 (de) Verfahren zur Unterscheidung zwischen einem realen Gesicht und einer zweidimensionalen Abbildung des Gesichts in einem biometrischen Erfassungsprozess
CN112862702B (zh) 图像增强方法、装置、设备及存储介质
DE102010020867A1 (de) Strassenform-Erkennungsvorrichtung
DE102006041645A1 (de) Verfahren und Vorrichtung zur Orientierungsbestimmung in einem Bild
DE102015005267A1 (de) Informationsverarbeitungsvorrichtung, Verfahren dafür und Messvorrichtung
DE102004004528A1 (de) Verfahren, Vorrichtung und Programm zur Verarbeitung eines Stereobildes
DE112016003912T5 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren und Programm
DE102014117120A1 (de) Bildverarbeitungsvorrichtung
Trouvé et al. Single image local blur identification
DE112013004103T5 (de) Verfahren und Vorrichtung zum Erzeugen einer Disparitätskarte
DE112016002229T5 (de) Bildverarbeitungsvorrichtung, bildaufnahmevorrichtung, bildverarbeitungsverfahren und speichermedium
DE102018100909A1 (de) Verfahren zum Rekonstruieren von Bildern einer Szene, die durch ein multifokales Kamerasystem aufgenommen werden
DE102017220752A1 (de) Bildverarbeitungsvorrichtung, Bildbverarbeitungsverfahren und Bildverarbeitungsprogramm
DE102019208216A1 (de) Detektion, 3D-Rekonstruktion und Nachverfolgung von mehreren relativ zueinander bewegten starren Objekten
CN111738071B (zh) 一种基于单目摄像机的运动变化的逆透视变换方法
CN113538545B (zh) 一种基于电液可调焦镜头的单目深度估计方法及相应的相机和存储介质
DE102012211961A1 (de) Verfahren und Vorrichtung zum Berechnen einer Veränderung eines Abbildungsmaßstabs eines Objekts
DE102017112333A1 (de) Verbesserung eines pyramidalen Optical-Flow-Trackers
DE3049397A1 (de) Verfahren und vorrichtung zum scharf-einstellen von fotographischen apparaten
DE102018123402A1 (de) Bildunschärfekorrekturvorrichtung und steuerverfahren
DE102020101444A1 (de) Ein Verfahren zum Detektieren sich bewegender Objekte

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R081 Change of applicant/patentee

Owner name: HL KLEMOVE CORP., KR

Free format text: FORMER OWNER: MANDO-HELLA ELECTRONICS CORPORATION, INCHEON, KR

R020 Patent grant now final
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0005232000

Ipc: H04N0023600000