DE102005060054B4 - Verfahren und Vorrichtung zum Verbessern des Dynamikbereichs eines Stereo-Vision-Systems - Google Patents

Verfahren und Vorrichtung zum Verbessern des Dynamikbereichs eines Stereo-Vision-Systems Download PDF

Info

Publication number
DE102005060054B4
DE102005060054B4 DE102005060054A DE102005060054A DE102005060054B4 DE 102005060054 B4 DE102005060054 B4 DE 102005060054B4 DE 102005060054 A DE102005060054 A DE 102005060054A DE 102005060054 A DE102005060054 A DE 102005060054A DE 102005060054 B4 DE102005060054 B4 DE 102005060054B4
Authority
DE
Germany
Prior art keywords
image
images
exposure level
exposure
disparity map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102005060054A
Other languages
English (en)
Other versions
DE102005060054A1 (de
Inventor
Jon K. Rredford Wallace
Yun Livonia Luo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Active Safety and Electronics US LLC
Original Assignee
TRW Automotive US LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TRW Automotive US LLC filed Critical TRW Automotive US LLC
Publication of DE102005060054A1 publication Critical patent/DE102005060054A1/de
Application granted granted Critical
Publication of DE102005060054B4 publication Critical patent/DE102005060054B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

Ein System (100) zum Erzeugen einer Stereo Disparity Map, welche den räumlichen Abstand korrespondierender Bildpunkt-Paare enthält und die ein abgebildetes Objekt darstellt, wobei das System Folgendes aufweist:
eine Vielzahl von Sensoren (102, 104), die jeweils funktionieren, um eine Vielzahl von Bildern zu erzeugen, die jeweilige assoziierte Belichtungspegel gemäß einem Belichtungspegel eines assoziierten Sensors besitzen;
eine Systemsteuerung (106), die Belichtungspegel für die Vielzahl von Bildern, die von jedem Sensor erzeugt wurden, gemäß einem Belichtungsselektionsalgorithmus bestimmt;
eine Verarbeitungskomponente (112) für die Disparity, die funktioniert, um eine Stereo Disparity Map, welche den räumlichen Abstand korrespondierender Bildpunkt-Paare enthält, aus einem ersten Bild, das mit einem ersten Sensor assoziiert ist, und einem zweiten Bild, das mit einem zweiten Sensor assoziiert ist, zu erzeugen; und
eine Bildfusionsvorrichtung (110), die funktioniert, um eine Vielzahl von Bildern, die mit einem Sensor aus der Vielzahl von Sensoren assoziiert sind, zu fusionieren, um ein zusammengesetztes Bild...

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung bezieht sich im Allgemeinen auf Stereosicht- bzw. Stereo-Vision-Systeme und bezieht sich insbesondere auf ein Verfahren und eine Vorrichtung zum Verbessern des Dynamikbereichs eines Stereosichtsystems. Die vorliegende Erfindung ist besonders nützlich bei Insassenrückhaltesystemen für die Objekt- und/oder Insassenklassifizierung.
  • Hintergrund der Erfindung
  • Betätigbare Insassenrückhaltesysteme, die einen aufblasbaren Airbag in einem Fahrzeug besitzen, sind in der Technik bekannt. Solche Systeme, die ansprechend darauf gesteuert werden, ob ein Sitz besetzt ist, ein Objekt auf dem Sitz belebt oder unbelebt ist, ein rückwärts gerichteter Kindersitz auf dem Sitz vorhanden ist und/oder ansprechend auf die Position, das Gewicht, die Größe etc. des Insassen, werden als intelligente Rückhaltesysteme bezeichnet. Ein Beispiel eines intelligenten betätigbaren Rückhaltesystems ist in US 5,330,226 A offenbart.
  • US 2003/0204384 A1 offenbart eine Hochleistungs-Sensorfusionsarchitektur für ein visions-basiertes System zum automatischen Detektieren eines Objekts innerhalb eines vorgegebenen Bereichs, wie beispielsweise des Typs eines Insassen innerhalb eines Fahrzeugs. Das System extrahiert verschiedene Merkmale, einschließlich Wavelet-Merkmalen und/oder eine Disparity Map, aus Bildern, die von Bildsensoren aufgenommen wurden. Diese Merkmale werden dann verarbeitet durch Klassifizierungsalgorithmen, um Klassenkonfidenzen für verschiedene Insassentypen zu erzeugen. Die Insassen-Klassenkofidenzen werden verschmolzen oder fusioniert und verarbeitet, um den Insassentyp zu bestimmen. In einem bevorzugten Ausführungsbeispiel werden Bildmerkmale aus Bildrändern, Wavelet-Merkmalen und Disparity verwenden. Die Verwendung der Disparity Map und/oder Wavelet-Merkmalen bietet eine bessere Rechnereffizienz.
  • US 5,179 441 A offenbart ein Fast-Echtzeit-Stereovisions-System zur Verwendung mit einem selbstfahrenden Fahrzeug, wobei das System Folgendes aufweist: zwei Kameras, die auf dreiachsigen Drehplattformen angebracht sind, Bildverarbeitungsplatinen, eine CPU sowie spezialisierte Stereovisionsalgorithmen. Bandpass-gefilterte Bildpyramiden werden berechnet, Stereo-Matching wird durchgeführt durch Korrelation der kleinsten Quadrate, und Konfidenz-Bereiche werden anhand des Bayes-Theorems geschätzt. Insbesondere werden Laplace'sche Bildpyramiden gebaut und Disparity Maps werden aus dem 60 × 64 Pegel der Pyramiden mit Raten von bis zu 2 Sekunden pro Bildpaar erzeugt.
  • Die Effektivität der Steueralgorithmen für intelligente Insassenrückhaltesysteme kann erhöht werden durch das Liefern von rauschfreien Bildern mit hohem Dynamikbereich an das Steuersystem. Zu diesem Zweck verwenden einige Abbildungssysteme eine Mehrfach-Integrationstechnologie (multiple slope technology), um den intraszenischen Dynamikbereich eines assoziierten Bildsensors zu erhöhen. Ein Komprimierungsschema wird verwendet, um die zusätzliche Information, die den erweiterten Dynamikbereich repräsentiert, in die gleiche Anzahl von Bits pro Pixel einzufügen. Diese Komprimierung resultiert in einem Verlust des Bildkontrasts, was eine negative Auswirkung auf den Betrieb des Steueralgorithmus haben kann.
  • Zusammenfassung der Erfindung
  • Gemäß einem Aspekt der vorliegenden Erfindung ist ein System zum Herstellen einer Stereo Disparity Map, welche den räumlichen Abstand korrespondierender Bildpunkt-Paare enthält, vorgesehen, die ein abgebildetes Objekt repräsentiert. Eine Vielzahl von Sensoren funktioniert, um eine Vielzahl von Bildern herzustellen. Jedes Bild besitzt eine assoziierte Belichtung gemäß einem assoziierten Belichtungspegel eines assoziierten Sensors. Eine Systemsteue rung bestimmt die Belichtungspegel für die Vielzahl der Sensoren gemäß einem Belichtungsselektionsalgorithmus. Eine Verarbeitungskomponente für die Disparity funktioniert, um aus einer Vielzahl von Bildern eine Stereo Disparity Map, welche den räumlichen Abstand korrespondierender Bildpunkt-Paare enthält, zu erzeugen. Eine Bildfusionsvorrichtung funktioniert, um eine Vielzahl von Bildern zu fusionieren bzw. zu verschmelzen, um ein zusammengesetztes Bild mit einem erhöhten Dynamikbereich herzustellen.
  • Gemäß einem weiteren Aspekt der vorliegenden Erfindung ist ein Verfahren vorgesehen zum Erzeugen einer Stereo Disparity Map, welche den räumlichen Abstand korrespondierender Bildpunkt-Paare enthält und die einen vergrößerten Dynamikbereich besitzt. Ein erster Belichtungspegel wird für einen ersten Bildsatz gemäß einem Belichtungsselektionsalgorithmus bestimmt. Der erste Bildsatz wird mit dem bestimmten ersten Belichtungspegel erzeugt. Eine erste Stereo Disparity Map, welche den räumlichen Abstand korrespondierender Bildpunkt-Paare enthält, mit einem assoziierten Dynamikbereich wird aus dem ersten Bildsatz erzeugt. Ein zweiter Belichtungspegel wird für einen zweiten Bildsatz gemäß dem Belichtungsselektionsalgorithmus bestimmt. Der zweite Bildsatz wird mit dem bestimmten zweiten Belichtungspegel erzeugt. Eine zweite Stereo Disparity Map, welche den räumlichen Abstand korrespondierender Bildpunkt-Paare enthält, mit einem assoziierten Dynamikbereich wird aus dem zweiten Bildsatz erzeugt. Die erste Stereo Disparity Map und die zweite Stereo Disparity Map werden verschmolzen, um eine zusammengesetzte Stereo Disparity Map mit einem effektiven Dynamikbereich herzustellen, der größer als jeder der assoziierten Dynamikbereiche der ersten Stereo Disparity Map und der zweiten Stereo Disparity Map ist.
  • Gemäß noch einem weiteren Aspekt der vorliegenden Erfindung ist ein Verfahren zum Erzeugen einer Stereo Disparity Map, welche den räumlichen Abstand korrespondierender Bildpunkt-Paare enthält, mit einem vergrößerten Dynamikbereich vorgesehen. Ein erwünschter Belichtungspegel wird für jedes aus einer Vielzahl von Bildern bestimmt. Die Vielzahl der Bilder umfasst einen ersten Satz von Bildern und einen zweiten Satz von Bildern. Jedes aus der Vielzahl von Bildern wird mit dem erwünschten Belichtungspegel erzeugt. Der erste Satz von Bildern wird verschmolzen, um ein erstes zusammengesetztes Bild zu erzeugen. Der zweite Satz Bilder wird verschmolzen, um ein zweites, zusammengesetztes Bild zu erzeugen. Eine Stereo Disparity Map wird aus dem ersten zusammengesetzten Bild und dem zweiten zusammengesetzten Bild erzeugt.
  • Kurze Beschreibung der Zeichnungen
  • Die vorangegangenen und andere Merkmale und Vorteile der vorliegenden Erfindung werden Fachleuten des Gebietes, auf das sich die vorliegende Erfindung bezieht, beim Lesen der folgenden Beschreibung mit Bezugnahme auf die begleitenden Zeichnungen offensichtlich werden, in denen zeigt:
  • 1 eine schematische Darstellung eines betätigbaren Rückhaltesystems gemäß einem exemplarischen Ausführungsbeispiel der vorliegenden Erfindung;
  • 2 eine schematische Darstellung einer Stereo-Kameraanordnung zum Gebrauch mit der vorliegenden Erfindung, um die Position eines Insassenkopfes zu bestimmen;
  • 3 ein Stereo-Abbildungssystem mit verbessertem Dynamikbereich gemäß einem Aspekt der vorliegenden Erfindung;
  • 4 eine Darstellung eines erstes beispielhaften Abbildungssystems gemäß einem Aspekt der vorliegenden Erfindung;
  • 5 eine Darstellung eines zweiten beispielhaften Abbildungssystems gemäß einem Aspekt der vorliegenden Erfindung;
  • 6 ein Flussdiagramm einer ersten beispielhaften Methodik zum Erzeugen einer Stereo Disparity Map mit vergrößertem Dynamikbereich gemäß einem Aspekt der vorliegenden Erfindung;
  • 7 ein Flussdiagramm einer zweiten beispielhaften Methodik zum Erzeugen einer Stereo Disparity Map mit vergrößertem Dynamikbereich, gemäß der vorliegenden Erfindung;
  • 8 eine Darstellung eines ersten beispielhaften Belichtungsselektionsalgorithmus gemäß einem Aspekt der vorliegenden Erfindung; und
  • 9 eine Darstellung eines zweiten beispielhaften Belichtungsselektionsalgorithmus gemäß einem Aspekt der vorliegenden Erfindung.
  • Beschreibung eines bevorzugten Ausführungsbeispiels
  • Mit Bezug auf 1 umfasst ein exemplarisches Ausführungsbeispiel eines betätigbaren Insassenrückhaltesystems 20 gemäß der vorliegenden Erfindung eine Airbaganordnung 22, die in einer Öffnung eines Armaturenbretts oder Instrumentenbretts 24 eines Fahrzeugs 26 angebracht ist. Die Airbaganordnung 22 umfasst einen Airbag 28, der gefaltet und in dem Inneren eines Airbaggehäuses 30 gelagert ist. Eine Abdeckung 32 deckt den gelagerten Airbag ab und ist angepasst, um sich beim Aufblasen des Airbags 28 leicht zu öffnen.
  • Die Airbaganordnung 22 umfasst ferner einen Gassteuerteil 34, der betriebsmäßig mit dem Airbag 28 gekoppelt ist. Der Gassteuerteil 34 kann eine Vielzahl von Gasquellen (nicht gezeigt) und Ablassventilen (nicht gezeigt) umfassen, um bei individueller Steuerung das Aufblasen des Airbags zu steuern, z. B. die Zeitsteuerung, Gasströmung, Airbagprofil als eine Funktion von Zeit, Gasdruck etc. Im aufgeblasenen Zustand kann der Airbag 28 beim Schutz eines Insassen 40, beispielsweise eines Fahrzeugbeifahrers, helfen, der auf einem Fahrzeugsitz 42 sitzt. Obwohl das Ausführungsbeispiel der 1 mit Bezug auf einen Fahrzeugbeifahrersitz beschrieben ist, ist es auf einen Fahrzeugfahrersitz und Rücksitze und deren assoziierte betätigbare Rückhaltesysteme anwendbar. Die vorliegende Erfindung ist ebenfalls anwendbar auf die Steuerung von betätigbaren Seitenrückhalteeinrichtungen und auf betätigbare Einrichtungen, die ansprechend auf Fahrzeugüberschlagsereignisse einsetzbar sind.
  • Eine Airbagsteuervorrichtung 50 ist betriebsmäßig mit der Airbaganordnung 22 verbunden, um den Gassteuerteil 34 und wiederum das Aufblasen des Air bags 28 zu steuern. Die Airbagsteuervorrichtung 50 kann irgendeine von mehreren Formen annehmen, beispielsweise von einem Mikrocomputer, eine diskreten Schaltung, einer anwendungsspezifischen, integrierten Schaltung („ASIC") etc. Die Steuervorrichtung 50 ist ferner mit einem Fahrzeugzusammenstoßsensor 52 verbunden, wie zum Beispiel einem oder mehr Fahrzeugzusammenstoßbeschleunigungsmessern. Die Steuervorrichtung überwacht das Ausgangssignal (die Ausgangssignale) von dem Zusammenstoßsensor 52 und bestimmt gemäß einem Airbagsteueralgorithmus, der einen Einsatzsteueralgorithmus verwendet, ob ein Einsatzereignis auftritt, d. h. eines, für das es wünschenswert ist, den Airbags 28 einzusetzen. Es gibt mehrere bekannte Einsatzsteueralgorithmen, die ansprechend sind auf ein Einsatzereignissignal (Einsatzereignissignale), die als Teil der vorliegenden Erfindung verwendet werden können. Sobald die Steuervorrichtung 50 bestimmt, dass ein Einsatzereignis auftritt, wobei sie beispielsweise einen ausgewählten Zusammenstoßanalysealgorithmus verwendet, und wenn bestimmte andere Insassenkenngrößenzustände erfüllt sind, steuert die Steuervorrichtung 50 das Aufblasen des Airbags 28 unter Verwendung des Gassteuerteils 34, z. B. Zeitsteuerung, Gasströmungsrate, Gasdruck, Airbagprofil als eine Funktion der Zeit etc.
  • Das Airbagrückhaltesystem 20 umfasst gemäß der vorliegenden Erfindung ferner eine Stereo-Vision-Anordnung 60. Die Stereo-Vision-Anordnung 60 umfasst Stereokameras 62, die vorzugsweise an der Innenauskleidung im Kopfbereich 64 des Fahrzeugs 26 angebracht sind. Die Stereo-Vision-Anordnung 60 umfasst eine erste Kamera 70 und eine zweite Kamera 72, die beide mit einer Kamerasteuervorrichtung 80 verbunden sind. Gemäß einem exemplarischen Ausführungsbeispiel der vorliegenden Erfindung sind die Kameras 70, 72 ungefähr 35 Millimeter („mm") voneinander beabstandet, obwohl ein anderer Abstand verwendet werden kann. Die Kameras 70, 72 sind parallel zu der Längsachse des Fahrzeugs angeordnet, obwohl andere Ausrichtungen möglich sind.
  • Die Kamerasteuervorrichtung 80 kann irgendeine von mehreren Formen annehmen, beispielsweise von einem Mikrocomputer, einer diskreten Schaltung, einem ASIC etc. Die Kamerasteuervorrichtung 80 ist mit der Airbagsteuervorrichtung 50 verbunden und liefert ein Signal an die Airbagsteuervorrichtung 50, um Daten vorzusehen, die in Bezug zu verschiedenen Bildkenngrößen der Insassensitzfläche stehen, die von einem leeren Sitz, einem Objekt auf dem Sitz, einem menschlichen Insassen etc. reichen. Hierin werden Bilddaten der Sitzfläche im Allgemeinen als Insassendaten bezeichnet, die alle belebten und unbelebten Objekte umfassen, die die Insassensitzfläche besetzen könnten. Der Airbagsteueralgorithmus, der mit der Steuervorrichtung 50 assoziiert ist, kann für die gelieferten Bilddaten empfindlich gemacht werden. Zum Beispiel, wenn die gelieferten Bilddaten anzeigen, dass der Insasse 40 ein Objekt ist, beispielsweise eine Einkaufstasche, und nicht ein Mensch, dann wäre eine Betätigung des Airbags während eines Zusammenstoßereignisses sinnlos. Demgemäß kann die Airbagsteuervorrichtung 50 eine Mustererkennungsklassifizierungsanordnung 54 umfassen, die betätigbar ist, um zwischen einer Vielzahl von Insassenklassen zu unterscheiden, und zwar basierend auf den Bilddaten, die durch die Kamerasteuervorrichtung 80 vorgesehen werden, die dann wiederum verwendet werden können, um den Airbag zu steuern.
  • 2 ist eine schematische Darstellung der Kameras 70 und 72 der Abbildungseinrichtung. Die Kameras 70 und 72 können von irgendeinem von mehreren bekannten Typen sein. Zum Beispiel können die Kameras ladungsgekoppelte Einrichtungen („CCD” = charge coupled devices) oder komplementäre Metalloxid-Halbleiter- bzw. CMOS-Einrichtungen („CMOS” = complementary metal Oxide semiconductor) sein. Vorzugsweise machen die Kameras 70 und 72 zweidimensionale Graustufenbilder des Fahrgastraums des Fahrzeugs 26. In einem exemplarischen Ausführungsbeispiel der vorliegenden Erfindung sind die Kameras 70 und 72 Kameras mit breitem Ansprechspektrum, die sichtbare und nah-infrarote Spektren abdecken.
  • Die Kameras 70 und 72 sind voneinander beabstandet, um es zu ermöglichen, dass die Kameras verwendet zu werden, um eine Entfernung bzw. einen Abstand, auch als „Bereich" bezeichnet, von den Kameras zu einem Objekt zu bestimmen. Das Objekt ist schematisch in 2 gezeigt und ist durch das Bezugszeichen 94 angezeigt. Der Abstand zwischen den Kameras 70 und 72 und dem Objekt 94 kann durch Verwendung der Triangulation bestimmt werden. Die Kameras 70 und 72 besitzen unterschiedliche Ansichten des Fahrgastraums, da die Position des Objekts 94 relativ zu jeder Kamera 70 und 72 unterschiedlich ist. Daraus resultierend ist das Objekt 94 an einer unterschiedlichen Position in dem Bild gelegen, das durch die Kamera 70 erhalten wurde, als in dem Bild, das durch die Kamera 72 erhalten wurde. Die Differenz in den Positionen des Objekts 94 in den Bildern wird als „Disparity" bezeichnet. Um eine zweckmäßige Disparity zwischen den Bildern zum Ausführen der Triangulation zu erhalten, ist es wünschenswert, die Kameras 70 und 72 so anzuordnen, dass sich das zu überwachende Objekt 94 innerhalb des Sichtfelds oder Horopters der Kameras befindet.
  • Kamera 70 umfasst eine Linse 100 und eine Pixelmatrix 110. Ebenso umfasst Kamera 72 eine Linse 102 und eine Pixelmatrix 112. Da die Kameras 70 und 72 an unterschiedlichen Positionen relativ zu dem Objekt 94 gelegen sind, unterscheidet sich ein Bild des Objekts 94, das auf der Pixelmatrix 110 der Kamera 70 gebildet ist, von einem Bild des Objekts 94, das auf der Pixelmatrix 112 der Kamera 72 gebildet ist. Der Abstand zwischen den Standpunkten der Kameras 70 und 72, d. h. der Abstand zwischen den Linsen 100 und 102, ist in 2 als „b" bezeichnet. Die Brennweite der Linsen 100 und 102 der Kameras 70 und 72 ist in 2 als „f" bezeichnet. Die Linsen 100 und 102 der Kameras 70 und 72 der 2 besitzen die gleichen Brennweiten. Der horizontale Abstand von der Bildmitte auf der Pixelmatrix 110 und dem Bild des Objekts 94 auf der Pixelmatrix 110 der Kamera 70 ist in 2 als „dl" bezeichnet. Der horizontale Abstand von der Bildmitte auf der Pixelmatrix 112 und dem Bild des Objekts 94 auf der Pixelmatrix 112 der Kamera 72 ist in 2 als „dr" bezeichnet. Vorzugsweise sind die Kameras 70 und 72 so angebracht, dass sie sich in der gleichen Bildebene befinden. Die Differenz zwischen dl und dr wird als die „Bild-Disparity" bezeichnet und steht direkt in Bezug zu dem Abstand, der in 2 als „r" bezeichnet wird, zu dem Objekt 94, wo der Abstand r senkrecht zu der Bildebene der Kameras 70 und 72 von einer Stelle v auf der Bildebene gemessen wird. Es wird erkannt werden, dass r = bf/d, wobei d = dl – dr. (Gleichung 1)
  • Aus der Gleichung 1 kann der Abstand r von dem Gegenstand 94 als eine Funktion der Disparity der Bilder von den Kameras 70 und 72 bestimmt werden. Es sollte erkannt werden, dass der Abstand r eine umgekehrte Funktion der Disparity ist.
  • Mit Bezug auf 3 ist ein Stereo-Abbildungssystem 100 mit einem verbesserten dynamischen Bereich gezeigt. Das System 100 umfasst eine Vielzahl von Bildsensoren 102 und 104, von denen jeder betätigbar ist, um ein zweidimensionales Bild von einem gewünschten Objekt zu erzeugen. Es wird erkannt werden, dass die Sensoren irgendeine geeignete Konstruktion für eine vorgegebene Anwendung besitzen können und ein Objekt aus reflektierter Infrarot-, Ultraviolett- und anderen elektromagnetischen Strahlungen ebenso wie Licht in dem für Menschen sichtbaren Spektrum abbilden können. Die Sensoren 102 und 104 sind in einem erwünschten Abstand voneinander beabstandet, um es zu ermöglichen, dass die Kameras für die Stereobilderzeugung verwendet werden. Die Sensoren 102 und 104 können durch eine Systemsteuerung 106 konfiguriert sein, um ein Belichtungspegel einzustellen, das mit jedem Sensor (z. B. 102) assoziiert ist. Es wird erkannt werden, dass der Belichtungspegel auf verschiedene Art und Weise eingestellt werden kann, einschließlich einer wirklichen Veränderung der Belichtungszeit, die für ein vorgegebenes Bild mit dem Sensor assoziiert ist, oder einer Erhöhung der Verstärkung von jedem Pixel in dem Bild. Es wird verstanden werden, dass die Belichtung für jeden Sensor (z. B. 102) dynamisch durch die Systemsteuerung 106 eingestellt werden kann, so dass jeder Sensor Bilder mit unterschiedlichen Auflösungsniveaus erzeugen kann.
  • Zahlreiche Bilder können an jedem Sensor (z. B. 102) mit einer Vielzahl von unterschiedlichen Belichtungseinstellungen erzeugt werden und die Bilder können in einem Systemspeicher 108 gespeichert werden. Es wird erkannt werden, dass durch das Aufnehmen der Vielzahl von Bildern über einen rela tiv kurzen Zeitabschnitt zeitliche Effekte (z. B. Bewegung des Objekts, Lichtveränderungen etc.) auf den gesamten Bildern, die von jedem Sensor gemacht wird, minimiert werden können. Auf die gespeicherten Bilder kann von einer Bildfusionsvorrichtung 110 und einer Verarbeitungskomponente 112 für die Disparity zugegriffen werden. Die Bildfusionsvorrichtung 110 kann mehrere Bilder kombinieren, die mit einem einzelnen Sensor assoziiert sind, um ein neues Bild mit einem erhöhten Dynamikbereich zu erzeugen. Das neue Bild kann in dem Speicher 108 zur späteren Verarbeitung gespeichert werden. Die Verarbeitungskomponente 112 für die Disparity kann zwei Bilder nehmen, von denen jedes einem unterschiedlichen Sensor zugeordnet ist, um eine Stereo Disparity Map, welche den räumlichen Abstand korrespondierender Bildpunkt-Paare enthält, herzustellen. Die neu erzeugte Stereo Disparity Map kann ebenfalls zur späteren Verarbeitung in dem Speicher gespeichert werden.
  • Die Bildfusionsvorrichtung 110 kann irgendeine geeignete Einrichtung aufweisen, um zwei Bilder zu kombinieren, um ihren assoziierten Dynamikbereich zu erhöhen. Zum Beispiel kann die Bildfusionsvorrichtung n Bilder verschmelzen durch Ausführung einer gewichteten Pixel-für-Pixel-Kombination einer Funktion der Intensität bzw. Helligkeit von jedem Pixel, so dass gilt: Im = w1f1(I1) + w2f2(I2) + ... + wnfn(In) (Gleichung 2)wobei Im der kombinierte Intensitäts- bzw. Helligkeitswert ist, wx ein Gewichtungswert, der mit einem vorgegebenen Bild x von n Bildern assoziiert ist, fx(Ix) eine Funktion der Helligkeit eines Pixels aus einem vorgegebenen Bild x aus n Bildern ist.
  • Es wird erkannt werden, dass die Bildfusionsvorrichtung 110 einen Satz von Bildern von einem vorgegebenen Sensor mit variierenden Belichtungspegeln kombinieren kann, um ein verbessertes Bild zu erzeugen, das mit dem vorgegebenen Sensor assoziiert ist, ebenso wie einen Satz in Bezug stehender (z. B. erzeugt von dem gleichen Paar der zwei Sensoren) Stereo Disparity Maps, welche den räumlichen Abstand korrespondierender Bildpunkt-Paare enthal ten, die durch die Verarbeitungskomponente 112 für die Disparity erzeugt wurden.
  • Die Verarbeitungskomponente 112 für die Disparity kann Bilder aus einem Satz von zwei oder mehr Sensoren kombinieren, um eine Stereo Disparity Map zu erzeugen, die mit zwei oder mehr Sensoren assoziiert ist, wie oben in 2 beschrieben. Gemäß einem Aspekt der vorliegenden Erfindung kann der Satz von Bildern ausgewählt werden, um den gleichen Belichtungspegel zu besitzen, so dass die Stereo Disparity Map einen assoziierten, gleichförmigen Belichtungspegel besitzt.
  • 4 stellt ein erstes exemplarisches Abbildungssystem 150 gemäß einem Aspekt der vorliegenden Erfindung dar. Das System 152 umfasst zwei Kameras 152 und 154, die funktionieren, um ein zweidimensionales Bild eines erwünschten Objekts zu erzeugen. Zum Beispiel können die Kameras konfiguriert sein, um die Besetzung oder Beladung eines Fahrzeugsitzes als Teil eines Steuersystems für ein betätigbares intelligentes Rückhaltesystem abzubilden. Die Kameras sind voneinander beabstandet, um zuzulassen, dass ihre Ausgangsgröße bei der Stereobilderzeugung, wie in 2 beschrieben, verwendet wird.
  • Die Kameras sind betriebsmäßig mit einer Systemsteuerung 156 verbunden. Die Systemsteuerung 156 reguliert einen Belichtungs- oder Verstärkungspegel, der mit den Kameras 152 und 154 assoziiert ist, so dass das durch die Kameras erzeugte Bild einen erwünschten Belichtungspegel aufweisen wird. In dem dargestellten Beispiel setzt die Systemsteuerung 156 die Belichtung bei den zwei Kameras 152 und 154 auf einen gemeinsamen, erwünschten Belichtungspegel gemäß einem assoziierten Belichtungsselektionsalgorithmus. Das System führt dann die Kameras 152 und 154, um ein Bild des Objekts zu erzeugen. Diese Schritte können mehrere Male über ein kurzes Intervall wiederholt werden, um eine Serie von Bildpaaren mit unterschiedlichen Auflösungsniveaus zu erzeugen.
  • In dem dargestellten Ausführungsbeispiel kann die Serie von Bildpaaren an einen Speicher 158 geliefert werden, wo sie von einer Bildanalysekomponente 160 abgerufen werden können. Die Bildanalysekomponente 160 evaluiert jedes Bildpaar, um die Prävalenz oder das Vorhandensein dunkler und gesättigter Bereiche in dem Bildpaar zu bestimmen. Ein dunkler Bereich ist ein Bereich, in dem sich mindestens ein festgelegter Prozentsatz der Pixel unterhalb eines ersten Schwellenwertes der Intensität oder Helligkeit befindet. Umgekehrt ist ein gesättigter Bereich ein Bereich des Bildes, in dem sich mindestens ein festgelegter Prozentsatz der Pixel über einem zweiten Helligkeitsschwellenpegel befindet. Der festgelegte Prozentsatz für einen vorgegebenen Bereich wird im Allgemeinen hoch sein und für einige Anwendungen kann der festgelegte Prozentsatz einhundert Prozent betragen. Es wird erkannt werden, dass die Anwesenheit dunkler oder gesättigter Bereiche in einem Bild einen Verlust von Information in dem Bild anzeigen kann. Die Bildanalysekomponente 160 berechnet Statistiken, die mit den dunklen und gesättigten Bereichen assoziiert sind, und liefert die Information an die Systemsteuerung 156. Die Systemsteuerung 156 kann die Statistiken als Feedback für den Belichtungssteueralgorithmus verwenden, um die Belichtung der Kameras 152 und 154 zu steuern.
  • Die Bildpaare werden dann an eine Verarbeitungskomponente 162 für die Disparity geliefert, die eine Serie von Stereo Disparity Maps erzeugt, wobei jede einen assoziierten Belichtungspegel von der Serie der Bildpaare besitzt. Die Serie der Stereo Disparity Maps kann dann an eine Bildfusionsvorrichtung 164 geliefert werden. Die Bildfusionsvorrichtung 164 kombiniert die Serie von Stereo Disparity Maps, um eine einzelne Stereo Disparity Map zu erzeugen, die einen verbesserten Dynamikbereich besitzt.
  • 5 stellt ein zweites exemplarisches Abbildungssystem 200 gemäß einem Aspekt der vorliegenden Erfindung dar. Das System 202 umfasst zwei Kameras 202 und 204, die funktionieren, um ein zweidimensionales Bild eines erwünschten Objekts zu erzeugen. Zum Beispiel können die Kameras konfiguriert sein, um die Besetzung oder Beladung eines Fahrzeugsitzes als Teil ei nes Airbagsteuersystems abzubilden. Die Kameras sind voneinander beabstandet, so dass ihre Ausgangsgrößen bei der Stereobilderzeugung, wie in 2 beschrieben, verwendet werden können.
  • Die Kameras sind betriebsmäßig mit einer Systemsteuerung 206 verbunden. Die Systemsteuerung 206 reguliert einen Belichtungs- oder Verstärkungspegel, der den Kameras 202 und 204 zugeordnet ist, so dass das Bild, das durch die Kamera erzeugt wird, einen erwünschten Belichtungspegel aufweist. In dem dargestellten Beispiel stellt die Systemsteuerung 206 die Belichtung von jeder der zwei Kameras 202 und 204 auf einen erwünschten Belichtungspegel gemäß einem assoziierten Belichtungsselektionsalgorithmus ein. Es wird erkannt werden, dass der Belichtungspegel jeder Kamera 202 und 204 unabhängig verändert werden kann gemäß dem Feedback von den assoziierten Bildanalysesystemen 208 und 210. Die Systemsteuerung 206 steuert die Kameras 202 und 204, um ein Bild von dem Objekt zu erzeugen. Diese Stufen können mehrere Male über ein kurzes Intervall wiederholt werden, um eine Serie von Bildern zu erzeugen, die variierende Auflösungsniveaus für jede Kamera besitzen.
  • In dem dargestellten Ausführungsbeispiel können die Bilder, die bei jeder der Kameras 204 und 206 erzeugt werden, an jeweilige Speicher 212 und 214 geliefert werden. Die gespeicherten Bilder können durch die Bildanalysekomponente (z. B. 208), die jeder Kamera zugeordnet ist, evaluiert werden, um die Prävalenz oder das Vorhandensein von dunklen und gesättigten Bereichen in den Bildern zu bestimmen. Die Bildanalysekomponenten 208 und 210 berechnen Statistiken, die mit den dunklen und gesättigten Bereichen assoziiert sind, und liefern die Information an die Systemsteuerung 206. Die Systemsteuerung 206 kann die Statistiken als Feedback an den Belichtungssteueralgorithmus verwenden, um die Belichtung jeder der Kameras 202 und 204 zu steuern.
  • Gemäß einem Aspekt der Erfindung kann der Betrieb des Belichtungssteueralgorithmus ein Einstellen des Belichtungspegels umfassen, das einer vorgegebenen Kamera bei einem vorbestimmten Maximalpegel zugeordnet ist. Ein Bild wird dann von der vorgegebenen Kamera gemacht und an die Bildanalysekomponente 208 geliefert. Die Bildanalysekomponente 208 evaluiert das Bild auf gesättigte Bereiche. Wenn die Fläche der gesättigten Bereiche zu groß ist, kann die Systemsteuerung 206 die Kamera steuern, ein anderes Bild mit einem reduzierten Belichtungspegel zu machen. Dieses Bild wird dann von der Bildanalysekomponente evaluiert, obwohl die Evaluation auf die Sättigungsbereiche des vorherigen Bildes begrenzt ist. Dieses Vorgehen wird wiederholt bis die Fläche der gesättigten Bereiche ein akzeptables Niveau erreicht.
  • Sobald eine geeignete Reihe von Bildern von jeder Kamera (z. B. 202) erzeugt wurde, kann die Bilderreihe an jeweiligen Bildfusionsvorrichtungen 216 und 218 kombiniert werden. Jede Bildfusionsvorrichtung (z. B. 216) erzeugt ein zusammengesetztes Bild, das einen Dynamikbereich besitzt, der größer ist als der seiner einzelnen Bilder. In einem exemplarischen Ausführungsbeispiel berechnet eine vorgegebene Bildfusionsvorrichtung (z. B. 216) einen Pixelhelligkeitswert für das zusammengesetzte Bild gemäß der Summe der gewichteten Funktionen der Helligkeitswerte korrespondierender Pixel einer gesamten Serie von Bildern. Es wird jedoch erkannt werden, dass die Fusion der Bilder auf eine Vielzahl von Art und Weisen erreicht werden kann. Zum Beispiel können die Bilder stückweise kombiniert werden, um dunkle oder gesättigte Bereiche in einem vorgegebenen Bild zu korrigieren. Die zusammengesetzten Bilder von den Bildfusionsvorrichtungen 216 und 218 werden dann an eine Verarbeitungskomponente 220 für die Disparity geliefert, die eine Stereo Disparity Map aus den zwei zusammengesetzten Bildern erzeugt. Es wird erkannt werden, dass die resultierende Stereo Disparity Map einen verbesserten Dynamikbereich besitzt infolge des verbesserten Dynamikbereichs der zusammengesetzten Bilder.
  • 6 ist ein Flussdiagramm einer beispielhaften Methodik 250 zum Erzeugen einer Stereo Disparity Map, welche den räumlichen Abstand korrespondierender Bildpunkt-Paare enthält, mit einem verbesserten Dynamikbereich. Obwohl serielle und parallele Verarbeitung gezeigt ist, ist das Flussdiagramm nur zum Zweck der Erklärung gegeben und die Reihenfolge der Schritte und die Verarbeitungstypen können sich von dem gezeigten unterscheiden. Die dargestellte Methodik 250 ist beschrieben als zwei Kameras benutzend, aber es wird erkannt werden, dass die Methodik gemäß einem Aspekt der vorliegenden Erfindung von einer Eingabegröße von mehr als zwei Kameras Gebrauch machen kann.
  • Die Methodik beginnt bei Schritt 252, wo ein Anfangsbelichtungspegel für ein Kamerapaar gemäß einem assoziierten Belichtungsselektionsalgorithmus bestimmt wird. Zum Beispiel kann der Anfangsbelichtungspegel für die Kameras als eine Funktion von einem oder mehreren Belichtungspegeln bestimmt werden, die für eine vorherige Stereo Disparity Map bestimmt wurde. Alternativ kann ein vorbestimmter, konstanter Anfangsbelichtungspegel verwendet werden. Sobald der Anfangsbelichtungspegel bestimmt wurde, schreitet die Methodik zu Schritt 254 voran, wo ein Bild von jeder Kamera mit dem vorbestimmten Belichtungspegel gemacht wird, um ein Bildpaar zu erzeugen.
  • Bei Schritt 256 wird das Bildpaar im Speicher gespeichert. Das Bildpaar wird dann bei Schritt 258 evaluiert, um zu bestimmen, ob das Bildpaar eine unakzeptable Menge dunkler und gesättigter Bereiche enthält. Zum Beispiel kann bestimmt werden, ob die Fläche in den Bildern, die den gesättigten oder dunklen Bereichen zugeordnet ist, einen bestimmten Prozentsatz der Gesamtfläche überschreitet. Die Analyse kann auf einen interessierenden Bereich in dem Bild begrenzt werden, um die Gesamtmenge der Verarbeitung zu reduzieren. Wenn das Bildpaar eine unakzeptable Fläche dunkler und gesättigter Bereiche enthält, schreitet die Methodik zu Schritt 260 voran, um einen neuen Belichtungspegel für die Kameras gemäß einem Belichtungsselektionsalgorithmus zu bestimmen. Zum Beispiel kann der neue Belichtungspegel für die Kamera als eine Funktion der Differenz zwischen einem Durchschnittssättigungsniveau über dem evaluierten Bereich des Bildes und einem erwünschten Durchschnittssättigungsniveau für den Bereich bestimmt werden.
  • Die Methodik kehrt dann zu Schritt 254 zurück, wo ein neues Bildpaar erzeugt wird. Dies wird zusammen mit dem Originalbildpaar von Schritt 256 gespeichert und das neue Bildpaar wird bei Schritt 258 evaluiert. In einem exemplarischen Ausführungsbeispiel werden nur die Flächen in dem Bildpaar, die den dunklen und gesättigten Bereichen in dem vorherigen Bildpaar entsprechen, evaluiert. Diese Schritte werden wiederholt, bis ein erwünschtes Niveau an dunklen und gesättigten Bereichen erreicht ist.
  • Sobald ein Bildpaar einen annehmbaren Anteil an dunklen und gesättigten Bereichen besitzt, schreitet die Methodik zu Schritt 262 voran. Bei Schritt 262 wird jedes der gespeicherten Bildpaare kombiniert, um eine Vielzahl von Stereo Disparity Maps zu bilden. Es wird erkannt werden, dass jede Stereo Disparity Map eine assoziierte Belichtung besitzt, basierend auf dem Belichtungspegel, das bei der Erzeugung der Bilder verwendet wurde. Bei Schritt 264 werden die Stereo Disparity Maps in eine kombinierte Stereo Disparity Map verschmolzen, die einen verbesserten Dynamikbereich besitzt. Dies kann durch irgendeinen aus einer Anzahl von Fusionsalgorithmen erreicht werden, die die verschiedenen Stereo Disparity Maps effektiv kombinieren, während sie den gesamten Dynamikbereich, der durch die Vielzahl der Stereo Disparity Maps repräsentiert wird, erhalten.
  • 7 ist ein Flussdiagramm einer beispielhaften Methodik 300 zum Erzeugen einer Stereo Disparity Map, welche den räumlichen Abstand korrespondierender Bildpunkt-Paare enthält, mit einem verbesserten Dynamikbereich. Obwohl eine serielle und parallele Verarbeitung gezeigt ist, ist das Flussdiagramm nur zum Zweck der Erklärung vorgegeben und die Reihenfolge der Schritte und die Typen der Verarbeitung können von den gezeigten variieren. Während einige Schritte (z. B. 320 und 322) als parallel arbeitend gezeigt sind, um die Darstellung zu erleichtern, können diese Schritte in einigen Implementierungen der Erfindung in Serie ausgeführt werden. Die dargestellte Methodik 300 wird als zwei Kameras benutzend beschrieben, aber es wird erkannt werden, dass die Methodik gemäß einem Aspekt der vorliegenden Erfindung von der Eingabe von mehr als zwei Kameras Gebrauch machen kann.
  • Die Methodik beginnt bei Schritt 302, wo ein Anfangsbelichtungspegel bestimmt wird für jede von einer Vielzahl von Kameras gemäß jeweiligen assoziierten Belichtungsauswahlalgorithmen. Es wird erkannt werden, dass die Belichtungsauswahlalgorithmen unabhängig arbeiten können, um sich unterscheidende Umstände der Kameras zu berücksichtigen, wie beispielsweise irgendwelche Veränderungen in der Belichtung, die auf den Abstand zwischen den Kameras zurückzuführen ist. Umgekehrt kann ein gemeinsamer Belichtungspegel zwischen der Vielzahl von Kameras beibehalten werden. In einem Beispiel kann der Anfangsbelichtungspegel für eine vorgegebenen Kamera als eine Funktion von einem oder mehreren Belichtungspegeln bestimmt werden, die von der Kamera für ein vorherige Stereo Disparity Map bestimmt wurde. Alternativ kann ein vorbestimmter, konstanter Anfangsbelichtungspegel verwendet werden.
  • Sobald der Anfangsbelichtungspegel bestimmt wurde, schreitet die Methodik zu Schritt 306 voran, wo ein Bild an jeder Kamera mit ihrem bestimmten Belichtungspegel gemacht wird. Die resultierenden Bilder werden in dem Speicher bei Schritt 310 gespeichert. Jedes Bild wird dann bei Schritt 312 evaluiert, um zu bestimmen, ob die Bilder eine unakzeptable Menge von dunklen und gesättigten Bereichen enthalten. Die Evaluierung kann auf eine Anzahl von Art und Weisen ausgeführt werden. Zum Beispiel kann bestimmt werden, ob eine Schwellenwertanzahl von individuellen Pixeln in einem vorgegebenen Bild oder Bildsatz Helligkeitswerte innerhalb eines vorbestimmten Sättigungs- oder Dunkelbereich besitzen. Alternativ kann bestimmt werden, ob eine Schwellenwertteil der Fläche des Bildes oder Bildsatzes aus dunklen oder gesättigten Bereichen besteht, in denen ein vorgegebener Bereich eine Gruppe benachbarter Pixel von mindestens einer vorbestimmten Fläche ist, in der mindestens ein Schwellenwert-Prozentsatz der Pixel Helligkeitswerte innerhalb des Sättigungs- oder Dunkelbereich besitzt.
  • Wenn bestimmt wird, dass ein Bildsatz einen unakzeptable Menge von dunklem oder gesättigtem Inhalt besitzt, schreitet die Methodik zu Schritt 316 vor an, wo ein neuer Belichtungspegel für jede mit dem Bild assoziierte Kamera gemäß dem Belichtungsselektionsalgorithmus für die Kamera bestimmt wird. Zum Beispiel kann eine neue Belichtung durch Bestimmung der Anzahl der Pixel bestimmt werden, die in jeden von einer Vielzahl von Helligkeitsbereichen in dem Bildsatz fallen. Diese Werte können mit einer Serie von erwünschten Werten für die Bereiche verglichen werden. In einer Implementierung wird die neue Belichtung ausgewählt, um die Summe der quadrierten Differenzen zwischen den Zielwerten und den erwarteten Werten anhand eines neuen Belichtungspegels zu minimieren.
  • Die Methodik kehrt dann zu Schritt 306 zurück, wo ein neues Bild durch jede Kamera erzeugt wird, das den neuen Belichtungspegel verwendet. Die neuen Bilder werden bei Schritt 310 im Speicher gespeichert, zusammen mit den Originalbildern und werden bei Schritt 312 bewertet. In einem exemplarischen Ausführungsbeispiel werden nur die Flächen bewertet, die innerhalb der entsprechenden dunklen und gesättigten Bereiche in dem vorherigen Bildsatz liegen. Diese Schritte werden wiederholt bis ein erwünschtes Niveau von dunklem und gesättigtem Inhalt erreicht ist.
  • Wenn ein Bild, das ein erwünschtes Niveau an dunklem und gesättigtem Inhalt besitzt, für beide Kameras erzeugt wurde, schreitet die Methodik zu Schritt 320 und 322 voran. Bei den Schritten 320 und 322 werden die gelagerten Bilder, die durch jede Kamera erzeugt wurden verschmolzen, um jeweilige erste und zweite, zusammengesetzte Bilder zu bilden. Es wird erkannt, dass der Dynamikbereich, der mit jedem der ersten und zweiten, zusammengesetzten Bilder assoziiert wird, größer sein wird als der seiner konstituierenden Bilder. Die Fusion kann in einer Anzahl von Wegen geschehen, abhängig von den Erfordernissen einer vorgegebenen Implementierung. In einem exemplarischen Ausführungsbeispiel werden die Bilder durch eine Pixel-für-Pixel-Summierung der gewichteten Funktionen der Stärkewerte der entsprechenden Pixel über den Satz der gespeicherten Bilder, die mit jeder Kamera assoziiert sind, verschmolzen. Schließlich wird bei Schritt 324 eine Stereo Disparity Map aus den ersten und zweiten, zusammengesetzten Bildern erzeugt. Die Be reichwerte, die beim Erzeugen der Stereo Disparity Map erhalten werden, können mit einem Bereich von annehmbaren Werten verglichen werden und nicht annehmbare Ergebnisse können ignoriert werden, so dass die gesamte oder ein Teil der resultierenden Stereo Disparity Map ausrangiert wird.
  • 8 stellt einen ersten exemplarischen Belichtungsselektionsalgorithmus gemäß einem Aspekt der vorliegenden Erfindung dar. Eine Methodik 350, die den Algorithmus darstellt, beginnt bei Schritt 352, wo der Belichtungspegel für eine oder mehr Kameras auf einen vordefinierten Maximalpegel eingestellt wird. Die Kamera erzeugt dann ein erstes Bild für einen Bildsatz mit einem maximalen Belichtungspegel bei Schritt 354. Das Bild wird dann bei Schritt 356 bewertet, um zu bestimmen, ob die gesättigten Bereiche in dem Bild einen Schwellenwert-Prozentsatz der Gesamtfläche des Bildes überschreiten.
  • Wenn die gesättigten Bereiche in dem Bild einen Schwellenwert-Prozentsatz der Gesamtfläche des Bildes überschreiten, wird der Belichtungspegel für die Kamera bei Schritt 358 vermindert. Zum Beispiel kann der Belichtungspegel durch einen vorbestimmten Wert oder durch einen Wert, der aus der Fläche der gesättigten Bereiche bestimmt wird, vermindert werden. Die Methodik 350 kehrt dann zu Schritt 354 zurück, um ein neues Bild für den Bildsatz mit einem neuen Belichtungspegel zu erzeugen. Das neue Bild wird bei Schritt 356 bewertet, um zu bestimmen, ob die Flächen der gesättigten Bereiche unter den Schwellenwert-Prozentsatz fallen. In einem exemplarischen Ausführungsbeispiel wird nur der Teil des Bildes, der den gesättigten Bereichen des Originalbildes entspricht, bewertet. Die Verarbeitung wird wiederholt, bis die Fläche der gesättigten Bereiche unter einen Schwellenwert fällt, zu welchem Zeitpunkt der Bildsatz bei Schritt 360 angenommen wird.
  • Es wird erkannt, dass die obige Methodik angepasst werden kann, um mit einem minimalen Belichtungspegel zu beginnen und sich durch schrittweise höhere Belichtungspegel weiter bewegen kann. In so einem Fall würde das Bild für dunkle Bereiche bewertet werden und die Bewertung würde fortfahren, bis die Fläche der dunklen Bereiche unter einer erwünschten Schwellenwert-Prozentsatz für die Gesamtfläche gefallen ist.
  • 9 stellt einen zweiten, exemplarischen Belichtungsselektionsalgorithmus gemäß einem Aspekt der vorliegenden Erfindung dar. Der zweite exemplarische Algorithmus verwendet Belichtungspegel von der Herstellung einer vorherigen Stereo Disparity Map, um geeignete Belichtungspegel für gegenwärtige Bilder zu bestimmen. In der dargestellten Methodik verwendet jede Iteration bzw. schrittweise Näherung mindestens einen kurzen Belichtungswert und einen langen Belichtungswert beim Erzeugen von einem oder mehr zusammengesetzten Bildern. Gemäß der Methodik werden lange und kurze Belichtungswerte bei jeder Iteration zusammen mit einem mittleren Belichtungswert bestimmt, wenn bestimmt wurde, dass zusätzliche Abdeckung notwendig ist.
  • Die Methodik beginnt bei Schritt 402, wo die Anzahl der dunklen Pixel in einem Bild, das dem kurzen Belichtungswert assoziiert ist, bestimmt wird. Bei Schritt 404 wird die Anzahl der gesättigten Pixel in einem Bild, das dem langen Belichtungswert assoziiert ist, bestimmt. Bei Schritt 406 wird ein neuer, kurzer Belichtungswert bestimmt. Zuerst wird der Unterschied zwischen der bestimmten Anzahl der dunklen Pixel in dem vorherigen kurz belichteten Bild und ein Zielwert bestimmt. Der neue, kurze Belichtungswert wird als eine Funktion des vorherigen kurzen Belichtungswertes und dem bestimmten Unterschied berechnet. Zum Beispiel kann der neue, kurze Belichtungswert gleich der Summe des vorherigen kurzen Belichtungspegels und dem Produkt des bestimmten Unterschiedes und einer Konstanten sein.
  • Bei Schritt 408 wird ein neuer, langer Belichtungswert in der gleichen Weise bestimmt. Der Unterschied zwischen der bestimmten Anzahl der gesättigten Pixel in der vorherigen lang belichteten Bild und ein Zielwert werden bestimmt. Der neue, lange Belichtungswert wird als eine Funktion des vorherigen, langen Belichtungswertes und dem bestimmten Unterschied berechnet. Zum Beispiel kann der neue, lange Belichtungswert gleich der Summe des vorherigen langen Belichtungspegels und dem Produkt des bestimmten Unterschiedes und einer Konstanten sein.
  • Die Methodik schreitet dann zu Schritt 410 voran, wo bestimmt wird, ob der neue, lange Belichtungswert und kurze Belichtungswerte einen gesamten erwünschten Dynamikbereich abdecken wird. Genau gesagt wird bestimmt, ob ein Dynamikbereich, der in einem Bild erwartet wird, das durch Verwendung des kurzen Belichtungswertes erzeugt wird, mit einem Dynamikbereich überlappen wird, der in einem Bild erwartet wird, das durch Verwendung des langen Belichtungswertes erzeugt wird. Wenn nicht, schreitet die Methodik zu Schritt 412 voran, wo ein mittlerer Belichtungswert ausgewählt wird, so dass der Dynamikbereich, der in einem Bild erwartet wird, das den mittleren Belichtungswert verwendet, die Lücke zwischen den dynamischen Bereichen abdeckt, die den langen und kurzen Belichtungswerten assoziiert werden. Die Methodik schreitet zu Schritt 414 voran. Wenn sich die Dynamikbereiche, die mit den langen und kurzen Belichtungswerten assoziiert sind, überlappen, schreitet die Methodik direkt zu Schritt 414 voran. Bei Schritt 414 werden die Belichtungswerte angenommen und die Methodik endet.
  • Aus obiger Beschreibung der Erfindung werden Fachleute des Gebietes Verbesserungen, Veränderungen und Modifikationen entnehmen. Solche Verbesserungen, Veränderungen und Modifikationen innerhalb des Fachkönnens sollen durch die angehängten Ansprüche abgedeckt werden.

Claims (20)

  1. Ein System (100) zum Erzeugen einer Stereo Disparity Map, welche den räumlichen Abstand korrespondierender Bildpunkt-Paare enthält und die ein abgebildetes Objekt darstellt, wobei das System Folgendes aufweist: eine Vielzahl von Sensoren (102, 104), die jeweils funktionieren, um eine Vielzahl von Bildern zu erzeugen, die jeweilige assoziierte Belichtungspegel gemäß einem Belichtungspegel eines assoziierten Sensors besitzen; eine Systemsteuerung (106), die Belichtungspegel für die Vielzahl von Bildern, die von jedem Sensor erzeugt wurden, gemäß einem Belichtungsselektionsalgorithmus bestimmt; eine Verarbeitungskomponente (112) für die Disparity, die funktioniert, um eine Stereo Disparity Map, welche den räumlichen Abstand korrespondierender Bildpunkt-Paare enthält, aus einem ersten Bild, das mit einem ersten Sensor assoziiert ist, und einem zweiten Bild, das mit einem zweiten Sensor assoziiert ist, zu erzeugen; und eine Bildfusionsvorrichtung (110), die funktioniert, um eine Vielzahl von Bildern, die mit einem Sensor aus der Vielzahl von Sensoren assoziiert sind, zu fusionieren, um ein zusammengesetztes Bild mit einen erhöhten Dynamikbereich zu erzeugen.
  2. System gemäß Anspruch 1, wobei die Bildfusionsvorrichtung (110) funktioniert, um eine Vielzahl von Stereo Disparity Maps zu verschmelzen, um eine zusammengesetzte Stereo Disparity Map mit einem erhöhten Dynamikbereich zu erzeugen.
  3. System gemäß Anspruch 1, wobei die Bildfusionsvorrichtung (110) funktioniert, um einen ersten Satz von Bildern zu verschmelzen, die mit einem ersten Sensor aus einer Vielzahl von Sensoren assoziiert sind, um ein erstes, zusammengesetztes Bild zu erzeugen, und funktioniert, um einen zweiten Satz von Bildern zu verschmelzen, die mit einem zweiten Sensor aus einer Vielzahl von Sensoren assoziiert sind, um ein zweites, zusammengesetztes Bild zu erzeugen, wobei die Verarbeitungskomponente (112) für die Disparity funktioniert, um das erste zusammengesetzte Bild und das zweite zusammengesetzte Bild zu kombinieren, um eine Stereo Disparity Map, welche den räumlichen Abstand korrespondierender Bildpunkt-Paare enthält, vorzusehen.
  4. System gemäß Anspruch 1, wobei die Bildfusionsvorrichtung (110) eine Vielzahl von Bildern durch Summieren der Helligkeitswerte der korrespondierenden Pixel über die Vielzahl von Bildern kombiniert.
  5. System gemäß Anspruch 4, wobei die Bildfusionsvorrichtung (110) korrespondierende Pixel nur in einem interessierenden Bereich in der Vielzahl von Bildern summiert.
  6. System gemäß Anspruch 1, wobei das System ferner eine Bildanalysekomponente (160) aufweist, die die Vielzahl von Bildern evaluiert, die durch die Sensoren erzeugt werden, und Statistiken, die sich auf mindestens eines aus der Vielzahl von Bildern bezieht, an die Systemsteuerung (156) liefert.
  7. Ein betätigbares Fahrzeuginsassenrückhaltesystem, das das System von Anspruch 1 aufweist.
  8. Ein Verfahren zum Erzeugen einer Stereo Disparity Map, welche den räumlichen Abstand korrespondierender Bildpunkt-Paare enthält, mit einem verbesserten Dynamikbereich, das Folgendes aufweist: Bestimmen eines ersten Belichtungspegels für einen ersten Satz von Bildern gemäß einem Belichtungsselektionsalgorithmus; Erzeugen eines ersten Satzes von Bildern mit dem bestimmten ersten Belichtungspegel; Erzeugen einer ersten Stereo Disparity Map, welche den räumlichen Abstand korrespondierender Bildpunkt-Paare enthält, aus dem ersten Satz von Bildern, wobei die erste Stereo Disparity Map einen assoziierten Dynamikbereich besitzt; Bestimmen eines zweiten Belichtungspegels für einen zweiten Satz von Bildern gemäß dem Belichtungsselektionsalgorithmus; Erzeugen des zweiten Satzes von Bildern mit dem bestimmten, zweiten Belichtungspegel; Erzeugen einer zweiten Stereo Disparity Map, welche den räumlichen Abstand korrespondierender Bildpunkt-Paare enthält, aus dem zweiten Satz von Bildern, wobei die zweite Stereo Disparity Map einen assoziierten Dynamikbereich besitzt; und Fusionieren bzw. Verschmelzen der ersten Stereo Disparity Map und der zweiten Stereo Disparity Map, um eine zusammengesetzte Stereo Disparity Map zu erzeugen, die einen effektiven Dynamikbereich besitzt, der größer als einer der assoziierten Dynamikbereiche der ersten Stereo Disparity Map und der zweiten Stereo Disparity Map ist.
  9. Verfahren gemäß Anspruch 8, wobei der Schritt des Bestimmens des zweiten Belichtungspegels das Bestimmen einer Fläche in der ersten Stereo Disparity Map umfasst, die aus gesättigten Bereichen besteht, und Subtrahieren eines vorbestimmten Wertes von dem ersten Belichtungspegel, wenn die Fläche einen Schwellenwert überschreitet.
  10. Verfahren gemäß Anspruch 8, wobei der Schritt des Bestimmens des zweiten Belichtungspegels ein Bestimmen einer Fläche in der ersten Stereo Disparity Map umfasst, die aus dunklen Bereichen besteht und Addieren eines vorbestimmten Wertes von dem ersten Belichtungspegel, wenn die Fläche den Schwellenwert überschreitet.
  11. Verfahren gemäß Anspruch 8, wobei der Schritt der Bestimmung eines ersten Belichtungspegels Folgendes aufweist: Evaluieren eines ersten Bildes aus einer vorherigen Iteration, um die Anzahl der gesättigten Pixel in dem ersten Bild aus der vorherigen Iteration zu bestimmen; Bestimmen einer ersten Differenz zwischen der bestimmten Anzahl der gesättigten Pixel und einer Zielanzahl von Pixeln; und Berechnen des ersten Belichtungspegels als eine Funktion eines Belichtungspegels, der dem ersten Bild aus der vorherigen Iteration zugeordnet ist, und der bestimmten ersten Differenz.
  12. Verfahren gemäß Anspruch 11, wobei die Berechnung des ersten Belichtungspegels Folgendes umfasst: Multiplizieren der bestimmten Differenz mit einer vorbestimmten Konstante, um ein Produkt zu erhalten, und Addieren des Produktes zu dem Belichtungspegel, der mit dem ersten Bild assoziiert ist.
  13. Verfahren gemäß Anspruch 11, wobei der Schritt des Bestimmens eines zweiten Belichtungspegels Folgendes aufweist: Evaluieren eines zweiten Bildes aus einer vorherigen Iteration, um die Anzahl der gesättigten Pixel in dem zweiten Bild aus der vorherigen Iteration zu bestimmen; Bestimmen einer zweiten Differenz zwischen der bestimmten Anzahl gesättigter Pixel und einer Zielanzahl von Pixeln; und Berechnen des zweiten Belichtungspegels als eine Funktion eines Belichtungspegels, der dem zweiten Bild aus der vorherigen Iteration zugeordnet ist, und der bestimmten zweiten Differenz.
  14. Verfahren gemäß Anspruch 13, das ferner Folgendes aufweist: Bestimmen, ob ein erster Abdeckungsbereich, der mit dem ersten Belichtungspegel assoziiert ist, einen zweiten Abdeckungsbereich, der mit dem zweiten Belichtungspegel assoziiert ist, überlappt; und Bestimmen eines dritten Belichtungspegels für einen dritten Satz von Bildern gemäß einem Belichtungsselektionsalgorithmus, wenn die ersten und zweiten Abdeckbereiche sich nicht überlappen.
  15. Verfahren zum Erzeugen einer Stereo Disparity Map, welche den räumlichen Abstand korrespondierender Bildpunkt-Paare enthält, mit einem verbesserten Dynamikbereich, wobei das Verfahren Folgendes aufweist: Bestimmen eines erwünschten Belichtungspegels für jedes aus einer Vielzahl von Bildern, wobei die Vielzahl der Bilder einen ersten Bildsatz und einen zweiten Bildsatz umfasst; Erzeugen jedes aus der Vielzahl der Bilder mit dem erwünschten Belichtungspegel; Verschmelzen des ersten Bildsatzes, um ein erstes zusammengesetztes Bild zu erzeugen; Verschmelzen des zweiten Bildsatzes, um ein zweites zusammengesetztes Bild zu erzeugen; und Erzeugen einer Stereo Disparity Map aus dem ersten zusammengesetzten Bild und aus dem zweiten zusammengesetzten Bild.
  16. Verfahren gemäß Anspruch 15, das ferner ein Evaluieren von mindestens einem Bereichswert umfasst, der mit der Stereo Disparity Map assoziiert ist und Verwerfen bzw. Löschen von mindestens einem Teil der Stereo Disparity Map, wenn ein Bereichswert außerhalb eines akzeptablen Bereichs fällt.
  17. Verfahren gemäß Anspruch 15, wobei der Schritt des Bestimmens eines erwünschten Belichtungspegels Folgendes umfasst: Bestimmen einer Fläche in einem ersten Bild aus einem Bildsatz, die aus dunklen Bereichen besteht, und Anheben des Belichtungspegels für ein zweites Bild, wenn die Fläche einen Schwellenwert überschreitet.
  18. Verfahren gemäß Anspruch 15, wobei der Schritt des Bestimmens eines erwünschten Belichtungspegels Folgendes umfasst: Bestimmen einer Fläche in einem ersten Bild aus einem Bildsatz, die aus gesättigten Bereichen besteht, und das Erniedrigen des Belichtungspegels für ein zweites Bild, wenn die Fläche einen Schwellenwert überschreitet.
  19. Verfahren gemäß Anspruch 15, wobei der Schritt des Bestimmens eines erwünschten Belichtungspegels für die Vielzahl von Bildern Folgendes umfasst: Berechnen eines Belichtungspegels für ein zweites Bild als eine Funktion der Differenz zwischen einem Durchschnittssätigungsniveau über einem evaluierten Bereich eines ersten Bildes und einem erwünschten Durchschnittssättigungsniveau für den Bereich.
  20. Verfahren gemäß Anspruch 15, wobei der Schritt des Bestimmens eines erwünschten Belichtungspegels für die Vielzahl von Bildern Folgendes aufweist: Bestimmen einer Anzahl von Pixeln, die in jedem einer Vielzahl von Helligkeitsbereichen in einen Bereich von Interesse in einem ersten Bild fallen; Vergleichen der bestimmten Anzahl von Pixeln aus jedem Bereich mit einer Reihe von erwünschten Werten für den Bereich; und Auswählen eines Belichtungswertes für ein zweites Bild, um die Summe der quadrierten Differenzen zwischen den Zielwerten und den erwarteten Werten, die mit mindestens einem verfügbaren Belichtungspegel assoziiert sind, zu minimieren.
DE102005060054A 2004-12-27 2005-12-15 Verfahren und Vorrichtung zum Verbessern des Dynamikbereichs eines Stereo-Vision-Systems Expired - Fee Related DE102005060054B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/022,723 US7561731B2 (en) 2004-12-27 2004-12-27 Method and apparatus for enhancing the dynamic range of a stereo vision system
US11/022,723 2004-12-27

Publications (2)

Publication Number Publication Date
DE102005060054A1 DE102005060054A1 (de) 2006-07-20
DE102005060054B4 true DE102005060054B4 (de) 2009-07-30

Family

ID=36611591

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005060054A Expired - Fee Related DE102005060054B4 (de) 2004-12-27 2005-12-15 Verfahren und Vorrichtung zum Verbessern des Dynamikbereichs eines Stereo-Vision-Systems

Country Status (2)

Country Link
US (1) US7561731B2 (de)
DE (1) DE102005060054B4 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010028580A1 (de) * 2010-05-05 2011-11-10 Bayerische Motoren Werke Aktiengesellschaft Verstellvorrichtung zur ergonomischen Einstellung eines Fahrzeugsitzes mit mehreren verstellbaren Sitzkomponenten
US9079510B2 (en) 2011-10-06 2015-07-14 Bayerische Motoren Werke Aktiengesellschaft Adjustment device for ergonomically setting a vehicle seat with several adjustable seat components
DE102018002177A1 (de) 2018-03-14 2019-09-19 3Dvisionlabs Gmbh System zur visuellen dreidimensionalen Überwachung von Räumen
DE102019113839B3 (de) 2019-05-23 2020-07-09 3Dvisionlabs Gmbh Vorrichtung und Verfahren zur Überwachung einer Fahrgastzelle

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7692551B2 (en) * 2006-09-12 2010-04-06 Deere & Company Method and system for detecting operator alertness
EP1901252A3 (de) * 2006-09-12 2010-01-06 Deere & Company Verfahren und System zur Erkennung der Wachsamkeit eines Bedieners
US7692548B2 (en) * 2006-09-12 2010-04-06 Deere & Company Method and system for detecting operator alertness
JP4398969B2 (ja) * 2006-11-07 2010-01-13 富士フイルム株式会社 多眼撮影装置および多眼撮影装置における露出設定方法並びにプログラム
US7983502B2 (en) * 2007-08-06 2011-07-19 Microsoft Corporation Viewing wide angle images using dynamic tone mapping
US20090059039A1 (en) * 2007-08-31 2009-03-05 Micron Technology, Inc. Method and apparatus for combining multi-exposure image data
US8610726B2 (en) * 2008-09-26 2013-12-17 Apple Inc. Computer systems and methods with projected display
US7881603B2 (en) 2008-09-26 2011-02-01 Apple Inc. Dichroic aperture for electronic imaging device
US20100079653A1 (en) * 2008-09-26 2010-04-01 Apple Inc. Portable computing system with a secondary image output
CN101394487B (zh) * 2008-10-27 2011-09-14 华为技术有限公司 一种合成图像的方法与系统
JP5230376B2 (ja) 2008-11-28 2013-07-10 三星電子株式会社 撮像装置及び撮像方法
US8120644B2 (en) * 2009-02-17 2012-02-21 Autoliv Asp, Inc. Method and system for the dynamic calibration of stereovision cameras
AU2009201637B2 (en) * 2009-04-24 2011-08-11 Canon Kabushiki Kaisha Processing multi-view digital images
US8606009B2 (en) * 2010-02-04 2013-12-10 Microsoft Corporation High dynamic range image generation and rendering
US8934050B2 (en) 2010-05-27 2015-01-13 Canon Kabushiki Kaisha User interface and method for exposure adjustment in an image capturing device
JP5367640B2 (ja) * 2010-05-31 2013-12-11 パナソニック株式会社 撮像装置および撮像方法
US8699821B2 (en) 2010-07-05 2014-04-15 Apple Inc. Aligning images
US8497897B2 (en) * 2010-08-17 2013-07-30 Apple Inc. Image capture using luminance and chrominance sensors
US8625021B2 (en) * 2010-08-30 2014-01-07 Canon Kabushiki Kaisha Image capture with region-based adjustment of imaging properties
US8538132B2 (en) 2010-09-24 2013-09-17 Apple Inc. Component concentricity
US9210322B2 (en) 2010-12-27 2015-12-08 Dolby Laboratories Licensing Corporation 3D cameras for HDR
US20130050420A1 (en) * 2011-08-22 2013-02-28 Ding-Yun Chen Method and apparatus for performing image processing according to disparity information
KR101843450B1 (ko) * 2011-08-23 2018-03-29 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
JP5860663B2 (ja) * 2011-10-18 2016-02-16 日立オートモティブシステムズ株式会社 ステレオ撮像装置
JP5896788B2 (ja) * 2012-03-07 2016-03-30 キヤノン株式会社 画像合成装置及び画像合成方法
JP5881827B2 (ja) * 2012-06-11 2016-03-09 株式会社ソニー・コンピュータエンタテインメント 画像撮像装置および画像撮像方法
JP6514681B2 (ja) * 2013-03-15 2019-05-15 ウーバー テクノロジーズ,インコーポレイテッド ロボット用多重知覚ステレオ視のための方法、システム、および装置
US9356061B2 (en) 2013-08-05 2016-05-31 Apple Inc. Image sensor with buried light shield and vertical gate
TWI464526B (zh) * 2013-08-08 2014-12-11 Quanta Comp Inc 高動態範圍影像曝光時間控制方法
EP2860975A1 (de) * 2013-10-09 2015-04-15 Thomson Licensing Verfahren zur Verarbeitung von mindestens einer Disparitätskarte, zugehörige elektronische Vorrichtung und Computerprogrammprodukt
WO2015081562A1 (zh) * 2013-12-06 2015-06-11 华为终端有限公司 一种终端及图像处理方法、图像采集方法
KR101579098B1 (ko) * 2014-05-23 2015-12-21 엘지전자 주식회사 스테레오 카메라, 이를 구비한 차량 운전 보조 장치, 및 차량
JP6493787B2 (ja) 2015-01-19 2019-04-03 株式会社リコー 撮像装置、撮像方法及び撮像動作制御プログラム
US10077007B2 (en) 2016-03-14 2018-09-18 Uber Technologies, Inc. Sidepod stereo camera system for an autonomous vehicle
EP3637758A4 (de) * 2017-06-07 2020-11-04 Hitachi Automotive Systems, Ltd. Bildverarbeitungsvorrichtung
CN107742507B (zh) * 2017-10-31 2019-11-22 武汉华星光电技术有限公司 提高显示器色域的方法及系统
US10967862B2 (en) 2017-11-07 2021-04-06 Uatc, Llc Road anomaly detection for autonomous vehicle
US10757320B2 (en) 2017-12-28 2020-08-25 Waymo Llc Multiple operating modes to expand dynamic range
US11291507B2 (en) 2018-07-16 2022-04-05 Mako Surgical Corp. System and method for image based registration and calibration
CN108683862B (zh) * 2018-08-13 2020-01-10 Oppo广东移动通信有限公司 成像控制方法、装置、电子设备及计算机可读存储介质
EP3832601A4 (de) * 2019-03-14 2022-03-16 OMRON Corporation Bildverarbeitungsvorrichtung und dreidimensionales messsystem
WO2020183710A1 (ja) * 2019-03-14 2020-09-17 オムロン株式会社 画像処理装置及び3次元計測システム
JP7319003B2 (ja) 2020-01-22 2023-08-01 ノダー インコーポレイテッド 非剛性ステレオ・ビジョン・カメラ・システム
US11740078B2 (en) * 2020-07-21 2023-08-29 Argo AI, LLC Enhanced sensor alignment
WO2023059365A1 (en) * 2021-10-08 2023-04-13 Nodar Inc. Real-time perception system for small objects at long range for autonomous vehicles
US11782145B1 (en) 2022-06-14 2023-10-10 Nodar Inc. 3D vision system with automatically calibrated stereo vision sensors and LiDAR sensor

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5179441A (en) * 1991-12-18 1993-01-12 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Near real-time stereo vision system
US20030204384A1 (en) * 2002-04-24 2003-10-30 Yuri Owechko High-performance sensor fusion architecture

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3074967B2 (ja) * 1992-10-27 2000-08-07 松下電器産業株式会社 高ダイナミックレンジ撮像・合成方法及び高ダイナミックレンジ撮像装置
US6204881B1 (en) * 1993-10-10 2001-03-20 Canon Kabushiki Kaisha Image data processing apparatus which can combine a plurality of images at different exposures into an image with a wider dynamic range
US5929908A (en) * 1995-02-03 1999-07-27 Canon Kabushiki Kaisha Image sensing apparatus which performs dynamic range expansion and image sensing method for dynamic range expansion
US5828793A (en) * 1996-05-06 1998-10-27 Massachusetts Institute Of Technology Method and apparatus for producing digital images having extended dynamic ranges
US5818975A (en) * 1996-10-28 1998-10-06 Eastman Kodak Company Method and apparatus for area selective exposure adjustment
JP3630905B2 (ja) * 1997-02-28 2005-03-23 キヤノン株式会社 撮像方法及び撮像装置
US7019777B2 (en) 2000-04-21 2006-03-28 Flight Landata, Inc. Multispectral imaging system with spatial resolution enhancement
EP1297486A4 (de) * 2000-06-15 2006-09-27 Automotive Systems Lab Besetzungssensor
WO2002076090A1 (en) * 2001-03-16 2002-09-26 Vision Robotics Corporation System and method to increase effective dynamic range of image sensors
US7009636B2 (en) 2001-11-13 2006-03-07 The Board Of Trustees Of The Leland Stanford Junior University Photocurrent estimation from multiple captures for simultaneous SNR and dynamic range improvement in CMOS image sensors
US7061524B2 (en) 2001-11-13 2006-06-13 The Board Of Trustees Of The Leland Stanford Junior University Motion/saturation detection system and method for synthesizing high dynamic range motion blur free images from multiple captures
US6753876B2 (en) 2001-12-21 2004-06-22 General Electric Company Method for high dynamic range image construction based on multiple images with multiple illumination intensities
AU2003220595A1 (en) * 2002-03-27 2003-10-13 The Trustees Of Columbia University In The City Of New York Imaging method and system
US20030184673A1 (en) * 2002-04-02 2003-10-02 Michael Skow Automatic exposure control for digital imaging
US7103212B2 (en) * 2002-11-22 2006-09-05 Strider Labs, Inc. Acquisition of three-dimensional images by an active stereo technique using locally unique patterns
US6914701B2 (en) 2002-12-06 2005-07-05 Howtek Devices Corporation Digitizer with improved dynamic range and photometric resolution
US7142723B2 (en) * 2003-07-18 2006-11-28 Microsoft Corporation System and process for generating high dynamic range images from multiple exposures of a moving scene

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5179441A (en) * 1991-12-18 1993-01-12 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Near real-time stereo vision system
US20030204384A1 (en) * 2002-04-24 2003-10-30 Yuri Owechko High-performance sensor fusion architecture

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Images of stereo pair (stereo disparity map)", 14.12.2005 (nachveröffentlicht), Pgs.1-14 + Bibliography, http://www.ozawa.ics.keio.ac.jp/Saito/c lasses/CVnotes/14Dec2005.pdf *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010028580A1 (de) * 2010-05-05 2011-11-10 Bayerische Motoren Werke Aktiengesellschaft Verstellvorrichtung zur ergonomischen Einstellung eines Fahrzeugsitzes mit mehreren verstellbaren Sitzkomponenten
DE102010028580B4 (de) * 2010-05-05 2014-02-27 Bayerische Motoren Werke Aktiengesellschaft Verstellvorrichtung zur ergonomischen Einstellung eines Fahrzeugsitzes mit mehreren verstellbaren Sitzkomponenten
US9079510B2 (en) 2011-10-06 2015-07-14 Bayerische Motoren Werke Aktiengesellschaft Adjustment device for ergonomically setting a vehicle seat with several adjustable seat components
DE102018002177A1 (de) 2018-03-14 2019-09-19 3Dvisionlabs Gmbh System zur visuellen dreidimensionalen Überwachung von Räumen
DE102019113839B3 (de) 2019-05-23 2020-07-09 3Dvisionlabs Gmbh Vorrichtung und Verfahren zur Überwachung einer Fahrgastzelle
EP3748595A1 (de) 2019-05-23 2020-12-09 IndiKar Individual Karosseriebau GmbH Vorrichtung und verfahren zur überwachung einer fahrgastzelle

Also Published As

Publication number Publication date
US7561731B2 (en) 2009-07-14
DE102005060054A1 (de) 2006-07-20
US20060140510A1 (en) 2006-06-29

Similar Documents

Publication Publication Date Title
DE102005060054B4 (de) Verfahren und Vorrichtung zum Verbessern des Dynamikbereichs eines Stereo-Vision-Systems
DE102019134141B4 (de) Sicherheitsgurt-Zustandsbestimmungsverfahren
DE19841399B4 (de) Verwendungsstatusbestimmungsvorrichtung für einen Sitz
DE19947062B4 (de) Vorrichtung zum Erfassen eines Objekts unter Verwendung eines Differentialbildes
DE102005000646B4 (de) Vorrichtung und Verfahren zum Erfassen von sich bewegenden Objekten
DE102005060055A1 (de) Verfahren und Vorrichtung zum Bestimmen der Position eines Fahrzeugsitzes
DE102006020192B4 (de) Vorrichtung und Verfahren zum Vorhersagen von Kollision
DE102006024979B4 (de) Verfahren und Vorrichtung zum Detektieren der Anwesenheit eines Insassen innerhalb eines Fahrzeugs
DE102004041919B4 (de) Fahrzeugumgebungs-Überwachungseinrichtung
DE102004012811B4 (de) Vorrichtung zum Überwachen der Umgebung eines Fahrzeugs
DE102008027723B4 (de) Bildverarbeitungsvorrichtung zum Verringern von Effekten von Nebel bezüglich Abbildungen, die von einer in ein Fahrzeug eingebauten Kamera erzielt werden, und Fahrerunterstützungsvorrichtung, welche sich ergebende verarbeitete Abbildungen verwendet
DE60308020T2 (de) Dreidimensionaler insassenpositionssensor
DE102018101542A1 (de) Bordanzeigevorrichtung, Steuerverfahren für Bordanzeigevorrichtung und Steuerprogramm für Bordanzeigevorrichtung
DE102009052475B4 (de) Leistungsbasiertes Klassifizierungsverfahren und leistungsbasierter Klassifizierungsalgorithmus für Fahrer
WO2003089277A1 (de) Sicherheitsvorrichtung für ein fahrzeug
DE102006054571A1 (de) Generator für Virtuelle Realitäts-Szenen zur Erzeugung von Trainingsbildern für einen Mustererkennungs-Klassifikator
DE102013223039A1 (de) Vorrichtung und Verfahren zum Bereitstellen eines AVM-Bildes
DE112014005160T5 (de) Verfahren zum Erkennen eines verdeckten Zustands einer Kamera, Kamerasystem und Kraftfahrzeug
DE112018007120T5 (de) Physis-Ermittlungseinrichtung und Physis-Ermittlungsverfahren
DE102004046101B4 (de) Verfahren, Sicherheitsvorrichtung und Verwendung der Sicherheitsvorrichtung zur Früherkennung von Kraftfahrzeugkollisionen
DE102005056647A1 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE112004001341B4 (de) Vorrichtung und Verfahren zum Steuern eines Insassenschutzsystems
DE102005056665B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
EP3655299B1 (de) Verfahren und vorrichtung zum ermitteln eines optischen flusses anhand einer von einer kamera eines fahrzeugs aufgenommenen bildsequenz
DE102012015282B4 (de) Verfahren zur Detektion eines verdeckten Zustands einer Bilderfassungseinrichtung eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee