DE102012109351A1 - Auswerteeinheit, Auswerteverfahren, Vermessungsanlage für eine Crashfahrzeug-Vermessung sowie ein Verfahren zur Durchführung einer Crashfahrzeug-Vermessung - Google Patents

Auswerteeinheit, Auswerteverfahren, Vermessungsanlage für eine Crashfahrzeug-Vermessung sowie ein Verfahren zur Durchführung einer Crashfahrzeug-Vermessung Download PDF

Info

Publication number
DE102012109351A1
DE102012109351A1 DE102012109351A DE102012109351A DE102012109351A1 DE 102012109351 A1 DE102012109351 A1 DE 102012109351A1 DE 102012109351 A DE102012109351 A DE 102012109351A DE 102012109351 A DE102012109351 A DE 102012109351A DE 102012109351 A1 DE102012109351 A1 DE 102012109351A1
Authority
DE
Germany
Prior art keywords
measuring
image
vehicle
evaluation unit
crash
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102012109351A
Other languages
English (en)
Inventor
Walter Rentschler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dr Ing HCF Porsche AG
Original Assignee
Dr Ing HCF Porsche AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dr Ing HCF Porsche AG filed Critical Dr Ing HCF Porsche AG
Priority to DE102012109351A priority Critical patent/DE102012109351A1/de
Priority to US13/753,893 priority patent/US9485470B2/en
Publication of DE102012109351A1 publication Critical patent/DE102012109351A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft eine Auswerteeinheit zur Verarbeitung von Bildern und/oder Bildsequenzen von Messflächen (8, 10, 12, 14, 16, 18), die von einem Crashfahrzeug (4) detektierbar sind, wobei übermittelte Bilder und/oder Bildsequenzen mindestens eines Messsensors verwertbar sind, wobei Bildfusionsmittel vorgesehen sind, die eine digitale Bildfusion von Bildern und/oder Bildsequenzen als Bilddaten (38, 40) von derselben Messfläche (8, 10, 12, 14, 16, 18) ermöglichen. Des Weiteren betrifft die Erfindung ein Auswerteverfahren, eine Vermessungsanlage für eine Crashfahrzeug-Vermessung sowie ein Verfahren zur Durchführung einer Crashfahrzeug-Vermessung.

Description

  • Die Erfindung betrifft eine Auswerteeinheit zur Verarbeitung von Bildern und/oder Bildsequenzen von Messflächen, die von einem Crashfahrzeug detektierbar sind, wobei übermittelte Bilder und/oder Bildsequenzen mindestens eines Messsensors verwertbar sind. Des Weiteren betrifft die Erfindung ein Auswerteverfahren, eine Vermessungsanlage für eine Crashfahrzeug-Vermessung sowie ein Verfahren zur Durchführung einer Crashfahrzeug-Vermessung.
  • Derartige Vorrichtungen und Verfahren sind aus dem Stand der Technik hinlänglich bekannt. Insbesondere beschreibt die US 6,639,685 B1 ein Verfahren zum Betreiben einer Flächenmessanlage, das bei einem Fahrzeug-Crashversuch angewandt werden könnte. Darüber hinaus offenbart des Weiteren die DE 10 2004 050 020 B4 eine Auswertvorrichtung sowie ein Auswerteverfahren zur Erfassung und Auswertung von Bildsequenzen von bewegten Messobjekten mit markierten und/oder unmarkierten Messbereichen in einem Crashversuch.
  • Auswirkungen eines Crashversuches auf das Fahrzeug werden während des Versuchs mit hochdynamisch messenden Instrumenten erfasst. Diese sind zum Großteil gesetzlich vorgeschrieben und sind dann von entscheidender Bedeutung, wenn es um die Auslegung von Sicherheitskomponenten, wie Airbag, Gurtstraffer, Fußgängerschutzsysteme, etc., geht. Ein zweiter wesentlicher Erkenntnisgewinn aus Crashversuchen ist dadurch gegeben, dass der Zustand des Fahrzeuges beispielsweise vor und nach dem Crashversuch verglichen wird. Hierbei werden Verformungen des Gesamtfahrzeuges sowie die Verlagerung von Strukturteilen, von Einzelkomponenten, Aggregaten, Achslagern und weiteren Komponenten gemessen. Es ist hierbei bekannt, einen derartigen Crashversuch mittels Mehrbildphotogrammetriesystemen in einem halbautomatischen Modus durchzuführen. Hierbei werden manuell Markierungen zusammen mit Referenzmaßstäben auf dem Fahrzeug angebracht. Per Handkamera werden beispielsweise ca. 200–300 Fotos aufgenommen und diese auf einen Rechner übertragen. Hier beginnt eine teilautomatisierte Berechnung der Position der Marken in 2D-Bildern. Daraus werden 3D-Koordinaten errechnet. Andere Verfahren können auf taktilen Antastsystemen basieren. Alle derzeit eingesetzten Systeme haben jedoch gemeinsam, dass sie lediglich teilautomatisiert durchgeführt werden können. Hierbei spielt insbesondere eine Rolle, dass die Messflächen, die Teil der Fahrzeugflächen sind, sehr unterschiedliche Eigenschaften (Metall, Glanzlack, Leder, Stoff, Kunststoff) hinsichtlich ihres Reflexionsverhaltens, ihrer Flächengröße und ihrer Radien aufweisen können.
  • Aufgabe der Erfindung ist es daher, eine Auswerteeinheit, ein Auswerteverfahren, eine Vermessungsanlage für eine Crashfahrzeug-Vermessung sowie ein Verfahren zur Durchführung einer Crashfahrzeug-Vermessung bereitzustellen, die eine vollautomatisierte Durchführung einer Crashfahrzeug-Vermessung bei hoher Qualität der Bilddaten gewährleistet.
  • Diese Aufgabe wird durch eine Auswerteeinheit dadurch gelöst, dass Bildfusionsmittel vorgesehen sind, die eine digitale Bildfusion von Bildern und/oder Bildsequenzen als Bilddaten von derselben Messfläche ermöglichen. Hierdurch ist es möglich, qualitativ unterschiedliche Messbilder von derselben Messfläche zu fusionieren und damit die Messqualität zu steigern. Vorteilhafterweise sind Bilddatenfusionsmittel vorgesehen, die eine Optimierung der übermittelten Bilddaten dahingehend ermöglichen, so dass auch Bilddaten geringerer Qualität der Bildmessung zugänglich gemacht werden.
  • In besonders vorteilhafterweise ist in der Auswerteeinheit eine Datenbank vorgesehen, in der CAD-Daten sowie bereits ermittelte Bildaufnahmedaten hinterlegt sind. Hierdurch ergibt sich die Möglichkeit, dass die Zonen der Unverformtheit und der Verformtheit aufgrund eines Crashversuches vor dem Hintergrund von mathematischen Ähnlichkeitsvergleichen besser berechnet und damit beurteilt werden können. Des Weiteren können bereits ermittelte Bildaufnahmedaten, insbesondere Kamerapositions- und Lagerdaten hinterlegt und dementsprechend als A-Priori-Wissen genutzt werden. So ist es insbesondere möglich, schwierige Messflächen über eine Steuereinheit der Vermessungsanlage anzusteuern und damit die richtige Messkameraposition einzustellen. Des Weiteren kann es vorteilhaft sein, Selbstlernmittel zu integrieren, um die Datennutzung zu vereinfachen und die Messgeschwindigkeit bei nachfolgenden Versuchen zu erhöhen. Auch ist es vorteilhaft, wenn eine bildschattendetektierende Software vorgesehen ist, um beispielsweise tiefliegende, teilverdeckte, verdeckte Stellen zu erkennen und dementsprechend Aufnahmepositionen einzustellen, welche eine Erfassung dieser Stellen ermöglichen.
  • Insbesondere wird die Aufgabe auch durch ein Auswerteverfahren für eine derartige Auswerteeinheit gelöst, bei der unterschiedliche Bilder und/oder Bildsequenzen als Bilddaten von derselben Messfläche optimiert werden, indem sie einer Bildfusionsdatenoperation unterzogen werden.
  • Des Weiteren wird die Aufgabe durch eine Vermessungsanlage für eine Crashfahrzeug-Vermessung mit einer oben beschriebenen Auswerteeinheit, mit Fahrzeug-Positioniermitteln, mit Markierungsmitteln für die mindestens eine Messkamera, die mindestens einen Messsensor mit einem Bildaufnahmetyp aufweist, mit einer Steuereinheit, dadurch gelöst, dass Sensormittel für den mindestens einen Messsensor mit einem Bildaufnahmetyp vorgesehen sind, derart, dass eine Messfläche aus unterschiedlichen Positionen detektierbar ist und/oder mindestens zwei, hinsichtlich des Bildaufnahmetyps unterschiedliche Messsensoren vorgesehen sind, die eine Messfläche detektieren. Mit einer derartigen Vermessungsanlage ist eine automatisierte Durchführung einer Crashfahrzeug-Vermessung mit Bilddaten möglich, die höchsten Qualitätsansprüchen genügen.
  • Vorteilhafterweise bestehen die Sensormittel aus mindestens einem weiteren Messsensor mit dem gleichen Bildaufnahmetyp, wodurch es auf besonders einfache Art und Weise möglich ist, ein und dieselbe Messfläche mit einem Bildaufnahmetyp aus unterschiedlichen Positionen zu detektieren. Dies kann auch dadurch ermöglicht werden, dass die Sensormittel durch Kamerapositioniermittel unterstützt werden.
  • Des Weiteren ist es vorteilhaft, dass Messkameras/Messsensoren vorgesehen sind, die eine Messfläche nach unterschiedlichen Verfahren detektieren, wie zum Beispiel dem trilinearen Zeilenverfahren, dem Streifenprojektionsverfahren, dem Lasertriangulationsverfahren, der Deflektrometrie, dem Lichtfeldverfahren, etc.. Hierdurch wird in vorteilhafterweise eine multisensorielle Messsystematik ermöglicht, die für jede Messfläche das geeignete Messverfahren einzeln oder fusioniert einsetzt und damit die bestmöglichen Bilddaten ermöglicht.
  • Um eine korrekte Orientierung des Crashfahrzeugs zu gewährleisten, kann mindestens eine Symmetriekamera vorgesehen sein, die mehrere Symmetriestrukturen des zu untersuchenden Crashfahrzeuges detektieren.
  • Alternativ oder zusätzlich können in vorteilhafterweise Orientierungskameras vorgesehen sein, die fest auf den Messkameras montiert sind und mit im Messraum angeordneten Referenzmarkierungen kommunizieren.
  • Des Weiteren wird die Aufgabe durch ein Verfahren zur Durchführung einer Crashfahrzeug-Vermessung mit einer derartigen Vermessungsanlage gelöst, wobei in einem ersten Schritt Bilder und/oder Bildsequenzen als Bilddaten von einer Messfläche eines Fahrzeuges vor einem Crash aufgenommen werden und an die Auswerteeinheit übermittelt werden, in einem zweiten Schritt der Fahrzeug-Crash durchgeführt wird und in einem dritten Schritt Bilder und/oder Bildsequenzen als Bilddaten von derselben Messfläche des Fahrzeuges nach einem Fahrzeug-Crash aufgenommen werden und an die Auswerteeinheit übermittelt werden. Um Bilddaten eines Bildaufnahmetypes der Auswerteeinheit zu übermitteln, ist es insbesondere vorteilhaft, wenn die Messkamera zur Bilddatenaufnahme in einem ersten Schritt orthogonal zur Messfläche ausgerichtet wird, in einem zweiten Schritt um bis zu 20 Grad geneigt wird und in einem dritten Schritt um bis zu –20 Grad im Vergleich zur Ausgangsposition geneigt wird und nachfolgend diese Vorgehensweise für die um 90 Grad gegenüber der Ausgangsposition im ersten Schritt gedrehte Messkamera wiederholt wird.
  • Um eine genaue Orientierung zu gewährleisten, ist es vorteilhaft, wenn zur Ausrichtung des Fahrzeugs in Bezug auf die Symmetriekameras mindestens drei Symmetriestrukturen am Fahrzeug, wie zum Beispiel Scheinwerfer, Frontscheibe, Mittensymbole, Heckleuchten, Heckfenster, Heckklappe, etc. aufgenommen werden.
  • Auch ist es möglich, dass, alternativ oder zusätzlich, zur Ausrichtung der Messkameras mittels Orientierungskameras, die fest auf den Messkameras angeordnet sind, mindestens drei im Messraum angeordnete Referenzmarkierungen aufgenommen werden.
  • Alternativ können zur Ausrichtung der Messkameras mindestens drei Marken darauf angebracht sein, welche durch mindestens eine Orientierungskamera gemessen werden können. Diese erkennen die Messmarken. Daraus kann die Orientierung der Messkameras ermittelt werden.
  • Zu Beginn eines jeden Crashversuches kann eine vollautomatische Kalibrierung der im Einsatz befindlichen Messsensoren vorgenommen werden und die Kalibrierwerte können zu Auswertezwecken in der Auswerteeinheit archiviert und zu Berechnungszwecken wieder ausgelesen werden.
  • Die Erfindung wird nachfolgend anhand der Zeichnung näher erläutert, hierbei zeigt:
  • 1 eine schematische Ansicht einer erfindungsgemäßen Vermessungsanlage,
  • 2 ein exemplarisches Beispiel für eine Bilddatenfusion, und
  • 3 eine schematische Ansicht einer Vermessungsanlage in einem Messraum mit Referenzmarkierungen.
  • 1 zeigt eine Vermessungsanlage 2 für ein Crashfahrzeug 4, das einer Crashvermessung unterzogen wird. Mittels einer derartigen Vermessungsanlage 2 soll gewährleistet sein, eine hochautomatisierte, flächenhafte Fahrzeugmessung vor und nach einem Crashversuch durchzuführen. Die Vermessungsanlage 2 weist hierzu Fahrzeug-Positioniermittel 6 auf, die im vorliegenden Fall auf einfache Weise durch eine in translatorischer und rotatorischer Richtung bewegbarer Hebebühne dargestellt sind. Des Weiteren sind nicht weiter dargestellte Markierungsmittel für Messflächen 8, 10, 12, 14, 16, 18 vorgesehen. Diese als Messmuster ausgeführten Markierungsmittel können beispielsweise mittels in Messkameras 20, 22, 24, 26, 28, 30 integrierten Projektionsmitteln auf die Messflächen 8, 10, 12, 14, 16, 18 projiziert werden. Im vorliegenden Ausführungsbeispiel weisen die Messkameras 20 im Vergleich zu den Messkameras 22, 24 und 26 und 28, 30 jeweils einen anderen Bildaufnahmetyp auf, um den unterschiedlichen Messflächeneigenschaften des Fahrzeuges gerecht zu werden. Die Messkameras 20, 22, 24, 26, 28, 30 sind darüber hinaus über Kamerapositioniermittel 32 gemäß den angedeuteten Pfeilen beweglich gelagert. Jede Messkamera 20, 22, 24, 26, 28, 30 weist darüber hinaus einen nicht weiter dargestellten Messsensor für den entsprechenden Bildaufnahmetyp auf. Als Messverfahren kommen hier insbesondere das trilineare Zeilenverfahren, das Streifenprojektionsverfahren, das Lasertriangulationsverfahren, die Deflektrometrie sowie das Lichtfeldverfahren zur Anwendung. Nachdem die Bilddaten der jeweiligen Messflächen 8, 10, 12, 14, 16, 18 detektiert wurden, werden sie einer Auswerteeinheit 34 übermittelt, um eine Aufarbeitung und Auswertung der Bilddaten vorzunehmen. Des Weiteren ist eine Steuereinheit 36 vorgesehen, die datentechnisch mit der Auswerteeinheit 34 sowie mit den Kamerapositioniermitteln 32 verbunden ist. Es sollte deutlich sein, dass die Auswerteeinheit 34 und die Steuereinheit 36 nicht voneinander getrennt ausgeführt sein müssen.
  • Ein wichtiges Merkmal der Erfindung ist, dass die Auswerteeinheit 34 Bildfusionsmittel aufweist, die eine digitale Bildfusion von Bildern und/oder Bildsequenzen als Bilddaten von derselben Messfläche 8, 10, 12, 14, 16, 18 ermöglichen.
  • 2 zeigt eine beispielhafte Bilddatenfusion eines Messsensors für einen Bildaufnahmetyp, der eine Frontpartie des Fahrzeuges 4 detektiert. Hier wurden zwei verschiedene Bilddaten 38, 40 von unterschiedlichen Messsensoren detektiert und nachfolgend zum Bild 42 fusioniert. Aufgrund der hier unterschiedlichen Bildqualitäten der Messsensoren für die Bilddaten 38, 40 konnten die Bilddaten der Bilder 42 hinsichtlich der Kontrastwerte und der Tiefenschärfe, usw. wesentlich optimiert werden. Es ist natürlich auch möglich, Bilddaten von Messsensoren mit demselben Bildaufnahmetyp, aufgenommen unter verschiedenem Winkel, zu fusionieren, um die Qualität der Bilddaten wesentlich zu erhöhen. Des Weiteren können die einzelnen Bilddaten vor der Fusionierung dahingehend optimiert werden, dass nicht gewünschte und/oder unerhebliche Daten entfernt werden.
  • Die Auswerteeinheit 34 kann darüber hinaus auch noch eine Datenbank aufweisen. In der Datenbank können beispielsweise CAD-Daten der zu untersuchenden Fahrzeuge oder auch A-Priori-Wissen aus vorangegangenen Crashversuchen hinterlegt werden, um die Auswertungen bzw. die Verformungsmuster schneller und effizienter bewerten zu können. Des Weiteren kann die Auswerteeinheit 34 Selbstlernmittel aufweisen, so dass die Messmittelorientierungsdaten automatisch aktualisiert werden. Des Weiteren kann die Auswerteeinheit 34 eine bildschattendetektierende Software aufweisen, so dass die Steuereinheit 36 Messpositionen effizienter anzusteuern kann.
  • Grundsätzlich wird ein Verfahren zur Durchführung einer Crashfahrzeug-Vermessung mit der beschriebenen Vermessungsanlage 2 wie folgt durchgeführt. In einem ersten Schritt werden Bilder und/oder Bildsequenzen als Bilddaten von den Messflächen 8, 10, 12, 14, 16, 18 des Fahrzeuges 4 vor einem Crash aufgenommen. Diese Bilddaten werden an die Auswerteeinheit 34 übermittelt und zum Gesamtfahrzeugmodell zusammengesetzt. In einem zweiten Schritt wird der Fahrzeugcrash durchgeführt und in einem dritten Schritt werden die Bilder und/oder Bildsequenzen als Bilddaten von den denselben Messflächen 8, 10, 12, 14, 16, 18 als Bilddaten des Fahrzeuges 4 nach einem Fahrzeugcrash aufgenommen und an die Auswerteeinheit 34 übermittelt. In der Auswerteeinheit 34 wird dann, wie bereits oben beschrieben, die Bilddatenfusion vorgenommen und die Teilflächen zum Gesamtfahrzeugmodell zusammengesetzt.
  • Um eine Bilddatenfusion vornehmen zu können, werden im gezeigten Ausführungsbeispiel insbesondere die Messkameras 28 und 30 zunächst in einem ersten Schritt orthogonal zu den Messflächen 16, 18 ausgerichtet und die Bildaufnahme durchgeführt. In einem zweiten Schritt werden hier diese Messkameras 28, 30 um plus 10 Grad geneigt und wiederum die Bildaufnahme durchgeführt. In einem dritten Schritt werden diese Messkameras 28, 30 um minus 10 Grad geneigt, um eine Bildaufnahme durchzuführen. Die Neigung steht immer im Verhältnis zur Ausgangsposition. Nachfolgend werden die Messkameras 28, 30 um 90 Grad gegenüber der Ausgangsposition gedreht und die drei beschriebenen Schritte zur Bildaufnahme wiederholt. Auf diese Art und Weise stehen für die Messflächen 16 und 18 Bilddaten aus den unterschiedlichsten Perspektiven zur Verfügung. Diese Bilddaten können dann durch Bilddatenfusion in der Auswerteeinheit 34 optimiert werden. Eine weitere Möglichkeit der Bilddatenfusion besteht darin, durch Kameras mit Messsensoren mit verschiedenen Bildaufnahmetypen ein und dieselbe Messfläche zu detektieren. Dies im gezeigten Ausführungsbeispiel beispielsweise durch die Kamera 28 und die Kamera 26 für die Messfläche 14 möglich. Auch hier kann aufgrund der unterschiedlichen Bilddaten ein und derselben Messfläche 14 in der Auswerteeinheit 34 eine Bilddatenfusion vorgenommen werden.
  • Zur Ausrichtung der Messkameras und des Fahrzeuges vor und nach dem Crashversuch sind im Wesentlichen zwei Verfahren vorgesehen. Schematisch sind in 3 die Messkameras 26 und 30 dargestellt, wobei mit den Bezugszeichen 44 der Messraum bezeichnet ist. Eine Möglichkeit der Ausrichtung besteht nun darin, eine Symmetriekamera 46 vorzusehen, die mindestens drei Symmetriestrukturen des Fahrzeuges 4, hier beispielsweise Scheinwerfer 48, Mittensymbol 50 sowie Frontklappe 52 zu detektieren, um das Fahrzeug 4 hinsichtlich der ermittelten Symmetrieachsen vor und nach dem Crashversuch gleich auszurichten.
  • Die zweite Möglichkeit besteht darin, auf den Messkameras 26, 30 Orientierungskameras 54, 56 anzuordnen, die mindestens drei im Messraum 44 angeordnete Referenzmarkierungen 58 detektieren. Hierdurch ist es auf einfache Weise möglich, die Messkameras 26, 30 zur Bildaufnahme auszurichten. Die Orientierungskameras 54, 56 können hierzu an einer Wand im Messraum 44 angeordnet sein.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 6639685 B1 [0002]
    • DE 102004050020 B4 [0002]

Claims (19)

  1. Auswerteeinheit zur Verarbeitung von Bildern und/oder Bildsequenzen von Messflächen (8, 10, 12, 14, 16, 18), die von einem Crashfahrzeug (4) detektierbar sind, wobei übermittelte Bilder und/oder Bildsequenzen mindestens eines Messsensors verwertbar sind, dadurch gekennzeichnet, dass Bildfusionsmittel vorgesehen sind, die eine digitale Bildfusion von Bildern und/oder Bildsequenzen als Bilddaten (38, 40) von derselben Messfläche (8, 10, 12, 14, 16, 18) ermöglichen.
  2. Auswerteeinheit nach Anspruch 1, dadurch gekennzeichnet, dass Bildfusionsmittel vorgesehen sind, die eine Optimierung der übermittelten Bilddaten (38, 40) ermöglichen.
  3. Auswerteeinheit nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass eine Datenbank vorgesehen ist, in der CAD-Daten sowie bereits ermittelte Bildaufnahmedaten hinterlegt sind.
  4. Auswerteeinheit nach einem der Ansprüche 1–3, dadurch gekennzeichnet, dass Selbstlernmittel vorgesehen sind.
  5. Auswerteeinheit nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein bildschattendetektierende Software vorgesehen ist.
  6. Auswerteverfahren für eine Auswerteeinheit nach einem der Ansprüche 1–5, dadurch gekennzeichnet, dass unterschiedliche Bilder und/oder Bildsequenzen als Bilddaten (38, 40) von derselben Messfläche (8, 10, 12, 14, 16, 18) optimiert und in einer Bilddatenfusionsoperation fusioniert werden.
  7. Vermessungsanlage für eine Crashfahrzeug-Vermessung mit einer Auswerteeinheit nach einem der Ansprüche 1–5, mit Fahrzeug-Positioniermitteln (6), mit Markierungsmitteln für die mindestens eine Messkamera (20, 22, 24, 26, 28, 30), die mindestens einen Messsensor mit einem Bildaufnahmetyp aufweist, mit einer Steuereinheit (36), dadurch gekennzeichnet, dass Sensormittel für den mindestens einen Messsensor mit einem Bildaufnahmetyp vorgesehen sind, derart, dass eine Messfläche (8, 10, 12, 14, 16, 18) aus unterschiedlichen Positionen detektierbar ist und/oder mindestens zwei, hinsichtlich des Bildaufnahmetyps unterschiedliche Messsensoren vorgesehen sind, die eine Messfläche (8, 10, 12, 14, 16, 18) detektieren.
  8. Vermessungsanlage nach Anspruch 7, dadurch gekennzeichnet, dass die Sensormittel aus mindestens einem weiteren Messsensor mit dem gleichen Bildaufnahmetyp bestehen.
  9. Vermessungsanlage nach Anspruch 7, dadurch gekennzeichnet, dass die Sensormittel aus Kamerapositioniermittel (32) bestehen.
  10. Vermessungsanlage nach einem der Ansprüche 7–9, dadurch gekennzeichnet, dass Messkameras/Messsensoren (20, 22, 24, 26, 28, 30) vorgesehen sind, die eine Messfläche nach unterschiedlichen Verfahren detektieren, wie zum Beispiel dem trilinearen Zeilenverfahren, dem Streifenprojektionsverfahren, dem Lasertriangulationsverfahren, der Deflektrometrie, dem Lichtfeldverfahren, etc..
  11. Vermessungsanlage nach einem der Ansprüche 7–10, dadurch gekennzeichnet, dass mindestens eine Symmetriekamera (46) vorgesehen ist.
  12. Vermessungsanlage nach einem der Ansprüche 7–11, dadurch gekennzeichnet, dass Orientierungskameras (54, 56) vorgesehen sind, die fest auf den Messkameras (26, 30) montiert sind und mit im Messraum (44) angeordneten Referenzmarkierungen (58) kommunizieren.
  13. Vermessungsanlage nach einem der Ansprüche 7–12, dadurch gekennzeichnet, dass als Markierungsmittel für die Messfläche Projektionsvorrichtungen vorgesehen sind.
  14. Verfahren zur Durchführung einer Crashfahrzeug-Vermessung mit einer Vermessungsanlage nach einem der Ansprüche 7–13, dadurch gekennzeichnet, dass in einem ersten Schritt Bilder und/oder Bildsequenzen als Bilddaten (38, 40) von einer Messfläche (8, 10, 12, 14, 16, 18) eines Fahrzeuges (4) vor einem Fahrzeugcrash aufgenommen werden und an die Auswerteeinheit (34) übermittelt werden, in einem zweiten Schritt der Fahrzeugcrash durchgeführt wird und in einem dritten Schritt Bilder und/oder Bildsequenzen als Bilddaten von derselben Messfläche (8, 10, 12, 14, 16, 18) des Fahrzeuges (4) nach einem Fahrzeugcrash aufgenommen werden und an die Auswerteeinheit (34) übermittelt werden.
  15. Verfahren nach Anspruch 14, dadurch gekennzeichnet, dass die Messkamera (28, 30) zur Bilddatenaufnahme in einem ersten Schritt orthogonal zur Messfläche (16, 18) ausgerichtet wird, in einem zweiten Schritt um bis zu 20 Grad geneigt wird und in einem dritten Schritt um bis zu minus 20 Grad im Vergleich zur Ausgangsposition geneigt wird und nachfolgend diese Vorgehensweise für die um 90 Grad gegenüber der Ausgangsposition im ersten Schritt gedrehte Messkamera (28, 30) wiederholt wird.
  16. Verfahren nach Anspruch 14 oder 15, dadurch gekennzeichnet, dass zur Ausrichtung des Fahrzeugs (4) in Bezug auf die Symmetriekameras (46) mindestens drei Symmetriestrukturen am Fahrzeug (4), wie zum Beispiel Scheinwerfer (48), Frontscheibe, Mittensymbole (50), Heckleuchten, Heckfenster, Heckklappe, etc. aufgenommen werden.
  17. Verfahren nach einem der Ansprüche 14–16, dadurch gekennzeichnet, dass zur Ausrichtung der Messkameras (26, 30) mittels Orientierungskameras (54, 56), die fest auf den Messkameras (26, 30) angeordnet sind, mindestens drei im Messraum angeordnete Referenzmarkierungen (58) aufgenommen werden.
  18. Verfahren nach Anspruch 14 oder 15, dadurch gekennzeichnet, dass zur Ausrichtung der Messkameras (26, 30) mindestens drei Marken darauf angebracht sind, welche durch mindestens eine Orientierungskamera (46) gemessen werden können.
  19. Verfahren nach einem der Ansprüche 14–17, dadurch gekennzeichnet, dass zu Beginn eines jeden Crashversuches eine vollautomatische Kalibrierung der im Einsatz befindlichen Messsensoren vorgenommen wird und die Kalibrierwerte zu Auswertezwecken in der Auswerteeinheit (34) archiviert werden.
DE102012109351A 2012-01-31 2012-10-02 Auswerteeinheit, Auswerteverfahren, Vermessungsanlage für eine Crashfahrzeug-Vermessung sowie ein Verfahren zur Durchführung einer Crashfahrzeug-Vermessung Pending DE102012109351A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102012109351A DE102012109351A1 (de) 2012-01-31 2012-10-02 Auswerteeinheit, Auswerteverfahren, Vermessungsanlage für eine Crashfahrzeug-Vermessung sowie ein Verfahren zur Durchführung einer Crashfahrzeug-Vermessung
US13/753,893 US9485470B2 (en) 2012-01-31 2013-01-30 Evaluation unit, evaluation method, measurement system for a crash test vehicle measurement and a method for performing a crash test vehicle measurement

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
DE102012100798 2012-01-31
DE102012100798.5 2012-01-31
DE102012104811.8 2012-06-04
DE102012104811 2012-06-04
DE102012109351A DE102012109351A1 (de) 2012-01-31 2012-10-02 Auswerteeinheit, Auswerteverfahren, Vermessungsanlage für eine Crashfahrzeug-Vermessung sowie ein Verfahren zur Durchführung einer Crashfahrzeug-Vermessung

Publications (1)

Publication Number Publication Date
DE102012109351A1 true DE102012109351A1 (de) 2013-08-01

Family

ID=48783680

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012109351A Pending DE102012109351A1 (de) 2012-01-31 2012-10-02 Auswerteeinheit, Auswerteverfahren, Vermessungsanlage für eine Crashfahrzeug-Vermessung sowie ein Verfahren zur Durchführung einer Crashfahrzeug-Vermessung

Country Status (2)

Country Link
US (1) US9485470B2 (de)
DE (1) DE102012109351A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019115091B3 (de) * 2019-06-05 2020-08-13 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Crashanlage sowie Verfahren zur Durchführung von Sicherheitsversuchen mit derselben
DE102022112625A1 (de) 2022-05-19 2023-11-23 Isra Vision Gmbh Verfahren und Vorrichtung zur Ausrichtung von Kameras

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016077653A1 (en) * 2014-11-12 2016-05-19 Manak William T Novel systems and methods for processing an object

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6639685B1 (en) 2000-02-25 2003-10-28 General Motors Corporation Image processing method using phase-shifted fringe patterns and curve fitting
DE102004050020B4 (de) 2004-10-13 2008-04-30 Daimler Ag Auswertevorrichtung und Auswerteverfahren für einen Crashversuch
DE102009035840A1 (de) * 2009-08-01 2011-02-03 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zum Positionieren und/oder Einstellen von Hochgeschwindigkeitskameras

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19826288B4 (de) * 1998-06-12 2006-04-27 Volkswagen Ag Simulationsanordnung für Kraftfahrzeugunfälle und Verfahren zur Simulation von Kraftfahrzeugunfällen
US20040162154A1 (en) * 2003-02-14 2004-08-19 Dejohn David Kinetic motion analyzer
US8878950B2 (en) * 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
US9258459B2 (en) * 2012-01-24 2016-02-09 Radical Switchcam Llc System and method for compiling and playing a multi-channel video

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6639685B1 (en) 2000-02-25 2003-10-28 General Motors Corporation Image processing method using phase-shifted fringe patterns and curve fitting
DE102004050020B4 (de) 2004-10-13 2008-04-30 Daimler Ag Auswertevorrichtung und Auswerteverfahren für einen Crashversuch
DE102009035840A1 (de) * 2009-08-01 2011-02-03 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zum Positionieren und/oder Einstellen von Hochgeschwindigkeitskameras

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Pixoft Diagnostic Imaging Ltd.: Vicasso - The Art of Data Presentation, Birmingham UK, Mai 2009 *
Pixoft Diagnostic Imaging Ltd.: Vicasso – The Art of Data Presentation, Birmingham UK, Mai 2009
S. Wiedenmaier, O. Oehme: Augmented Reality-Technologien. Eine neue Mensch-Technik-Interaktion revolutioniert die Produktentwicklung, In: Unternehmen der Zukunft, Aachen, 2 (2001) 3, S.3 *
S. Wiedenmaier, O. Oehme: Augmented Reality-Technologien. Eine neue Mensch-Technik-Interaktion revolutioniert die Produktentwicklung, In: Unternehmen der Zukunft, Aachen, 2 (2001) 3, S.3

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019115091B3 (de) * 2019-06-05 2020-08-13 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Crashanlage sowie Verfahren zur Durchführung von Sicherheitsversuchen mit derselben
DE102022112625A1 (de) 2022-05-19 2023-11-23 Isra Vision Gmbh Verfahren und Vorrichtung zur Ausrichtung von Kameras
WO2023222493A1 (de) 2022-05-19 2023-11-23 Isra Vision Gmbh Verfahren, computerprogramm und vorrichtung zur ausrichtung von kameras

Also Published As

Publication number Publication date
US20130194417A1 (en) 2013-08-01
US9485470B2 (en) 2016-11-01

Similar Documents

Publication Publication Date Title
DE102015216908A1 (de) Verfahren zum Erkennen von Objekten auf einer Abstellfläche
DE102017103540A1 (de) Ermitteln einer Winkelstellung eines Anhängers ohne Zielmarkierung
DE102017011177A1 (de) Verfahren zum Ermitteln eines Knickwinkels eines Fahrzeug-Gespanns, Ermittlungseinrichtung sowie Fahrzeug-Gespann
EP2546778A2 (de) Verfahren zum evaluieren einer Objekterkennungseinrichtung eines Kraftfahrzeugs
DE102019106275A1 (de) Erfassungssystem und Verfahren zum Ermitteln eines Knickwinkels zwischen zwei Teilfahrzeugen eines Fahrzeug-Gespanns sowie Fahrzeug- Gespann
DE102016011853A1 (de) Verfahren zum Generieren von dreidimensionalen Informationen einer Umgebung eines Fahrzeugs
DE102012023060A1 (de) Verfahren zum Detektieren eines beweglichen Objekts mithilfe eines Histogramms anhand von Bildern einer Kamera und Kamerasystem für ein Kraftfahrzeug
EP2208168B1 (de) Verfahren und vorrichtung zur erkennung des verlaufs einer fahrspur
DE102016008406A1 (de) Bildmessvorrichtung, Steuerprogramm dieser Vorrichtung und nicht temporäres Aufzeichnungsmedium, auf welchem das Steuerprogramm aufgezeichnet ist
DE102016109030A1 (de) Verfahren zum Bewerten eines Scheinwerfers
DE102010023199A1 (de) Bilderfassungsvorrichtung für ein Fahrzeug und Verfahren zum Betrieb einer Bilderfassungsvorrichtung
DE102012109351A1 (de) Auswerteeinheit, Auswerteverfahren, Vermessungsanlage für eine Crashfahrzeug-Vermessung sowie ein Verfahren zur Durchführung einer Crashfahrzeug-Vermessung
DE102015223500A1 (de) Verfahren und Vorrichtung zur Prüfung der Funktionalität einer außenseitigen Lichteinrichtung eines Fahrzeugs
DE102007021106B4 (de) Verfahren und Vorrichtung zum Kalibrieren eines Kamerasystems
DE102011005780B4 (de) Verfahren und Vorrichtung zur Bestimmung einer Entfernung zwischen einem Fahrzeug und einem Objekt
DE102017125578A1 (de) Auf Tiefenwerten basierendes Gestenbedienungsverfahren und System dafür
DE102006037600A1 (de) Verfahren zur auflösungsabhängigen Darstellung der Umgebung eines Kraftfahrzeugs
EP3659113B1 (de) Erkennungssystem, arbeitsverfahren und trainingsverfahren zum erzeugen eines 3d-modells mit referenzdaten
DE102013218299A1 (de) Verfahren zum Detektieren eines Schadens eines Fahrzeugs anhand eines Prüfbilds, entsprechendes System und Computerprogrammprodukt
DE102010042821B4 (de) Verfahren und Vorrichtung zur Bestimmung einer Basisbreite eines Stereo-Erfassungssystems
DE102017117594A1 (de) Automatisierte Erkennung einer Scheinwerferfehlstellung
DE102016109027A1 (de) Verfahren zur Lageüberprüfung charakteristischer Punkte in Lichtverteilungen
DE102017221381A1 (de) Verfahren, Vorrichtung und Computerprogramm zum Ermitteln eines Abstandes zu einem Objekt
DE102014206227A1 (de) Stereokamerasystem
DE102014016031A1 (de) Ladeplatte zum kontaktlosen Laden eines Energiespeichers eines Kraftfahrzeugs und Verfahren zur Positionierung eines Kraftfahrzeugs in eine Ladeposition

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed