DE102004050020A1 - Auswertevorrichtung, Auswerteverfahren und Verwendung einer Auswertevorrichtung für einen Hochgeschwindigkeitsversuch - Google Patents

Auswertevorrichtung, Auswerteverfahren und Verwendung einer Auswertevorrichtung für einen Hochgeschwindigkeitsversuch Download PDF

Info

Publication number
DE102004050020A1
DE102004050020A1 DE200410050020 DE102004050020A DE102004050020A1 DE 102004050020 A1 DE102004050020 A1 DE 102004050020A1 DE 200410050020 DE200410050020 DE 200410050020 DE 102004050020 A DE102004050020 A DE 102004050020A DE 102004050020 A1 DE102004050020 A1 DE 102004050020A1
Authority
DE
Germany
Prior art keywords
evaluation
measuring ranges
data
cameras
measuring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE200410050020
Other languages
English (en)
Other versions
DE102004050020B4 (de
Inventor
Uwe Dr.-Ing. Franke
Uwe Merz
Stefan Dr.rer.nat. Gehrig
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
DaimlerChrysler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DaimlerChrysler AG filed Critical DaimlerChrysler AG
Priority to DE200410050020 priority Critical patent/DE102004050020B4/de
Publication of DE102004050020A1 publication Critical patent/DE102004050020A1/de
Application granted granted Critical
Publication of DE102004050020B4 publication Critical patent/DE102004050020B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M17/00Testing of vehicles
    • G01M17/007Wheeled or endless-tracked vehicles
    • G01M17/0078Shock-testing of vehicles

Abstract

Die Erfindung betrifft eine Auswertevorrichtung und ein Auswerteverfahren sowei die Verwendung einer Auswertevorrichtung zur Erfassung und Auswertung von Bildsequenzen von bewegten Messobjekten in einem Hochgeschwindigkeitsversuch. DOLLAR A Die bekannten optischen Messverfahren erlauben entweder nur eine qualitative Auswertung und keine genaue Positionsbestimmung der bewegten Objekte bzw. messsystembedingt nur eine genaue Positionsbestimmung von wenigen bereits vor dem Hochgeschwindigkeitsversuch auf den bewegten Messobjekten aufgebrachten Positionsmarken. DOLLAR A Es wird eine Auswertevorrichtung zur Erfassung und Auswertung von Bildsequenzen von bewegten Messobjekten mit markierten und/oder unmarkierten Messbereichen in einem Hochgeschwindigkeitsversuch mit einem Kamerasystem zur Erfassung von Bildsequenzen der bewegten Messobjekte vorgeschlagen, wobei ein Auswertesystem vorgesehen ist, das Mittel zur Bestimmung von 3-D-Bewegungsdaten der Messbereiche aus den erfassten Bildsequenzen unter Verwendung der Stereo-Bildverarbeitung und ggf. der Bewegungsanalyse aufweist. Weiterhin werden ein entsprechendes Auswerteverfahren und eine Verwendung der Auswertevorrichtung vorgeschlagen.

Description

  • Die Erfindung betrifft eine Auswertevorrichtung und ein Auswerteverfahren sowie die Verwendung einer Auswertevorrichtung zur Erfassung und Auswertung von Bildsequenzen von bewegten Messobjekten in einem Hochgeschwindigkeitsversuch.
  • Hochgeschwindigkeitsversuche, insbesondere Crashversuche, werden in der Automobilindustrie durchgeführt, um Erkenntnisse über Bewegungsabläufe von Kraftfahrzeugen und Dummies bei simulierten Verkehrsunfällen zu erhalten und insbesondere vorhandene sowie neue Sicherheitseinrichtungen für Kraftfahrzeuge zu testen.
  • Während der Hochgeschwindigkeitsversuche werden die schnell ablaufenden, dynamischen Vorgänge meist mittels geeigneter Sensorsysteme aufgezeichnet und anschließend entweder qualitativ bewertet oder rechnergestützt ausgewertet.
  • Die Druckschrift DE 196 23 026 A1 offenbart eine Hochgeschwindigkeitsfilmkamera, die in Hochgeschwindigkeitsversuchen als einzelne, sogenannte "Crashkamera" eingesetzt werden kann. Diese Kamera ermöglicht beispielsweise die Aufnahme und spätere Bewertung der Kopfbahnkurve eines Dummies während eines simulierten Unfalls. Eine rechnergestützte Auswertung der aufgenommenen Bildsequenzen zur Bestimmung von Bewegungsdaten ist in dieser Druckschrift nicht offenbart.
  • Die Druckschrift US 2003/0083844 A1 beschreibt ein Verfahren und ein Messsystem zur Positionsbestimmung von einer Vielzahl von Strahlungsquellen, die als Markierungen auf bewegten Objekten (z.B. dem Dummy) bei einem Crash-Versuch angebracht sind. Das Messsystem umfasst mindestens drei lineare optische Sensoren, deren Messdaten zur Positionsbestimmung der Strahlungsquellen herangezogen werden.
  • Die Druckschrift US 6,651,482 B1 offenbart einen Versuchsaufbau für einen Crashversuch, wobei mehrere Hochgeschwindigkeitskameras aus unterschiedlichen Beobachtungsrichtungen und mit unterschiedlichen Beobachtungsabständen die Bewegungsabläufe eines Kraftfahrzeugs während eines Crashversuchs für eine spätere Bewertung aufnehmen. Eine rechnergestützte Auswertung der aufgenommenen Bildsequenzen zur Bestimmung von Bewegungsdaten ist in dieser Druckschrift nicht offenbart.
  • Die bekannten optischen Messverfahren erlauben somit entweder nur eine qualitative Auswertung und keine genaue Positionsbestimmung der bewegten Objekte bzw. messsystembedingt nur eine genaue Positionsbestimmung von wenigen bereits vor dem Crash-Versuch auf den bewegten Objekten aufgebrachten Positionsmarken.
  • Es ist Aufgabe der Erfindung eine alternative Auswertevorrichtung und ein alternatives Auswerteverfahren sowie die Verwendung der Auswertevorrichtung zur Aufnahme und Auswertung von Bewegungsabläufen von bewegten Messobjekten in einem Hochgeschwindigkeitsversuch vorzuschlagen.
  • Die Aufgabe wird gelöst durch eine Auswertevorrichtung nach Anspruch 1.
  • Die Auswertevorrichtung nach Anspruch 1 umfasst ein Kamerasystem und ein Auswertesystem, das mit dem Kamerasystem vorzugsweise trennbar, z.B. über ein Datenübertragungskabel, verbunden ist.
  • Das Kamerasystem weist mindestens zwei Hochgeschwindigkeitskameras auf, wobei in bevorzugten Ausführungsformen mindestens eine dritte Kamera vorgesehen sein kann, die insbesondere der Erhöhung der Messgenauigkeit und der Identifikationssicherheit von Messbereichen dient.
  • Die Hochgeschwindigkeitskameras sind jeweils mit mindestens einem zweidimensionalen Detektorelement ausgestattet, so dass zweidimensionale Bilder erfasst werden können. Die Hochgeschwindigkeitskameras sind derart ausgebildet, dass mit diesen Bildsequenzen, also eine Serie von aufeinanderfolgenden Bildern mit vorzugsweise gleichem Zeitabstand, erfasst werden können.
  • Die Hochgeschwindigkeitskameras ermöglichen vorzugsweise Aufnahmeraten von mehr als 130 Bildern pro Sekunde, insbesondere mehr als 500 Bildern pro Sekunde und speziell mehr als 1500 Bildern pro Sekunde. Durch diese hohen Aufnahmeraten ist es möglich, die schnell ablaufenden Bewegungsabläufe bei den Hochgeschwindigkeitsversuchen in guter zeitlicher Auflösung zu erfassen, Insbesondere weisen die Hochgeschwindigkeitskameras Mittel zur Bereitstellung eines digitalen Bildsignals auf.
  • Das Auswertesystem ist vorzugsweise als Computer, Mikrocontrollersystem oder DSP-System mit Ein- und Ausgabegeräte ausgebildet. Vorzugsweise ist ein Framegrabber zur Digitalisierung der erfassten Bildsequenzen vorgesehen, der insbesondere in den Kameras oder in dem Auswertesystem oder separat angeordnet ist.
  • Das Auswertesystem weist Mittel auf, die programmtechnisch zur Bestimmung von 3D-Bewegungsdaten der Messbereiche auf den erfassten Bildsequenzen unter Verwendung der Stereo-Bildverarbeitung eingerichtet sind. Bei den Messbereichen kann es sich um markierte und/oder unmarkierte Messbereiche handeln. Vorzugsweise sind Mittel zur Bewegungsanalyse, insbesondere Mittel zur Bestimmung des optischen Flusses, vorgeshehen.
  • Ein Messbereich gilt als markiert, wenn vor einem Hochgeschwindigkeitsversuch Vorkehrungen getroffen wurden, um einen bestimmten Bereich auf den bewegten Objekten zum Zweck der späteren Auswertung besonders zu kennzeichnen, z.B. durch Aufbringen einer Positionsmarke oder einer Strahlungsquelle.
  • Unmarkierte Messbereiche sind beliebige Bereiche der bewegten Objekte, die vor einem Hochgeschwindigkeitsversuch nicht besonders gekennzeichnet wurden.
  • Die Auswertung von unmarkierten Messbereichen bietet die Vorteile, dass eine sehr hohe Dichte an Messpunkten erzielt werden kann. Ferner können auch nach dem Hochgeschwindigkeitsversuch interessierende Bereiche nachträglich ausgewertet werden. Diese Vorteile konnten durch die früheren Systeme nicht erzielt werden, da die Messpunktdichte und die Messpunktauswahl durch das Anbringen von Markierungen vor dem Hochgeschwindigkeitsversuch festgelegt wurden und nachträglich, d.h. nach dem Hochgeschwindigkeitsversuch, nicht mehr geändert werden konnten.
  • Die 3D-Bewegungsdaten können Informationen über die Position, die Geschwindigkeit, die Beschleunigung, die Orientierung, die Verformung und/oder die Verwindung der Messbereiche umfassen. Als Messbereiche sind sowohl einzelne Messbereiche als auch aus einzelnen Messbereichen zusammengesetzte komplexe Messbereiche zu verstehen.
  • Bei der aus anderen Anwendungsbereichen bekannten Stereo-Bildverarbeitung werden 3D-Positionsdaten von Objekten unter Verwendung von mindestens zwei Bildern, die von mindestens zwei voneinander beabstandeten Kameras aufgenommen sind, vorzugsweise auf Basis von Triangulation, ermittelt.
  • Bei bevorzugten Ausführungsformen sind die Kameras als Farb- oder Schwarzweißkameras ausgebildet und weisen insbesondere einen CCD-Chip oder einen CMOS-Chip als Detektorelement auf. Der CMOS-Chip kann aufgrund seiner logarithmischen Empfindlichkeit vorteilhaft in Verbindung mit der rechnergestützten Bildverarbeitung eingesetzt werden. Für besondere Anwendungen können auch Infrarot-Kameras, vorzugsweise für Aufnahmen in einem Wellenlängenbereich über 900 nm, insbesondere über 1300 nm, oder UV-Kameras, vorzugsweise für Aufnahmen in einem Wellenlängenbereich unter 400 nm, insbesondere unter 300 nm, vorgesehen sein.
  • Die Auswertevorrichtung ist vorteilhaft weitergebildet, wenn die mindestens zwei Kameras zeitlich zueinander synchronisiert sind, so dass vorzugsweise die mindestens zwei Kameras die Bilder der Bildsequenzen gleichzeitig erfassen. Die zeitliche Synchronisation vereinfacht bei der Stereo-Bildverarbeitung die Auswertung erheblich, da nicht nachträglich die Bilder der Bildersequenz einer ersten Kamera den Bildern der Bildersequenz einer zweiten Kamera zeitlich zugeordnet werden müssen.
  • In einer bevorzugten Ausführungsform sind die mindestens zwei Kameras des Kamerasystems örtlich zueinander fixiert, insbesondere unlösbar zueinander fixiert. Eine derartige unlösbare Fixierung kann beispielsweise durch Vergießen der mindestens zwei Kameras mit einer aushärtbaren Masse erfolgen. Die unlösbare Fixierung verhindert selbst bei großen plötzlichen Belastungen, wie sie z.B. bei einem simulierten Unfall in einem Crashversuch auftreten, dass sich die Lage der mindestens zwei Kameras zueinander ändert.
  • Die örtliche Fixierung ist vorzugsweise derart ausgebildet, dass die mindestens zwei Kameras durch einen Basisabstand voneinander beabstandet sind und/oder die Kameras die bewegten Messobjekte aus verschiedenen Beobachtungswinkeln erfassen. Der Basisabstand ist der Abstand zwischen den Mittelpunkten der zweidimensionalen Detektorelemente und beträgt vorzugsweise bis zu 120 mm, insbesondere bis zu 300 mm und bei besonderen Ausführungsformen bis zu 1000 mm. Gerade bei kleinen Basisabständen, das heißt bei Basisabständen von bis zu 300 mm kann sich aufgrund der nahezu identischen Beobachtungsrichtungen der Kameras der Vorteil ergeben, dass, z.B. bei Erfassung von Messbereichen innerhalb der Fahrgastkabine eines Kraftfahrzeuges, die Abschattung durch Störkonturen, wie die A-/B- oder C-Säule des Kraftfahrzeuges, minimiert oder gänzlich ausgeschlossen wird. Vorzugsweise bildet das Kamerasystem eine tragbare Einheit.
  • Insbesondere weisen die mindestens zwei Kameras das gleiche optische Abbildungsverhältnis auf und/oder erfassen die gleichen Messbereiche. Diese bevorzugte Ausführungsform erleichtert die Auswertung durch die Stereo-Bildverarbeitung, da die Bilder der mindestens zwei Kameras nicht nachträglich aufwendig hinsichtlich der Vergrößerung oder der Auswahl des Bildausschnittes zueinander angepasst werden müssen.
  • Bei einer vorteilhaften Weiterentwicklung ist vorgesehen, dass die mindestens zwei Kameras derart zueinander fixiert sind, dass eine gemeinsame epipolare Ebene gebildet wird und/oder, dass bei den Bildern der mindestens zwei Kameras jeweils gleiche Messbereiche auf einer gleichen horizontalen oder vertikalen Linie liegen.
  • Die gemeinsame epipolare Ebene wird gebildet durch den Messbereich (oder Messpunkt) in den Bildebenen und den optischen Zentren von mindestens zwei Kameras.
  • Die Vorrichtung ist vorteilhaft ausgebildet, wenn Mittel zur Kalibrierung und/oder Mittel zur Speicherung von Kalibrierungsinformationen und/oder Mittel zur Auswertung von Kalibrierungsinformationen vorgesehen sind. Vorzugsweise umfassen die Kalibrierungsinformationen innere Kameraparameter wie z.B. Größe und Auflösung der Detektorelemente, Parameter der verwendeten Optiken und des optischen Aufbaus, wie z.B. Brennweite, Bildweite, und insbesondere Informationen über die Verzeichnung der Optiken. Ferner können die Kalibrierungsinformationen äußere Kameraparameter umfassen, wie z.B, den Abstand der Kameras zueinander und/oder den Objektabstand. Die gespeicherten Kalibrierungsinformationen können durch die Mittel zur Auswertung der Kalibrierungsinformationen bei der Bestimmmung der 3D-Bewegungsdaten verrechnet werden, so dass eine verbesserte Genauigkeit der Vorrichtung erzielt wird.
  • Bei einer vorteilhaften Ausbildung der Auswertevorrichtung sind Mittel zur Identifikation der Messbereiche, also der markierten und/oder der unmarkierten Messbereiche, vorgesehen.
  • Vorzugsweise sind bei den Mitteln zur Identifikation digitale Auswertungsalgorithmen der Bildverarbeitung implementiert, insbesondere Auswertungsalgorithmen, wie Blockvergleich oder Merkmalsvergleich, also z.B. Farbdetektion, Kantendetektion, Eckendetektion, oder Mustererkennung etc.. Diese Auswertungsalgorithmen ermöglichen vorzugsweise auf Basis von strukturierten Geometriemerkmalen, wie z.B. Länge, Breite, Durchmesser oder Fläche, und/oder Strahlungsmerkmalen, wie z.B. Intensität oder Farbe, eine Identifikation der unmarkierten Messbereiche.
  • Bei einer bevorzugten Ausführungsform der Messvorrichtung sind Mittel zur Erzeugung von bildbasierten 3D-Modellen aus den Messbereichen vorgesehen. Diese Mittel sind programmtechnisch derart ausgestaltet, dass mehrere einzelne Messbereiche eines bewegten Objektes und/oder eines Teils eines bewegten Objektes zu einem komplexen Messbereiche zusammengefasst werden und, dass ein 3D-Modell des bewegten Objekts und/oder eines Teils davon auf Basis des komplexen Messbereichs erzeugt wird. Das 3D-Modell wird vorzugsweise entweder ausschließlich auf Basis des komplexen Messbereichs erzeugt oder es werden zusätzliche Informationen verwendet. Insbesondere bei dieser Ausführungsform ist es möglich, auch teilweise verdeckte Objekte zu vermessen.
  • Bei bevorzugten Weiterbildungen ist vorgesehen, dass diese zusätzlichen Informationen durch einen Import von 3D-Konstruktionsmodellen, d. h, z.B, 3D-CAD-Daten, bereitgestellt sind. In diesem Fall können die einzelnen Messbereiche des komplexen Messbereichs als Stützstellen für die 3D-Konstruktionsmodelle verwendet werden.
  • Vorteilhafterweise weisen die Mittel zur Bestimmung der 3D-Bewegungsdaten Mittel zur Bestimmung von 3D-Positionsdaten auf. Letztgenannte Mittel umfassen Auswertealgorithmen, die unter Verwendung der Stereo-Bildverarbeitung die 3D-Positionsdaten der Messbereiche bestimmen. Die 3D-Positionsdaten umfassen dabei für jeden Messbereich eine vorzugsweise zeitabhängige x-, y- und z-Ortskomponente und/oder den Betrag des Abstands zwischen Kamerasystem und Messbereich.
  • Ferner können zusätzliche Mittel zur Bestimmung von 3D-Geschwindigkeitsdaten und/oder 3D-Beschleunigungsdaten vorgesehen sein. Die 3D-Geschwindigkeitsdaten und/oder 3D-Beschleunigungsdaten umfassen für jeden beliebigen identifizierten Messbereich an jeder beliebigen Position und zu jeder beliebigen Zeit, also orts- und/oder zeitabhängig, eine x-, y- und z-Komponente und/oder Betrag und Richtung der Geschwindigkeit und/oder der Beschleunigung.
  • Aus den derart bestimmten 3D-Geschwindigkeitsdaten und/oder 3D-Beschleunigungsdaten können z.B. Erkenntnisse über Kollisionsgeschwindigkeiten oder über die Schwere von Verletzungen gewonnen werden.
  • Weiterhin können Mittel vorgesehen sein, die programmtechnisch auch 3D-Orientierungsdaten und/oder Verformungen und/oder Verwindungen der Messbereiche, insbesondere der komplexen Messbereiche und/oder der 3D-Modelle und somit auch der bewegten Messobjekte und/oder Teilen davon bestimmen.
  • Durch Bestimmung der Verformung und/oder der Verwindung der bewegten Objekte und/oder Teilen davon ist es möglich, sehr genaue Aussagen über deren Verhalten bei einem Unfall zu treffen. Derartige Aussagen waren mit den bekannten Messsystemen bislang nicht möglich. Die 3D-Orientierungsdaten geben Auskunft über auftretende Rotationen, Drehungen oder Verkippungen der Messobjekte und/oder Teilen oder Abschnitte der Messobjekte.
  • In bevorzugten Ausführungsformen sind Mittel vorgesehen, um die 3D-Bewegungsdaten in beliebige Koordinatensysteme zu transferieren. Diese Mittel erlauben es z.B., die 3D-Bewegungsdaten neben der Darstellung in "Laborkoordinaten" auch in Relativkoordinaten darzustellen. Somit kann beispielsweise die Relativgeschwindigkeit zwischen zwei bewegten Messobjekten und somit die Kollisionsgeschwindigkeit zwischen zwei bewegten Messobjekten berechnet werden.
  • Für eine spätere Auswertung können Speichermedien vorgesehen sein, um die erfassten Bildsequenzen und/oder die ermittelten 3D-Bewegungsdaten und/oder die Messbereiche und/oder die 3D-Modelle zu speichern.
  • Hei einer vorteilhaften Ausgestaltung der Erfindung sind Mittel zur Visualisierung oder Animation der 3D-Bewegungsdaten und/oder der 3D-Modelle vorgesehen, so dass zur qualitativen Auswertung der simulierte Unfall in Form von virtual reality dargestellt werden kann.
  • Die Aufgabe der Erfindung wird weiterhin durch das Auswerteverfahren nach Anspruch 14 gelöst.
  • Mit diesem Auswerteverfahren werden Bewegungsdaten von bewegten Messobjekten mit markierten und/oder unmarkierten Messbereichen ermittelt. Vorzugsweise wird das Auswerteverfahren in Zusammenhang mit Crashversuchen eingesetzt.
  • Bei dem Auswerteverfahren werden durch ein Kamerasystem, welches mindestens zwei Kameras mit jeweils einem zweidimensionalen Detektorelement aufweist, Bildsequenzen von den bewegten Messobjekten während des Hochgeschwindigkeitsversuchs aufgenommen.
  • Aus diesen aufgenommenen Bildsequenzen werden 3D-Bewegungsdaten der Messbereiche durch Auswertung unter Verwendung der Stereo-Bildverarbeitung bestimmt.
  • Vorzugsweise wird bei dem Auswerteverfahren ein Kamerasystem mit einem oder mehreren der Merkmale der Ansprüche 1 bis 13 eingesetzt. Vorteilhafterweise werden Hochgeschwindigkeitskameras verwendet, es können jedoch stattdessen auch Kameras mit Aufnahmeraten von bis zu 30 oder 60 Bildern pro Sekunde oder Spezialkameras wie UV-Kameras und/oder IR-Kameras eingesetzt werden.
  • Bei einer vorteilhaften Weiterbildung des Verfahrens wird eine Auswertevorrichtung nach einem oder mehreren der Ansprüche 1 bis 13 eingesetzt.
  • Bei einer bevorzugten Ausbildung des Verfahrens werden, vorzugsweise nach Auswahl von interessierenden Messbereichen, diese Messbereiche mittels digitaler Bildverarbeitung identifiziert. Vorzugsweise werden unmarkierte Messbereiche identifiziert, wie sie in Anspruch 7 oder weiter oben beschriebenen sind.
  • Die identifizierten Messbereiche können zu einem komplexen Messbereich zusammengefasst werden. Weiterhin kann aus einer Vielzahl von Messbereichen oder einem komplexen Messbereiche ein 3D-Modell des Messobjekts und/oder Teile bzw. Abschnitte des Messobjekts erzeugt werden.
  • In einem weiteren Schritt des Auswerteverfahren werden 3D-Positionsdaten der Messbereiche und/oder der 3D-Modelle mittels Stereo-Bildverarbeitung bestimmt. Optional oder alternativ können weitere 3D-Bewegungsdaten wie Geschwindigkeit, Beschleunigung, Orientierung, Verformungen, Verwindungen und/oder Deformationen der Messbereiche und/oder der 3D-Modelle berechnet werden.
  • Das Auswerteverfahren ist vorteilhaft weitergebildet, wenn die 3D-Bewegungsdaten unter Einsatz der Methoden des Objekt-Trackings und/oder der Punktverfolgung und/oder dem Verfahren der Bewegungsanalyse, insbesondere mittels optischen Fluss, berechnet werden. Bei der Punktverfolgung werden Messbereiche programmtechnisch als Punkte interpretiert und deren Bewegungsdaten berechnet. Das Objekt-Tracking ermöglicht die Verfolgung von komplexen Messbereichen und/oder 3D-Modellen innerhalb der aufgezeichneten Bildsequenzen und berechnet die Bewegungsdaten dieser Objekte.
  • Bei einer bevorzugten Weiterbildungen des Auswerteverfahren werden die absoluten Bewegungsdaten, das heißt die Bewegungsdaten in Labor- oder Weltkoordinaten, in relative Bewegungsdaten, d.h. in Koordinaten deren Koordinatensystem mit den Messobjekten mitbewegt werden, umgerechnet.
  • Beispielsweise kann ein Koordinatensystem programmtechnisch an die Position des Dummykopfes gelegt werden und mit diesem mitbewegt werden und somit die absolute Kollisionsgeschwindigkeit zwischen Dummykopf und Kraftfahrzeug berechnet werden.
  • Zusätzlich kann auch vorgesehen sein, dass Bewegungsdaten, die auf Basis der Bildersequenzen eines mit dem bewegten Messobjekt mitbewegten Kamerasystem ermittelt wurden, in Labor- oder Weltkoordinaten umgerechnet werden, also relative Bewegungsdaten in absolute Bewegungsdaten umgerechnet werden.
  • Bei einer bevorzugten Weiterbildung des Auswerteverfahren ist vorgesehen, dass das Kamerasystems außerhalb des bewegten Messobjekts, vorzugsweise ortsfest, oder innerhalb des bewegten Messobjekts angeordnet wird.
  • Die Ausgabe der Informationen über die Messbereiche, der Bildsequenzen und der Bewegungsdaten kann über eine geeignete Schnittstelle zu weiteren Programmen erfolgen und/oder durch grafische Darstellung und/oder 3D-Animation visualisiert werden.
  • Bei dem Auswerteverfahren können ein oder mehrere Kamerasysteme und/oder weitere Sensorsysteme zum Einsatz kommen, wobei bei der Berechnung der Bewegungsdaten die Messergebnisse aller eingesetzten Meßsysteme verwendet werden. Insbesondere bei Verwendung von mehreren Kamerasystemen, die die bewegten Messobjekte auf verschiedenen Perspektiven während des Hochgeschwindigkeitsversuches erfassen, ist es dann möglich, eine vollständige 3D-Animation der Bewegungsdaten zu erstellen.
  • Die Aufgabe der Erfindung wird ferner gemäß Anspruch 25 durch die Verwendung des Auswertesystems nach den Ansprüchen 1 bis 13 bei einem Hochgeschwindigkeitsversuch gelöst. Die Messobjekte weisen markierte und/oder unmarkierte Messbereiche auf.
  • Die Verwendung ist vorteilhaft weitergebildet, wenn ein Verfahren nach einem der Ansprüche 14 bis 24 eingesetzt wird.
  • Somit ist auch eine Versuchsanordnung für einen Hochgeschwindigkeitsversuch, insbesondere einen Crash-Versuch, mit bewegten und/oder bewegbaren Messobjekten, insbesondere Kraftfahrzeuge und/oder Dummies, mit markierten und/oder unmarkierten Messbereichen und mit einer Auswertevorrichtungen nach einem der Ansprüche 1 bis 13 offenbart.
  • Im Nachfolgenden werden bevorzugte Ausführungsbeispiele unter Bezugnahme auf die beigefügten Figuren näher erläutert.
  • Es zeigen:
  • 1 eine schematische Darstellung eines ersten Kamerasystems in Draufsicht,
  • 2 eine schematische Darstellung eines zweiten Kamerasystems in Draufsicht,
  • 3 eine schematische Darstellung des ersten Kamerasystems in Frontansicht,
  • 4 eine schematische Darstellung eines dritten Kamerasystems in Frontansicht,
  • 5 eine schematische Darstellung in Draufsicht eines ersten Versuchsaufbaus eines Crashversuchs mit drei Kamerasystemen,
  • 6 eine schematische Darstellung eines zweiten Versuchsaufbaus eines Crashversuchs mit Messobjekten, die markierte und unmarkierte Messbereiche aufweisen,
  • 7 eine graphische Darstellung von Versuchsergebnissen des zweiten Versuchsaufbaus,
  • 8 ein Ablaufdiagramm für ein Verfahren zur Ermittlung und Auswertung von Bewegungsdaten aus einem Crashversuch,
  • 9 eine Toolbox für eine Messvorrichtung zur Erfassung und Auswertung von Bildsequenzen von bewegten Objekten in einem Crashversuch,
  • 10 eine schematische Darstellung in Draufsicht eines dritten Versuchsaufbaus eines Crashversuchs mit drei Kamerasystemen.
  • 1 zeigt ein erstes Ausführungsbeispiel eines Kamerasystems 1. Das Kamerasystem 1 umfasst zwei Hochgeschwindigkeitskameras 2 und 3, die auf einer gemeinsamen Halterung 13 parallel zueinander, d.h. mit paralleler Sichtrichtung, mit einem Basisabstand 8 angeordnet sind. Der Basisabstand 8 ist der Abstand zwischen den Zentren der beiden Detektorelemente 6 und 7.
  • Die Kameras 2 und 3 weisen jeweils an der Frontseite ein Objektiv 4 bzw. 5 sowie jeweils ein zweidimensionales Detektorelement 6 bzw. 7 auf, die jeweils innerhalb der Kameras 2 und 3 angeordnet sind. Durch die Anordnung von Objektiv 4 oder 5 und dem Detektorelement 6 bzw. 7 ergibt sich für jede Kamera 2 und 3 ein eigenes Sichtfeld 11 bzw. 12, die sich ausgehend von den Kameras 2 bzw. 3 bis zu einer Messebene 9 erstrecken. Die Sichtfelder 11 und 12 überlappen in der Messebene 9 flächig in einem Objektbereich 10, in dem bei einer späteren Messung die Messobjekte angeordnet sind.
  • Das Kamerasystem 1 weist z.B. einen Basisabstand von 200 mm und Objektive mit einer Brennweite von 100 mm auf, wobei Objekte in ca. 10 m erfasst werden können. Als Detektorelemente 6 und 7 werden zweidimensionale Farb-CCD-Chips eingesetzt. Die Hochgeschwindigkeitskameras 2 und 3 erlauben Aufnahmeraten von bis zu 2000 Bildern pro Sekunde.
  • Die 2 zeigt ein weiteres Ausführungsbeispiel eines Kamerasystems 1, das sich vom ersten Ausführungsbeispiel dadurch unterscheidet, dass die Kameras 2 und 3 nicht parallel zueinander angeordnet sind, sondern in horizontaler Ebene leicht verdreht zueinander angeordnet sind. Die Verdrehung führt dazu, dass die von den Kameras 2 und 3 ausgehenden Sichtfelder 11 und 12 sich in der Messebene 9 stärker als im ersten Ausführungsbeispiel oder sogar vollflächig überlappen, sodass ein größerer Objektbereich 10 als im ersten Ausführungsbeispiel gebildet wird.
  • 3 zeigt das erste Ausführungsbeispiel des Kamerasystems 1 in Frontansicht. Die beiden Kameras 2 und 3 sind durch Befestigungsschrauben 14a mit der Halterung 13 fest jedoch lösbar verbunden. Das Kamerasystem 1 ist somit ein tragbares System, das bereits justiert und kalibriert als Einheit in einem Hochgeschwindigkeitsversuch an beliebiger Stelle positioniert werden kann.
  • 4 zeigt ein alternatives Ausführungsbeispiel eines Kamerasystems 1, das sich von dem Ausführungsbeispiel in 3 dadurch unterscheidet, dass die Fixierung der beiden Kameras 2 und 3 zueinander durch Vergießen mittels Vergussmasse 14b erfolgt. Die beiden Kameras 2 und 3 sind unlösbar miteinander verbunden. Diese Ausführungsform eines Kamerasystems 1 wird bei Crashversuchen beispielsweise innerhalb der Fahrgastkabine angeordnet, wobei sichergestellt ist, dass die relative Position der Kameras 2 und 3 zueinander auch bei einem simulierten Unfall nicht verändert wird.
  • 5 zeigt eine schematische Darstellung in Draufsicht eines ersten Versuchsaufbaus eines Crashversuchs. Bei diesem Crashversuch wird ein Kraftfahrzeug 15 gegen ein stehendes Hindernis 16 gefahren. Das Kraftfahrzeug 15 weist eine Fahrgastkabine 18 auf, in der sich auf dem Fahrersitz ein Dummy 19 befindet. Das Kraftfahrzeug 15 und der Dummy 19 sind in diesem Versuch bewegte Messobjekte. Zur Aufnahme der dynamischen Vorgänge während des simulierten Unfalls sind drei Stereo-Kamerasysteme 1a, 1b und 1c vorgesehen.
  • Das erste Kamerasystem 1a ist ortsfest in Draufsicht seitlich links neben dem Kraftfahrzeug 15 angeordnet und beobachtet dieses während des simulierten Unfalls in Seitenansicht. Das Kamerasystem 1a ist über ein Datenübertragungskabel 17a mit einem Auswertesystem 17 verbunden. Das Auswertesystem 17 umfasst eine Eingabeeinheit zur manuellen Eingabe von Aufnahme- und Auswertungsparametern sowie einen Bildschirm zur Ausgabe einer grafischen Darstellung der Versuchsergebnisse wie sie beispielsweise in 7 dargestellt ist.
  • Das Kamerasystem 1b ist innerhalb der Fahrgastkabine 18 angeordnet und beobachtet während des simulierten Unfalls den Dummy 19. Die während des simulierten Unfalls aufgezeichneten Bildsequenzen werden im Kamerasystem 1b zwischengespeichert und erst nach dem Unfall für die Auswertung ausgelesen. Innerhalb der Fahrgastkabine 18 kann auch ein Kamerasystem, wie es in 4 dargestellt ist, eingesetzt werden.
  • Das Kamerasystem 1c ist in Draufsicht seitlich rechts neben dem Kraftfahrzeug 15 angeordnet und mit diesem über eine mitbewegte Kamerahalterhalterung 20 starr verbunden, so dass auch das Kamerasystem 1c mit dem Kraftfahrzeug 15 mitbewegt wird. Das Kamerasystem 1c beobachtet den Dummy 19 in Seitenansicht. Aufgrund des geringen Basisabstands der Kameras des Kamerasystems 1c unter 200 mm kann durch geschickte Positionierung des Kamerasystems 1c eine Abschattung der Sichtfelder der Kameras durch Seitenholme des Kraftfahrzeugs 15 vermieden werden.
  • 6 zeigt eine schematische Darstellung eines zweiten Versuchsaufbaus eines Crashversuchs, bei dem das Auffahren eines Kraftfahrzeugs 15 auf einen Dummy 19 untersucht wird. Gezeigt sind allerdings nur die bewegten Messobjekte mit markierten und unmarkierten Messbereichen, nicht aber die Auswertevorrichtung.
  • Das Kraftfahrzeug 15 weist vier Positionsmarken 21a, b, c, d auf, wie sie herkömmlich zur Markierung von Messbereichen vor dem Crash-Versuch auf Messobjekte aufgebracht werden. Mit den herkömmlichen Auswertevorrichtungen und -verfahren wäre es nur möglich, quantitative Auswertungen bezüglich dieser vier Messbereiche durchzuführen.
  • Das Kraftfahrzeug 15 und der Dummy 19 weisen ferner sieben unmarkierte Messbereiche auf, die unter Verwendung von digitaler Bildverarbeitung ausgewählt und identifiziert wurden. Die Auswahl und Identifikation der unmarkierten Messbereiche können sowohl vor dem Crash-Versuch als auch nach dem Crash-Versuch durchgeführt werden.
  • Als unmarkierte Messbereiche wurden in 7 ein Hinterrad 22, ein Türschweller 23, ein Türgriff 24, eine Türfuge 25, ein Scheinwerfer 26, der Dummy Kopf 27 und der Dummyarm 28 ausgewählt und identifiziert.
  • Die Identifikation eines unmarkierten Messbereichs kann dabei z.B. durch Merkmalsvergleich des gesamten Messbereichs erfolgen, so dass bei einer späteren Auswertung 3D-Bewegungsdaten hinsichtlich der Position, der Geschwindigkeit, der Beschleunigung und der Orientierung für den gesamten Messbereich ermittelt werden können.
  • Die unmarkierten Messbereiche können aber auch durch eine Vielzahl von kleineren unmarkierten Messbereichen zusammengesetzt sein und bilden damit komplexe Messbereiche. Diese Art der Auswahl und Identifikation der unmarkierten Messbereiche bietet den Vorteil einer höheren Ortsauflösung der Auswertung und dass auch Verwindungen und Deformationen der unmarkierten Messbereiche ausgewertet werden können. Wird beispielsweise der Messbereich Türschweller 23 durch eine Vielzahl von unmarkierten Messbereichen zusammengesetzt, so kann nach dem simulierten Unfall untersucht werden, ob und wie der Türschweller 23 deformiert wurde.
  • Ferner ist es möglich, durch Verwendung einer Vielzahl von unmarkierten Messbereichen ein 3D-Modell von Teilen des Kraftfahrzeugs 15 oder des Dummies 19 zu erzeugen. Beispielsweise kann aus einer Vielzahl von Messbereichen ein 3D-Modell der Kraftfahrzeugtür, der Motorhaube oder des gesamten Frontbereichs des Kraftfahrzeugs 15 oder des Dummykopfs 27 erzeugt werden. Die Erzeugung der 3D-Modelle kann auch unter Verwendung von bereits existierenden 3D-CAD-Konstruktionsmodellen der jeweiligen Teile erfolgen, wobei die unmarkierten Messbereiche als Stützstellen in den 3D-CAD-Konstruktionsmodellen verwendet werden.
  • 7 zeigt ein Beispiel für eine grafische Darstellung 39 von Ergebnissen des Versuchsaufbaus in 6. Eine derartige grafische Darstellung wird beispielsweise nach dem simulierten Unfall in dem Auswertesystem 17 in 5 angezeigt. Die grafische Darstellung 39 zeigt die bewegten Messobjekte Kraftfahrzeug 15 und Dummy 19 im Moment der Kollision.
  • Die in 6 als ausgewählt und identifiziert dargestellten unmarkierten Messbereiche sind in der 7 mit Farbkodierungen 29, 30, 31, 32, 33, 34 und 35 versehen. Die Farbkodierungen sind in dieser Anmeldung ersatzweise als Kreise, Dreiecke und Quadrate dargestellt. Tatsächlich werden die Farbkodierungen durch verschiedene Farben eines Farbverlaufs dargestellt, der beispielsweise von blau nach rot verläuft. Durch die am unteren Bildrand der grafischen Darstellungen 39 angeordneten Legenden 36, 37 und 38 wird eine Zuordnung der Farbkodierungen zu absoluten Werten hinsichtlich des Abstandes (Legende 36), der Geschwindigkeit (Legende 37) und der Beschleunigung (Legende 38) gegeben, die abwechselnd aktiviert werden können. Bei den Legenden 36, 37 und 38 zeigt ein Pfeil an, dass die absoluten Werte der dargestellten Bewegungsdaten von Kreis über Dreieck zu Quadrat größer werden.
  • In der grafischen Darstellung 39 ist die Legende 36 aktiv. Aus der grafischen Darstellung 39 ist somit der Abstand zwischen Kamerasystem und den ausgewählten Messbereichen direkt aus den Farbkodierungen ablesbar. Bei den Messbereichen handelt es sich um komplexe Messbereiche, die aus einer Vielzahl von kleineren Messbereichen zusammengesetzt wurden, die quasi eine Messpunktwolke bilden. Für jeden der kleineren Messbereiche wird eine eigene Abstandsinformation durch Farbkodierungen angezeigt, wie aus der Vielzahl der Kreise z.B. bei der Farbkodierung 30 des Türschwellers zu erkennen ist. Bei Umschaltung der grafischen Darstellung auf die anderen Legenden 37 oder 38 zur Anzeige der Geschwindigkeit bzw. der Beschleunigung werden die Farbkodierungen entsprechend der anzuzeigenden Werte verändert.
  • 8 zeigt ein Ablaufdiagramm für ein Verfahren zur Ermittlung und Auswertung von Bewegungsdaten aus einem Crashversuch wie er beispielsweise in den 5 oder 7 gezeigt ist, der beispielsweise mittels einer Auswertevorrichtung mit Kamerasystem 1a und Auswertesystem 17 wie in 5 aufgenommen wird.
  • In einem ersten Schritt wird die Auswertevorrichtung kalibriert und die Kalibrierung anschließend verifiziert. Eine derartige Kalibrierung und Verifizierung kann beispielsweise durch Aufnahme von Bildern eines Kalibrierobjektes erfolgen, von dem die Position im Versuchsraum und die Abmessungen bekannt sind. Dieser erste Schritt muss nicht notwendigerweise vor jedem Messdurchlauf durchgeführt werden, insbesondere solange die Kameras zueinander fixiert sind.
  • In einem nächsten Schritt werden Bildsequenzen von den bewegten Messobjekten, also zum Beispiel eines Kraftfahrzeugs und eines Dummies, mittels eines Stereo-Kamerasystems während einem simulierten Unfall aufgenommen.
  • Nach dem Crash-Versuch werden Informationen zur Auswahl der Messbereiche in das Auswertesystem eingegeben bzw. automatisch ausgewählt. Eine Zwischenspeicherung der Bildsequenzen bzw. der Auswahlinformationen kann optional erfolgen.
  • In einem weiteren Schritt erfolgt die Identifikation der ausgewählten Messbereiche mittels digitaler Bildverarbeitung. Es können dabei sämtliche bekannte Verfahren der Bildverarbeitung verwendet werden.
  • In einem weiteren Schritt können aus den identifizierten Messbereiche entweder komplexe Messbereiche oder 3D-Modelle erzeugt werden, die jeweils ein gesamtes bewegtes Messobjekt, Teile eines bewegten Messobjekts oder Abschnitte eines bewegten Messobjekts repräsentieren. Die 3D-Modelle können auch unter Verwendung von existierenden 3D-CAD-Modellen erstellt werden.
  • In einem weiteren Schritt werden zunächst 3D-Positionsdaten der Messbereiche, der komplexen Messbereiche oder der 3D-Modelle durch Stereo-Bildverarbeitung ermittelt.
  • Auf Basis der ermittelten 3D-Positionsdaten werden dann in einem weiteren Schritt der optische Fluss, also die zeitabhängige Bewegung der Messbereiche, der komplexen Messbereiche und/oder der 3D-Modelle berechnet. Hierbei wird auf bekannte Techniken der Bewegungsanalyse bei der Stereo-Bildverarbeitung zurückgegriffen, wie z.B. Differenzbildung von aufeinanderfolgenden Bildern und Auswertung der Grauwertkanten oder Bestimmung von korrespondierenden, also identischen, Messbereichen in aufeinanderfolgenden Bildern und Ermittlung eines Verschiebungsvektors.
  • Optional können 3D-Geschwindigkeitsdaten, 3D-Beschleunigungsdaten oder Verwindungen/Deformationen der Messbereiche, der komplexen Messbereiche und/oder der 3D-Modelle berechnet werden.
  • In einem weiteren Schritt erfolgt die Ausgabe der ermittelten Daten, d.h. der Bildsequenzen und der Bewegungsdaten.
  • Die Ausgabe erfolgt durch Visualisierung mittels einer grafischen Darstellung wie in 7 gezeigt. Ferner können die Versuchsergebnisse, insbesondere das Verhalten der komplexen Messbereiche oder der 3D-Modelle in einer Simulation ausgeführt als virtual reality, d.h. in einer 3D-Animation, dargestellt werden, so dass der Versuchsablauf aus verschiedenen auch ursprünglich nicht durch das Kamerasystem aufgenommenen Perspektiven gezeigt werden kann. Weiterhin können die ermittelten Daten an andere Programme übergeben werden.
  • Die Reihenfolge der in 8 gezeigten Schritte des Verfahrens ist nicht zwingend, z.B. kann die Berechnung der komplexen Messbereiche und der 3D-Modelle auch erst nach Ermittlung der 3D-Positionsdaten der Messbereiche erfolgen.
  • 9 zeigt die Architektur einer Software-Toolbox für eine Messvorrichtung zur Erfassung und Auswertung von Bildsequenzen von bewegten Objekten in einem Crashversuch.
  • Der Mess-Layer der Toolbox umfasst programmtechnische Komponenten zur Kalibrierung und Verifikation der Kalibrierung, die wie bereits zu 8 erläutert durchgeführt werden. Ferner umfasst der Mess-Layer programmtechnische Komponenten zur Stereobild-Analyse und Bewegungsanalyse, die entsprechend der Beschreibung zu 8 umgesetzt sind.
  • Auf dem Mess-Layer setzten die Basis-Applikationen Punktverfolgung, Objekt-Tracking und 3D-Form-Extraktion auf. Punktverfolgung und Objekt-Tracking sind bereits oben erläutert. Die Applikation 3D-Form-Extraktion erzeugt auf einer Vielzahl von Messbereichen oder aus komplexen Messbereichen ein 3D-Modell mit hoher örtlicher Auflösung.
  • Die Toolbox weist ferner Komplett-Applikationen auf, die die Analyse von z.B. der Kopfbewegung eines Dummies oder von Bewegungsdaten, insbesondere Deformationen, von Motorhauben umsetzen. Eine weitere Komplett-Applikation stellt das Object-Modelling dar, dass einen Vergleich bzw. Abgleich der bildbasierten 3D-Modellen mit 3D-CAD-Modellen realisiert.
  • Eine Dateneingabe in die Toolbox ist entweder durch manuelle Eingabe über über GUIs (graphical user interfaces) oder durch Schnittstellen zu CAD-Systemen (computer aided design) oder FEM-Systemen (finite elements methods) möglich. Die Datenausgabe auf der Toolbox erfolgt durch Visualisierung oder Animation (virtual reality) oder ebenfalls über Schnittstellen zur CAD- oder FEM-Systemen.
  • 10 zeigt ein weiteres Ausführungsbeispiel eines Versuchsaufbaus eines Crashversuchs mit drei Kamerasystemen. Im Unterschied zu dem Versuchsaufbau in 5 sind die drei Kamerasysteme 1a, b, c ortsfest positioniert und erfassen den Dummy 19 während des Aufpralls des Kraftfahrzeugs 15 auf das Hindernis 16. Der dargestellte Versuchsaufbau ermöglicht somit die Beobachtung des zu vermessenden Objekts auf drei verschiedenen Perspektiven, so dass die Struktur des Dummies und dessen Bewegungsablauf vollständig dreidimensional erfasst werden kann. In dem dargestellten Beispiel stehen sich die Kamerasysteme 1a und 1c frontal gegenüber, bei Abwandlungen dieses Versuchsaufbaus können die Kameras drei verschiedene Beobachtungswinkel aufweisen, so z.B. um jeweils 120° versetzt angeordnet sein.
  • 1, 1a, b, c
    Kamerasystem
    2,
    Kameras
    4, 5
    Objektive
    6, 7
    Detektorelemente
    8
    Basisabstand
    9
    Messebene
    10
    Objektbereich
    11, 12
    Sichtfelder
    13
    Halterung
    14a, b
    Befestigungsschrauben, Vergussmasse
    15
    Kraftfahrzeug
    16
    Hindernis
    17
    Auswertesystem
    18
    Fahrgastkabine
    19
    Dummy
    20
    mitbewegte Kamerahalterung
    21a, b, c, d
    Positionsmarken
    22
    Hinterrad
    23
    Türschweller
    24
    Türgriff
    25
    Türfuge
    26
    Scheinwerfer
    27
    Dummykopf
    28
    Dummyarm
    29, 30, 31,
    32, 33, 34,35
    Farbkodierungen
    36, 37, 38
    Legenden
    39
    graphische Darstellung

Claims (26)

  1. Auswertevorrichtung zur Erfassung und Auswertung von Bildsequenzen von bewegten Messobjekten mit markierten und/oder unmarkierten Messbereichen, vorzugsweise von Kraftfahrzeugen (15) und Dummies (19) o.ä., in einem Hochgeschwindigkeitsversuch, insbesondere in einem Crashversuch, mit einem Kamerasystem (1, 1a, b, c) zur Erfassung von Bildsequenzen der bewegten Messobjekte, wobei das Kamerasystem (1, 1a, b, c) mindestens zwei Hochgeschwindigkeitskameras (2, 3) mit zweidimensionalen Detektorelementen (6, 7) aufweist, dadurch gekennzeichnet, dass ein Auswertesystem (17) vorgesehen ist, das Mittel zur Bestimmung von 3D-Bewegungsdaten der Messbereiche aus den erfassten Bildsequenzen unter Verwendung der Stereo-Bildverarbeitung aufweist.
  2. Auswertevorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die mindestens zwei Kameras (2, 3) einen zweidimensionalen CCD-Chip und/oder einen zweidimensionalen CMOS-Chips aufweisen.
  3. Auswertevorrichtung nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die mindestens zwei Kameras zeitlich zueinander synchronisiert sind, vorzugsweise derart, dass die mindestens zwei Kameras Bilder der Bildsequenzen gleichzeitig erfassen.
  4. Auswertevorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die mindestens zwei Kameras örtlich zueinander fixiert sind, vorzugsweise derart, dass die mindestens zwei Kameras die bewegten Messobjekte aus mindestens zwei verschiedenen Beobachtungswinkeln und/oder – positionen erfassen.
  5. Auswertevorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die mindestens zwei Kameras das gleiche optische Abbildungsverhältnis aufweisen und/oder die gleichen Messbereiche erfassen.
  6. Auswertevorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Auswertesystem Mittel zur Identifikation der Messbereiche aufweist.
  7. Auswertevorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Mittel zur Identifikation der Messbereiche Mittel zur Identifikation von unmarkierten Messbereichen umfassen und zwar insbesondere von unmarkierten Messbereichen, die durch geschlossene und/oder quasi – geschlossene Objekte – wie z.B. einem Dummy (19), vorzugsweise dessen Köperteile, Extremitäten (28) oder Kopf (27), einer Rückenlehne eines Sitzes, eines Airbags, einer Motorhaube, dem gesamten Frontbereich eines Kraftfahrzeuges oder der A-, B- oder C-Säule eines Kraftfahrzeuges – gebildet sind und/oder von unmarkierten Messbereichen die durch Objektkonturlinien – wie z.B. dem Verlauf eines Türrahmenabsatzes, einer Kotflügelbegrenzungslinie, einem Türschweller (23) – gebildet sind und/oder von unmarkierten Messbereichen, die durch beliebige Bereiche gebildet sind und/oder von unmarkierten Messbereichen, die durch ihre Struktur identifiziert werden können.
  8. Auswertevorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass Mittel zur Erzeugung von bildbasierten 3D-Modellen auf den Messbereichen vorgesehen sind.
  9. Auswertevorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Mittel zur Bestimmung der 3D-Bewegungsdaten Mittel, vorzugsweise digitale Auswertungsalgorithmen, zur Bestimmung von 3D-Positionsdaten und/oder 3D-Geschwindigkeitsdaten und/oder 3D-Beschleunigungsdaten und/oder 3D-Orientierungsdaten und/oder Verformungen und/oder Verwindungen der Messbereiche und/oder der 3D-Modelle umfasst.
  10. Auswertevorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass Mittel zur Verfolgung von Messbereichen und/oder der 3D-Modelle innerhalb der Bildersequenzen vorgesehen sind.
  11. Auswertevorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass Mittel zur Speicherung der Bildsequenzen und/oder der 3D-Bewegungsdaten vorgesehen sind.
  12. Auswertevorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass Mittel zur Visualisierung, insbesondere zur Animation, und/oder Mittel zur Ausgabe der 3D-Bewegungsdaten und/oder der 3D-Modelle sowie weiterer relevanter Daten vorgesehen sind.
  13. Auswerteverfahren für die Ermittlung von Bewegungsdaten in einem Hochgeschwindigkeitsversuch, insbesondere einem Crash-Versuch, mit bewegten Messobjekten, die markierte und/oder unmarkierte Messbereiche aufweisen, wobei Bildersequenzen von den bewegten Messobjekten während des Hochgeschwindigkeitsversuchs durch ein Kamerasystem erfasst werden, das mindestens zwei Kameras, vorzugsweise Hochgeschwindigkeitskameras, mit zweidimensionalen Detektorelementen aufweist, dadurch gekennzeichnet, dass 3D-Bewegungsdaten der Messbereiche durch Auswertung der erfassten Bildersequenzen unter Verwendung der Stereo-Bildverarbeitung bestimmt werden.
  14. Auswerteverfahren nach Anspruch 14, dadurch gekennzeichnet, dass ein oder mehrere Kamerasysteme mit einem oder mehreren der Merkmale der Ansprüche 1 bis 13 eingesetzt wird, insbesondere eine oder mehrere Auswertevorrichtungen nach einem der Ansprüche 1 bis 13.
  15. Auswerteverfahren nach Anspruch 14 oder 15, dadurch gekennzeichnet, dass mittels digitaler Bildverarbeitung Messbereiche, insbesondere unmarkierte Messbereiche wie z.B. in Anspruch 7 aufgezählt, identifiziert werden.
  16. Auswerteverfahren nach einem der Ansprüche 14 bis 16, dadurch gekennzeichnet, dass aus einem oder mehreren der identifizierten Messbereiche ein 3D-Modell des Messobjekts und/oder von Teilen des Messobjekts erzeugt werden.
  17. Auswerteverfahren nach Anspruch 16 oder 17, dadurch gekennzeichnet, dass aus den erfassten Bildersequenzen 3D-Bewegungsdaten der identifizierten Messbereiche und/oder des 3D-Modells bestimmt werden, wobei die 3D-Bewegungsdaten 3D-Positionsdaten und/oder 3D-Geschwindigkeitsdaten und/oder 3D-Beschleunigungsdaten und/oder 3D-Orientierungsdaten und/oder zeit- und/oder positionsabhängige Verformungen oder Verwindungen umfassen.
  18. Auswerteverfahren nach einem der Ansprüche 14 bis 18, dadurch gekennzeichnet, dass die 3D-Bewegungsdaten durch Methoden des Objekt-Trackings und/oder der Punktverfolgung und/oder anderen Methoden der Bewegungsanalyse bestimmt werden.
  19. Auswerteverfahren nach einem der Ansprüche 14 bis 19, dadurch gekennzeichnet, dass aus den 3D-Bewegungsdaten und/oder den Messbereichen und/oder den 3D-Modellen die Bewegung und die Verformung von relevanten Teilen des Messobjekts wie z.B. dem Kopf oder dem Körper des Dummies oder einer Motorhaube etc. ermittelt werden.
  20. Auswerteverfahren nach einem der Ansprüche 14 bis 20, dadurch gekennzeichnet, dass absolute Bewegungsdaten und/oder relative Bewegungsdaten ermittelt werden.
  21. Auswerteverfahren nach einem der Ansprüche 14 bis 21, dadurch gekennzeichnet, dass das Kamerasystem außerhalb des bewegten Messobjekts oder innerhalb, z.B. in der Fahrgastkabine des Kraftfahrzeugs, angeordnet wird.
  22. Auswerteverfahren nach einem der Ansprüche 14 bis 22, dadurch gekennzeichnet, dass die Hildersequenzen zunächst gespeichert werden und erst nach dem Hochgeschwindigkeitsversuch ausgewertet werden.
  23. Auswerteverfahren nach einem der Ansprüche 14 bis 23, dadurch gekennzeichnet, dass die erfassten Bildersequenzen, die Messbereiche, die 3D-Modelle und/oder die 3D-Bewegungsdaten gespeichert und/oder insbesondere durch eine Animation visualisiert werden.
  24. Auswerteverfahren nach einem der Ansprüche 14 bis 24, dadurch gekennzeichnet, dass das Kamerasystem kalibriert und/oder verifiziert wird.
  25. Verwendung eines Auswertesystems nach einem der Ansprüche 1 bis 13, dadurch gekennzeichnet, dass das Auswertesystem zur Auswertung eines Hochgeschwindigkeitsversuches, insbesondere Crashversuchs, mit bewegten Messobjekten eingesetzt wird.
  26. Verwendung eines Auswertesystems nach Anspruch 26, dadurch gekennzeichnet, dass ein Verfahren nach einem der Ansprüche 14 bis 25 angewendet wird.
DE200410050020 2004-10-13 2004-10-13 Auswertevorrichtung und Auswerteverfahren für einen Crashversuch Expired - Fee Related DE102004050020B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE200410050020 DE102004050020B4 (de) 2004-10-13 2004-10-13 Auswertevorrichtung und Auswerteverfahren für einen Crashversuch

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE200410050020 DE102004050020B4 (de) 2004-10-13 2004-10-13 Auswertevorrichtung und Auswerteverfahren für einen Crashversuch

Publications (2)

Publication Number Publication Date
DE102004050020A1 true DE102004050020A1 (de) 2006-05-04
DE102004050020B4 DE102004050020B4 (de) 2008-04-30

Family

ID=36201560

Family Applications (1)

Application Number Title Priority Date Filing Date
DE200410050020 Expired - Fee Related DE102004050020B4 (de) 2004-10-13 2004-10-13 Auswertevorrichtung und Auswerteverfahren für einen Crashversuch

Country Status (1)

Country Link
DE (1) DE102004050020B4 (de)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009021686A1 (de) * 2009-05-18 2010-11-25 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Crashsimulationsanlage und Crashsimulationsverfahren
FR2966585A1 (fr) * 2010-10-25 2012-04-27 Peugeot Citroen Automobiles Sa Installation pour determiner la position d'un mannequin pour test de choc dans un vehicule et procede utilisant cette installation
CN103185660A (zh) * 2011-12-28 2013-07-03 江南大学 一种用于汽车碰撞试验的安全检测反馈系统
CN103940570A (zh) * 2014-05-09 2014-07-23 中南大学 轨道车辆实车对撞试验系统
US9485470B2 (en) 2012-01-31 2016-11-01 Dr. Ing. H.C.F. Porsche Aktiengesellschaft Evaluation unit, evaluation method, measurement system for a crash test vehicle measurement and a method for performing a crash test vehicle measurement
CN113670718A (zh) * 2021-08-09 2021-11-19 南京中车浦镇城轨车辆有限责任公司 一种机车电缆接头力学与寿命测试装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4308776C2 (de) * 1992-03-23 1997-08-21 Fuji Heavy Ind Ltd Einrichtung zum Überwachen des Außenraums eines Fahrzeugs
JP2002252850A (ja) * 2001-02-26 2002-09-06 Matsushita Electric Ind Co Ltd 実験結果管理システム及び実験結果管理方法
US6651482B1 (en) * 2000-12-15 2003-11-25 Exponent, Inc. Apparatus and method for vehicle rollover crash testing
US20040101162A1 (en) * 2002-11-19 2004-05-27 Honda Motor Co., Ltd. Moving object detection device, moving object detection method, and moving object detection program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4308776C2 (de) * 1992-03-23 1997-08-21 Fuji Heavy Ind Ltd Einrichtung zum Überwachen des Außenraums eines Fahrzeugs
US6651482B1 (en) * 2000-12-15 2003-11-25 Exponent, Inc. Apparatus and method for vehicle rollover crash testing
JP2002252850A (ja) * 2001-02-26 2002-09-06 Matsushita Electric Ind Co Ltd 実験結果管理システム及び実験結果管理方法
US20040101162A1 (en) * 2002-11-19 2004-05-27 Honda Motor Co., Ltd. Moving object detection device, moving object detection method, and moving object detection program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009021686A1 (de) * 2009-05-18 2010-11-25 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Crashsimulationsanlage und Crashsimulationsverfahren
DE102009021686B4 (de) * 2009-05-18 2021-02-04 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Crashsimulationsanlage und Crashsimulationsverfahren
FR2966585A1 (fr) * 2010-10-25 2012-04-27 Peugeot Citroen Automobiles Sa Installation pour determiner la position d'un mannequin pour test de choc dans un vehicule et procede utilisant cette installation
CN103185660A (zh) * 2011-12-28 2013-07-03 江南大学 一种用于汽车碰撞试验的安全检测反馈系统
US9485470B2 (en) 2012-01-31 2016-11-01 Dr. Ing. H.C.F. Porsche Aktiengesellschaft Evaluation unit, evaluation method, measurement system for a crash test vehicle measurement and a method for performing a crash test vehicle measurement
CN103940570A (zh) * 2014-05-09 2014-07-23 中南大学 轨道车辆实车对撞试验系统
CN113670718A (zh) * 2021-08-09 2021-11-19 南京中车浦镇城轨车辆有限责任公司 一种机车电缆接头力学与寿命测试装置

Also Published As

Publication number Publication date
DE102004050020B4 (de) 2008-04-30

Similar Documents

Publication Publication Date Title
EP2002203B1 (de) Verfahren und system zur formmessung einer spiegelnden oberfläche
DE102008041523B4 (de) Verfahren zur dreidimensionalen Messung und Vorrichtung zur dreidimensionalen Messung
EP2515101B1 (de) Verfahren zur Planung einer Inspektionsbahn und zur Bestimmung von zu inspizierenden Bereichen
DE102009032771B4 (de) Messeinrichtung und Verfahren zum dreidimensionalen optischen Vermessen von Objekten
EP0767357A1 (de) Messvorrichtung zur kontaktlosen Messanalyse von Körpern oder Oberflächen
DE102018001969A1 (de) Verfahren zur Kalibrierung eines kontaktanalogen Headup-Displays eines Fahrzeuges in einer Werkstatt
EP2133659A1 (de) Verfahren und Vorrichtung zur Ermittlung der Lage eines Sensors
DE102015008887A1 (de) Verfahren und Vorrichtung zur Kalibrierung eines Headup-Displays in einem Fahrzeug
DE10127304C5 (de) Verfahren und Vorrichtung zur Bestimmung der dreidimensionalen Kontur einer spiegelnden Oberfläche eines Objektes
EP2546778A2 (de) Verfahren zum evaluieren einer Objekterkennungseinrichtung eines Kraftfahrzeugs
DE102004050020B4 (de) Auswertevorrichtung und Auswerteverfahren für einen Crashversuch
DE102004033526A1 (de) Verfahren und Vorrichtung zur Analyse zumindest partiell reflektierender Oberflächen
DE102007021106B4 (de) Verfahren und Vorrichtung zum Kalibrieren eines Kamerasystems
DE102005060980B4 (de) Verfahren und System zur Bestimmung eines kollisionsfreien dreidimensionalen Raumvolumens entlang eines Bewegungspfades gegenüber einer realen Umgebung
EP2031348A1 (de) Vorrichtung für ein spiegelndes Metallband mit einer Inspektionseinheit zum Detektieren von Oberflächendefekten und/oder Vermessen der Oberflächentopographie
DE102006048726A1 (de) Verfahren zum Vermessen der Rad- oder Achsgeometrie eines Fahrzeugs
DE102009056013A1 (de) Verfahren zum Erzeugen eines Augmented-Reality-Bildes
DE102010012340B4 (de) Verfahren zum Erfassen der Bewegung eines Menschen in einem Fertigungsprozess, insbesondere in einem Fertigungsprozess für ein Kraftfahrzeug
DE102010029627B4 (de) Vorrichtung und Verfahren zur Bestimmung der Struktur einer spiegelnden Oberfläche eines Objekts
DE102004046752B4 (de) Verfahren zur dreidimensionalen Erfassung von Messobjekten
DE102019201134A1 (de) Einmessung einer Augmented-Reality-Brille zur Verwendung in einem Kraftfahrzeug
EP3800622B1 (de) Verfahren und vorrichtung zum aufzeichnen einer verkehrssituation bei der vorbeifahrt eines fahrzeugs an einem aufzeichnungsgerät
DE102013102528B4 (de) Verfahren zur Bestimmung einer Verbauposition einer Innenraumsensorik in einem Fahrzeug
DE102017122627A1 (de) Optisches Messsystem und Messverfahren
WO2024032971A1 (de) Vorrichtung und verfahren zur vermessung dreidimensionaler virtueller bilder und objekte eines head-up-displays

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8127 New person/name/address of the applicant

Owner name: DAIMLERCHRYSLER AG, 70327 STUTTGART, DE

8127 New person/name/address of the applicant

Owner name: DAIMLER AG, 70327 STUTTGART, DE

8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee