DE102004050020A1 - Auswertevorrichtung, Auswerteverfahren und Verwendung einer Auswertevorrichtung für einen Hochgeschwindigkeitsversuch - Google Patents
Auswertevorrichtung, Auswerteverfahren und Verwendung einer Auswertevorrichtung für einen Hochgeschwindigkeitsversuch Download PDFInfo
- Publication number
- DE102004050020A1 DE102004050020A1 DE200410050020 DE102004050020A DE102004050020A1 DE 102004050020 A1 DE102004050020 A1 DE 102004050020A1 DE 200410050020 DE200410050020 DE 200410050020 DE 102004050020 A DE102004050020 A DE 102004050020A DE 102004050020 A1 DE102004050020 A1 DE 102004050020A1
- Authority
- DE
- Germany
- Prior art keywords
- evaluation
- measuring ranges
- data
- cameras
- measuring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01M—TESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
- G01M17/00—Testing of vehicles
- G01M17/007—Wheeled or endless-tracked vehicles
- G01M17/0078—Shock-testing of vehicles
Abstract
Die Erfindung betrifft eine Auswertevorrichtung und ein Auswerteverfahren sowei die Verwendung einer Auswertevorrichtung zur Erfassung und Auswertung von Bildsequenzen von bewegten Messobjekten in einem Hochgeschwindigkeitsversuch. DOLLAR A Die bekannten optischen Messverfahren erlauben entweder nur eine qualitative Auswertung und keine genaue Positionsbestimmung der bewegten Objekte bzw. messsystembedingt nur eine genaue Positionsbestimmung von wenigen bereits vor dem Hochgeschwindigkeitsversuch auf den bewegten Messobjekten aufgebrachten Positionsmarken. DOLLAR A Es wird eine Auswertevorrichtung zur Erfassung und Auswertung von Bildsequenzen von bewegten Messobjekten mit markierten und/oder unmarkierten Messbereichen in einem Hochgeschwindigkeitsversuch mit einem Kamerasystem zur Erfassung von Bildsequenzen der bewegten Messobjekte vorgeschlagen, wobei ein Auswertesystem vorgesehen ist, das Mittel zur Bestimmung von 3-D-Bewegungsdaten der Messbereiche aus den erfassten Bildsequenzen unter Verwendung der Stereo-Bildverarbeitung und ggf. der Bewegungsanalyse aufweist. Weiterhin werden ein entsprechendes Auswerteverfahren und eine Verwendung der Auswertevorrichtung vorgeschlagen.
Description
- Die Erfindung betrifft eine Auswertevorrichtung und ein Auswerteverfahren sowie die Verwendung einer Auswertevorrichtung zur Erfassung und Auswertung von Bildsequenzen von bewegten Messobjekten in einem Hochgeschwindigkeitsversuch.
- Hochgeschwindigkeitsversuche, insbesondere Crashversuche, werden in der Automobilindustrie durchgeführt, um Erkenntnisse über Bewegungsabläufe von Kraftfahrzeugen und Dummies bei simulierten Verkehrsunfällen zu erhalten und insbesondere vorhandene sowie neue Sicherheitseinrichtungen für Kraftfahrzeuge zu testen.
- Während der Hochgeschwindigkeitsversuche werden die schnell ablaufenden, dynamischen Vorgänge meist mittels geeigneter Sensorsysteme aufgezeichnet und anschließend entweder qualitativ bewertet oder rechnergestützt ausgewertet.
- Die Druckschrift
DE 196 23 026 A1 offenbart eine Hochgeschwindigkeitsfilmkamera, die in Hochgeschwindigkeitsversuchen als einzelne, sogenannte "Crashkamera" eingesetzt werden kann. Diese Kamera ermöglicht beispielsweise die Aufnahme und spätere Bewertung der Kopfbahnkurve eines Dummies während eines simulierten Unfalls. Eine rechnergestützte Auswertung der aufgenommenen Bildsequenzen zur Bestimmung von Bewegungsdaten ist in dieser Druckschrift nicht offenbart. - Die Druckschrift US 2003/0083844 A1 beschreibt ein Verfahren und ein Messsystem zur Positionsbestimmung von einer Vielzahl von Strahlungsquellen, die als Markierungen auf bewegten Objekten (z.B. dem Dummy) bei einem Crash-Versuch angebracht sind. Das Messsystem umfasst mindestens drei lineare optische Sensoren, deren Messdaten zur Positionsbestimmung der Strahlungsquellen herangezogen werden.
- Die Druckschrift
US 6,651,482 B1 offenbart einen Versuchsaufbau für einen Crashversuch, wobei mehrere Hochgeschwindigkeitskameras aus unterschiedlichen Beobachtungsrichtungen und mit unterschiedlichen Beobachtungsabständen die Bewegungsabläufe eines Kraftfahrzeugs während eines Crashversuchs für eine spätere Bewertung aufnehmen. Eine rechnergestützte Auswertung der aufgenommenen Bildsequenzen zur Bestimmung von Bewegungsdaten ist in dieser Druckschrift nicht offenbart. - Die bekannten optischen Messverfahren erlauben somit entweder nur eine qualitative Auswertung und keine genaue Positionsbestimmung der bewegten Objekte bzw. messsystembedingt nur eine genaue Positionsbestimmung von wenigen bereits vor dem Crash-Versuch auf den bewegten Objekten aufgebrachten Positionsmarken.
- Es ist Aufgabe der Erfindung eine alternative Auswertevorrichtung und ein alternatives Auswerteverfahren sowie die Verwendung der Auswertevorrichtung zur Aufnahme und Auswertung von Bewegungsabläufen von bewegten Messobjekten in einem Hochgeschwindigkeitsversuch vorzuschlagen.
- Die Aufgabe wird gelöst durch eine Auswertevorrichtung nach Anspruch 1.
- Die Auswertevorrichtung nach Anspruch 1 umfasst ein Kamerasystem und ein Auswertesystem, das mit dem Kamerasystem vorzugsweise trennbar, z.B. über ein Datenübertragungskabel, verbunden ist.
- Das Kamerasystem weist mindestens zwei Hochgeschwindigkeitskameras auf, wobei in bevorzugten Ausführungsformen mindestens eine dritte Kamera vorgesehen sein kann, die insbesondere der Erhöhung der Messgenauigkeit und der Identifikationssicherheit von Messbereichen dient.
- Die Hochgeschwindigkeitskameras sind jeweils mit mindestens einem zweidimensionalen Detektorelement ausgestattet, so dass zweidimensionale Bilder erfasst werden können. Die Hochgeschwindigkeitskameras sind derart ausgebildet, dass mit diesen Bildsequenzen, also eine Serie von aufeinanderfolgenden Bildern mit vorzugsweise gleichem Zeitabstand, erfasst werden können.
- Die Hochgeschwindigkeitskameras ermöglichen vorzugsweise Aufnahmeraten von mehr als 130 Bildern pro Sekunde, insbesondere mehr als 500 Bildern pro Sekunde und speziell mehr als 1500 Bildern pro Sekunde. Durch diese hohen Aufnahmeraten ist es möglich, die schnell ablaufenden Bewegungsabläufe bei den Hochgeschwindigkeitsversuchen in guter zeitlicher Auflösung zu erfassen, Insbesondere weisen die Hochgeschwindigkeitskameras Mittel zur Bereitstellung eines digitalen Bildsignals auf.
- Das Auswertesystem ist vorzugsweise als Computer, Mikrocontrollersystem oder DSP-System mit Ein- und Ausgabegeräte ausgebildet. Vorzugsweise ist ein Framegrabber zur Digitalisierung der erfassten Bildsequenzen vorgesehen, der insbesondere in den Kameras oder in dem Auswertesystem oder separat angeordnet ist.
- Das Auswertesystem weist Mittel auf, die programmtechnisch zur Bestimmung von 3D-Bewegungsdaten der Messbereiche auf den erfassten Bildsequenzen unter Verwendung der Stereo-Bildverarbeitung eingerichtet sind. Bei den Messbereichen kann es sich um markierte und/oder unmarkierte Messbereiche handeln. Vorzugsweise sind Mittel zur Bewegungsanalyse, insbesondere Mittel zur Bestimmung des optischen Flusses, vorgeshehen.
- Ein Messbereich gilt als markiert, wenn vor einem Hochgeschwindigkeitsversuch Vorkehrungen getroffen wurden, um einen bestimmten Bereich auf den bewegten Objekten zum Zweck der späteren Auswertung besonders zu kennzeichnen, z.B. durch Aufbringen einer Positionsmarke oder einer Strahlungsquelle.
- Unmarkierte Messbereiche sind beliebige Bereiche der bewegten Objekte, die vor einem Hochgeschwindigkeitsversuch nicht besonders gekennzeichnet wurden.
- Die Auswertung von unmarkierten Messbereichen bietet die Vorteile, dass eine sehr hohe Dichte an Messpunkten erzielt werden kann. Ferner können auch nach dem Hochgeschwindigkeitsversuch interessierende Bereiche nachträglich ausgewertet werden. Diese Vorteile konnten durch die früheren Systeme nicht erzielt werden, da die Messpunktdichte und die Messpunktauswahl durch das Anbringen von Markierungen vor dem Hochgeschwindigkeitsversuch festgelegt wurden und nachträglich, d.h. nach dem Hochgeschwindigkeitsversuch, nicht mehr geändert werden konnten.
- Die 3D-Bewegungsdaten können Informationen über die Position, die Geschwindigkeit, die Beschleunigung, die Orientierung, die Verformung und/oder die Verwindung der Messbereiche umfassen. Als Messbereiche sind sowohl einzelne Messbereiche als auch aus einzelnen Messbereichen zusammengesetzte komplexe Messbereiche zu verstehen.
- Bei der aus anderen Anwendungsbereichen bekannten Stereo-Bildverarbeitung werden 3D-Positionsdaten von Objekten unter Verwendung von mindestens zwei Bildern, die von mindestens zwei voneinander beabstandeten Kameras aufgenommen sind, vorzugsweise auf Basis von Triangulation, ermittelt.
- Bei bevorzugten Ausführungsformen sind die Kameras als Farb- oder Schwarzweißkameras ausgebildet und weisen insbesondere einen CCD-Chip oder einen CMOS-Chip als Detektorelement auf. Der CMOS-Chip kann aufgrund seiner logarithmischen Empfindlichkeit vorteilhaft in Verbindung mit der rechnergestützten Bildverarbeitung eingesetzt werden. Für besondere Anwendungen können auch Infrarot-Kameras, vorzugsweise für Aufnahmen in einem Wellenlängenbereich über 900 nm, insbesondere über 1300 nm, oder UV-Kameras, vorzugsweise für Aufnahmen in einem Wellenlängenbereich unter 400 nm, insbesondere unter 300 nm, vorgesehen sein.
- Die Auswertevorrichtung ist vorteilhaft weitergebildet, wenn die mindestens zwei Kameras zeitlich zueinander synchronisiert sind, so dass vorzugsweise die mindestens zwei Kameras die Bilder der Bildsequenzen gleichzeitig erfassen. Die zeitliche Synchronisation vereinfacht bei der Stereo-Bildverarbeitung die Auswertung erheblich, da nicht nachträglich die Bilder der Bildersequenz einer ersten Kamera den Bildern der Bildersequenz einer zweiten Kamera zeitlich zugeordnet werden müssen.
- In einer bevorzugten Ausführungsform sind die mindestens zwei Kameras des Kamerasystems örtlich zueinander fixiert, insbesondere unlösbar zueinander fixiert. Eine derartige unlösbare Fixierung kann beispielsweise durch Vergießen der mindestens zwei Kameras mit einer aushärtbaren Masse erfolgen. Die unlösbare Fixierung verhindert selbst bei großen plötzlichen Belastungen, wie sie z.B. bei einem simulierten Unfall in einem Crashversuch auftreten, dass sich die Lage der mindestens zwei Kameras zueinander ändert.
- Die örtliche Fixierung ist vorzugsweise derart ausgebildet, dass die mindestens zwei Kameras durch einen Basisabstand voneinander beabstandet sind und/oder die Kameras die bewegten Messobjekte aus verschiedenen Beobachtungswinkeln erfassen. Der Basisabstand ist der Abstand zwischen den Mittelpunkten der zweidimensionalen Detektorelemente und beträgt vorzugsweise bis zu 120 mm, insbesondere bis zu 300 mm und bei besonderen Ausführungsformen bis zu 1000 mm. Gerade bei kleinen Basisabständen, das heißt bei Basisabständen von bis zu 300 mm kann sich aufgrund der nahezu identischen Beobachtungsrichtungen der Kameras der Vorteil ergeben, dass, z.B. bei Erfassung von Messbereichen innerhalb der Fahrgastkabine eines Kraftfahrzeuges, die Abschattung durch Störkonturen, wie die A-/B- oder C-Säule des Kraftfahrzeuges, minimiert oder gänzlich ausgeschlossen wird. Vorzugsweise bildet das Kamerasystem eine tragbare Einheit.
- Insbesondere weisen die mindestens zwei Kameras das gleiche optische Abbildungsverhältnis auf und/oder erfassen die gleichen Messbereiche. Diese bevorzugte Ausführungsform erleichtert die Auswertung durch die Stereo-Bildverarbeitung, da die Bilder der mindestens zwei Kameras nicht nachträglich aufwendig hinsichtlich der Vergrößerung oder der Auswahl des Bildausschnittes zueinander angepasst werden müssen.
- Bei einer vorteilhaften Weiterentwicklung ist vorgesehen, dass die mindestens zwei Kameras derart zueinander fixiert sind, dass eine gemeinsame epipolare Ebene gebildet wird und/oder, dass bei den Bildern der mindestens zwei Kameras jeweils gleiche Messbereiche auf einer gleichen horizontalen oder vertikalen Linie liegen.
- Die gemeinsame epipolare Ebene wird gebildet durch den Messbereich (oder Messpunkt) in den Bildebenen und den optischen Zentren von mindestens zwei Kameras.
- Die Vorrichtung ist vorteilhaft ausgebildet, wenn Mittel zur Kalibrierung und/oder Mittel zur Speicherung von Kalibrierungsinformationen und/oder Mittel zur Auswertung von Kalibrierungsinformationen vorgesehen sind. Vorzugsweise umfassen die Kalibrierungsinformationen innere Kameraparameter wie z.B. Größe und Auflösung der Detektorelemente, Parameter der verwendeten Optiken und des optischen Aufbaus, wie z.B. Brennweite, Bildweite, und insbesondere Informationen über die Verzeichnung der Optiken. Ferner können die Kalibrierungsinformationen äußere Kameraparameter umfassen, wie z.B, den Abstand der Kameras zueinander und/oder den Objektabstand. Die gespeicherten Kalibrierungsinformationen können durch die Mittel zur Auswertung der Kalibrierungsinformationen bei der Bestimmmung der 3D-Bewegungsdaten verrechnet werden, so dass eine verbesserte Genauigkeit der Vorrichtung erzielt wird.
- Bei einer vorteilhaften Ausbildung der Auswertevorrichtung sind Mittel zur Identifikation der Messbereiche, also der markierten und/oder der unmarkierten Messbereiche, vorgesehen.
- Vorzugsweise sind bei den Mitteln zur Identifikation digitale Auswertungsalgorithmen der Bildverarbeitung implementiert, insbesondere Auswertungsalgorithmen, wie Blockvergleich oder Merkmalsvergleich, also z.B. Farbdetektion, Kantendetektion, Eckendetektion, oder Mustererkennung etc.. Diese Auswertungsalgorithmen ermöglichen vorzugsweise auf Basis von strukturierten Geometriemerkmalen, wie z.B. Länge, Breite, Durchmesser oder Fläche, und/oder Strahlungsmerkmalen, wie z.B. Intensität oder Farbe, eine Identifikation der unmarkierten Messbereiche.
- Bei einer bevorzugten Ausführungsform der Messvorrichtung sind Mittel zur Erzeugung von bildbasierten 3D-Modellen aus den Messbereichen vorgesehen. Diese Mittel sind programmtechnisch derart ausgestaltet, dass mehrere einzelne Messbereiche eines bewegten Objektes und/oder eines Teils eines bewegten Objektes zu einem komplexen Messbereiche zusammengefasst werden und, dass ein 3D-Modell des bewegten Objekts und/oder eines Teils davon auf Basis des komplexen Messbereichs erzeugt wird. Das 3D-Modell wird vorzugsweise entweder ausschließlich auf Basis des komplexen Messbereichs erzeugt oder es werden zusätzliche Informationen verwendet. Insbesondere bei dieser Ausführungsform ist es möglich, auch teilweise verdeckte Objekte zu vermessen.
- Bei bevorzugten Weiterbildungen ist vorgesehen, dass diese zusätzlichen Informationen durch einen Import von 3D-Konstruktionsmodellen, d. h, z.B, 3D-CAD-Daten, bereitgestellt sind. In diesem Fall können die einzelnen Messbereiche des komplexen Messbereichs als Stützstellen für die 3D-Konstruktionsmodelle verwendet werden.
- Vorteilhafterweise weisen die Mittel zur Bestimmung der 3D-Bewegungsdaten Mittel zur Bestimmung von 3D-Positionsdaten auf. Letztgenannte Mittel umfassen Auswertealgorithmen, die unter Verwendung der Stereo-Bildverarbeitung die 3D-Positionsdaten der Messbereiche bestimmen. Die 3D-Positionsdaten umfassen dabei für jeden Messbereich eine vorzugsweise zeitabhängige x-, y- und z-Ortskomponente und/oder den Betrag des Abstands zwischen Kamerasystem und Messbereich.
- Ferner können zusätzliche Mittel zur Bestimmung von 3D-Geschwindigkeitsdaten und/oder 3D-Beschleunigungsdaten vorgesehen sein. Die 3D-Geschwindigkeitsdaten und/oder 3D-Beschleunigungsdaten umfassen für jeden beliebigen identifizierten Messbereich an jeder beliebigen Position und zu jeder beliebigen Zeit, also orts- und/oder zeitabhängig, eine x-, y- und z-Komponente und/oder Betrag und Richtung der Geschwindigkeit und/oder der Beschleunigung.
- Aus den derart bestimmten 3D-Geschwindigkeitsdaten und/oder 3D-Beschleunigungsdaten können z.B. Erkenntnisse über Kollisionsgeschwindigkeiten oder über die Schwere von Verletzungen gewonnen werden.
- Weiterhin können Mittel vorgesehen sein, die programmtechnisch auch 3D-Orientierungsdaten und/oder Verformungen und/oder Verwindungen der Messbereiche, insbesondere der komplexen Messbereiche und/oder der 3D-Modelle und somit auch der bewegten Messobjekte und/oder Teilen davon bestimmen.
- Durch Bestimmung der Verformung und/oder der Verwindung der bewegten Objekte und/oder Teilen davon ist es möglich, sehr genaue Aussagen über deren Verhalten bei einem Unfall zu treffen. Derartige Aussagen waren mit den bekannten Messsystemen bislang nicht möglich. Die 3D-Orientierungsdaten geben Auskunft über auftretende Rotationen, Drehungen oder Verkippungen der Messobjekte und/oder Teilen oder Abschnitte der Messobjekte.
- In bevorzugten Ausführungsformen sind Mittel vorgesehen, um die 3D-Bewegungsdaten in beliebige Koordinatensysteme zu transferieren. Diese Mittel erlauben es z.B., die 3D-Bewegungsdaten neben der Darstellung in "Laborkoordinaten" auch in Relativkoordinaten darzustellen. Somit kann beispielsweise die Relativgeschwindigkeit zwischen zwei bewegten Messobjekten und somit die Kollisionsgeschwindigkeit zwischen zwei bewegten Messobjekten berechnet werden.
- Für eine spätere Auswertung können Speichermedien vorgesehen sein, um die erfassten Bildsequenzen und/oder die ermittelten 3D-Bewegungsdaten und/oder die Messbereiche und/oder die 3D-Modelle zu speichern.
- Hei einer vorteilhaften Ausgestaltung der Erfindung sind Mittel zur Visualisierung oder Animation der 3D-Bewegungsdaten und/oder der 3D-Modelle vorgesehen, so dass zur qualitativen Auswertung der simulierte Unfall in Form von virtual reality dargestellt werden kann.
- Die Aufgabe der Erfindung wird weiterhin durch das Auswerteverfahren nach Anspruch 14 gelöst.
- Mit diesem Auswerteverfahren werden Bewegungsdaten von bewegten Messobjekten mit markierten und/oder unmarkierten Messbereichen ermittelt. Vorzugsweise wird das Auswerteverfahren in Zusammenhang mit Crashversuchen eingesetzt.
- Bei dem Auswerteverfahren werden durch ein Kamerasystem, welches mindestens zwei Kameras mit jeweils einem zweidimensionalen Detektorelement aufweist, Bildsequenzen von den bewegten Messobjekten während des Hochgeschwindigkeitsversuchs aufgenommen.
- Aus diesen aufgenommenen Bildsequenzen werden 3D-Bewegungsdaten der Messbereiche durch Auswertung unter Verwendung der Stereo-Bildverarbeitung bestimmt.
- Vorzugsweise wird bei dem Auswerteverfahren ein Kamerasystem mit einem oder mehreren der Merkmale der Ansprüche 1 bis 13 eingesetzt. Vorteilhafterweise werden Hochgeschwindigkeitskameras verwendet, es können jedoch stattdessen auch Kameras mit Aufnahmeraten von bis zu 30 oder 60 Bildern pro Sekunde oder Spezialkameras wie UV-Kameras und/oder IR-Kameras eingesetzt werden.
- Bei einer vorteilhaften Weiterbildung des Verfahrens wird eine Auswertevorrichtung nach einem oder mehreren der Ansprüche 1 bis 13 eingesetzt.
- Bei einer bevorzugten Ausbildung des Verfahrens werden, vorzugsweise nach Auswahl von interessierenden Messbereichen, diese Messbereiche mittels digitaler Bildverarbeitung identifiziert. Vorzugsweise werden unmarkierte Messbereiche identifiziert, wie sie in Anspruch 7 oder weiter oben beschriebenen sind.
- Die identifizierten Messbereiche können zu einem komplexen Messbereich zusammengefasst werden. Weiterhin kann aus einer Vielzahl von Messbereichen oder einem komplexen Messbereiche ein 3D-Modell des Messobjekts und/oder Teile bzw. Abschnitte des Messobjekts erzeugt werden.
- In einem weiteren Schritt des Auswerteverfahren werden 3D-Positionsdaten der Messbereiche und/oder der 3D-Modelle mittels Stereo-Bildverarbeitung bestimmt. Optional oder alternativ können weitere 3D-Bewegungsdaten wie Geschwindigkeit, Beschleunigung, Orientierung, Verformungen, Verwindungen und/oder Deformationen der Messbereiche und/oder der 3D-Modelle berechnet werden.
- Das Auswerteverfahren ist vorteilhaft weitergebildet, wenn die 3D-Bewegungsdaten unter Einsatz der Methoden des Objekt-Trackings und/oder der Punktverfolgung und/oder dem Verfahren der Bewegungsanalyse, insbesondere mittels optischen Fluss, berechnet werden. Bei der Punktverfolgung werden Messbereiche programmtechnisch als Punkte interpretiert und deren Bewegungsdaten berechnet. Das Objekt-Tracking ermöglicht die Verfolgung von komplexen Messbereichen und/oder 3D-Modellen innerhalb der aufgezeichneten Bildsequenzen und berechnet die Bewegungsdaten dieser Objekte.
- Bei einer bevorzugten Weiterbildungen des Auswerteverfahren werden die absoluten Bewegungsdaten, das heißt die Bewegungsdaten in Labor- oder Weltkoordinaten, in relative Bewegungsdaten, d.h. in Koordinaten deren Koordinatensystem mit den Messobjekten mitbewegt werden, umgerechnet.
- Beispielsweise kann ein Koordinatensystem programmtechnisch an die Position des Dummykopfes gelegt werden und mit diesem mitbewegt werden und somit die absolute Kollisionsgeschwindigkeit zwischen Dummykopf und Kraftfahrzeug berechnet werden.
- Zusätzlich kann auch vorgesehen sein, dass Bewegungsdaten, die auf Basis der Bildersequenzen eines mit dem bewegten Messobjekt mitbewegten Kamerasystem ermittelt wurden, in Labor- oder Weltkoordinaten umgerechnet werden, also relative Bewegungsdaten in absolute Bewegungsdaten umgerechnet werden.
- Bei einer bevorzugten Weiterbildung des Auswerteverfahren ist vorgesehen, dass das Kamerasystems außerhalb des bewegten Messobjekts, vorzugsweise ortsfest, oder innerhalb des bewegten Messobjekts angeordnet wird.
- Die Ausgabe der Informationen über die Messbereiche, der Bildsequenzen und der Bewegungsdaten kann über eine geeignete Schnittstelle zu weiteren Programmen erfolgen und/oder durch grafische Darstellung und/oder 3D-Animation visualisiert werden.
- Bei dem Auswerteverfahren können ein oder mehrere Kamerasysteme und/oder weitere Sensorsysteme zum Einsatz kommen, wobei bei der Berechnung der Bewegungsdaten die Messergebnisse aller eingesetzten Meßsysteme verwendet werden. Insbesondere bei Verwendung von mehreren Kamerasystemen, die die bewegten Messobjekte auf verschiedenen Perspektiven während des Hochgeschwindigkeitsversuches erfassen, ist es dann möglich, eine vollständige 3D-Animation der Bewegungsdaten zu erstellen.
- Die Aufgabe der Erfindung wird ferner gemäß Anspruch 25 durch die Verwendung des Auswertesystems nach den Ansprüchen 1 bis 13 bei einem Hochgeschwindigkeitsversuch gelöst. Die Messobjekte weisen markierte und/oder unmarkierte Messbereiche auf.
- Die Verwendung ist vorteilhaft weitergebildet, wenn ein Verfahren nach einem der Ansprüche 14 bis 24 eingesetzt wird.
- Somit ist auch eine Versuchsanordnung für einen Hochgeschwindigkeitsversuch, insbesondere einen Crash-Versuch, mit bewegten und/oder bewegbaren Messobjekten, insbesondere Kraftfahrzeuge und/oder Dummies, mit markierten und/oder unmarkierten Messbereichen und mit einer Auswertevorrichtungen nach einem der Ansprüche 1 bis 13 offenbart.
- Im Nachfolgenden werden bevorzugte Ausführungsbeispiele unter Bezugnahme auf die beigefügten Figuren näher erläutert.
- Es zeigen:
-
1 eine schematische Darstellung eines ersten Kamerasystems in Draufsicht, -
2 eine schematische Darstellung eines zweiten Kamerasystems in Draufsicht, -
3 eine schematische Darstellung des ersten Kamerasystems in Frontansicht, -
4 eine schematische Darstellung eines dritten Kamerasystems in Frontansicht, -
5 eine schematische Darstellung in Draufsicht eines ersten Versuchsaufbaus eines Crashversuchs mit drei Kamerasystemen, -
6 eine schematische Darstellung eines zweiten Versuchsaufbaus eines Crashversuchs mit Messobjekten, die markierte und unmarkierte Messbereiche aufweisen, -
7 eine graphische Darstellung von Versuchsergebnissen des zweiten Versuchsaufbaus, -
8 ein Ablaufdiagramm für ein Verfahren zur Ermittlung und Auswertung von Bewegungsdaten aus einem Crashversuch, -
9 eine Toolbox für eine Messvorrichtung zur Erfassung und Auswertung von Bildsequenzen von bewegten Objekten in einem Crashversuch, -
10 eine schematische Darstellung in Draufsicht eines dritten Versuchsaufbaus eines Crashversuchs mit drei Kamerasystemen. -
1 zeigt ein erstes Ausführungsbeispiel eines Kamerasystems1 . Das Kamerasystem1 umfasst zwei Hochgeschwindigkeitskameras2 und3 , die auf einer gemeinsamen Halterung13 parallel zueinander, d.h. mit paralleler Sichtrichtung, mit einem Basisabstand8 angeordnet sind. Der Basisabstand8 ist der Abstand zwischen den Zentren der beiden Detektorelemente6 und7 . - Die Kameras
2 und3 weisen jeweils an der Frontseite ein Objektiv4 bzw.5 sowie jeweils ein zweidimensionales Detektorelement6 bzw.7 auf, die jeweils innerhalb der Kameras2 und3 angeordnet sind. Durch die Anordnung von Objektiv4 oder5 und dem Detektorelement6 bzw.7 ergibt sich für jede Kamera2 und3 ein eigenes Sichtfeld11 bzw.12 , die sich ausgehend von den Kameras2 bzw.3 bis zu einer Messebene9 erstrecken. Die Sichtfelder11 und12 überlappen in der Messebene9 flächig in einem Objektbereich10 , in dem bei einer späteren Messung die Messobjekte angeordnet sind. - Das Kamerasystem
1 weist z.B. einen Basisabstand von 200 mm und Objektive mit einer Brennweite von 100 mm auf, wobei Objekte in ca. 10 m erfasst werden können. Als Detektorelemente6 und7 werden zweidimensionale Farb-CCD-Chips eingesetzt. Die Hochgeschwindigkeitskameras2 und3 erlauben Aufnahmeraten von bis zu 2000 Bildern pro Sekunde. - Die
2 zeigt ein weiteres Ausführungsbeispiel eines Kamerasystems1 , das sich vom ersten Ausführungsbeispiel dadurch unterscheidet, dass die Kameras2 und3 nicht parallel zueinander angeordnet sind, sondern in horizontaler Ebene leicht verdreht zueinander angeordnet sind. Die Verdrehung führt dazu, dass die von den Kameras2 und3 ausgehenden Sichtfelder11 und12 sich in der Messebene9 stärker als im ersten Ausführungsbeispiel oder sogar vollflächig überlappen, sodass ein größerer Objektbereich10 als im ersten Ausführungsbeispiel gebildet wird. -
3 zeigt das erste Ausführungsbeispiel des Kamerasystems1 in Frontansicht. Die beiden Kameras2 und3 sind durch Befestigungsschrauben14a mit der Halterung13 fest jedoch lösbar verbunden. Das Kamerasystem1 ist somit ein tragbares System, das bereits justiert und kalibriert als Einheit in einem Hochgeschwindigkeitsversuch an beliebiger Stelle positioniert werden kann. -
4 zeigt ein alternatives Ausführungsbeispiel eines Kamerasystems1 , das sich von dem Ausführungsbeispiel in3 dadurch unterscheidet, dass die Fixierung der beiden Kameras2 und3 zueinander durch Vergießen mittels Vergussmasse14b erfolgt. Die beiden Kameras2 und3 sind unlösbar miteinander verbunden. Diese Ausführungsform eines Kamerasystems1 wird bei Crashversuchen beispielsweise innerhalb der Fahrgastkabine angeordnet, wobei sichergestellt ist, dass die relative Position der Kameras2 und3 zueinander auch bei einem simulierten Unfall nicht verändert wird. -
5 zeigt eine schematische Darstellung in Draufsicht eines ersten Versuchsaufbaus eines Crashversuchs. Bei diesem Crashversuch wird ein Kraftfahrzeug15 gegen ein stehendes Hindernis16 gefahren. Das Kraftfahrzeug15 weist eine Fahrgastkabine18 auf, in der sich auf dem Fahrersitz ein Dummy19 befindet. Das Kraftfahrzeug15 und der Dummy19 sind in diesem Versuch bewegte Messobjekte. Zur Aufnahme der dynamischen Vorgänge während des simulierten Unfalls sind drei Stereo-Kamerasysteme1a ,1b und1c vorgesehen. - Das erste Kamerasystem
1a ist ortsfest in Draufsicht seitlich links neben dem Kraftfahrzeug15 angeordnet und beobachtet dieses während des simulierten Unfalls in Seitenansicht. Das Kamerasystem1a ist über ein Datenübertragungskabel17a mit einem Auswertesystem17 verbunden. Das Auswertesystem17 umfasst eine Eingabeeinheit zur manuellen Eingabe von Aufnahme- und Auswertungsparametern sowie einen Bildschirm zur Ausgabe einer grafischen Darstellung der Versuchsergebnisse wie sie beispielsweise in7 dargestellt ist. - Das Kamerasystem
1b ist innerhalb der Fahrgastkabine18 angeordnet und beobachtet während des simulierten Unfalls den Dummy19 . Die während des simulierten Unfalls aufgezeichneten Bildsequenzen werden im Kamerasystem1b zwischengespeichert und erst nach dem Unfall für die Auswertung ausgelesen. Innerhalb der Fahrgastkabine18 kann auch ein Kamerasystem, wie es in4 dargestellt ist, eingesetzt werden. - Das Kamerasystem
1c ist in Draufsicht seitlich rechts neben dem Kraftfahrzeug15 angeordnet und mit diesem über eine mitbewegte Kamerahalterhalterung20 starr verbunden, so dass auch das Kamerasystem1c mit dem Kraftfahrzeug15 mitbewegt wird. Das Kamerasystem1c beobachtet den Dummy19 in Seitenansicht. Aufgrund des geringen Basisabstands der Kameras des Kamerasystems1c unter 200 mm kann durch geschickte Positionierung des Kamerasystems1c eine Abschattung der Sichtfelder der Kameras durch Seitenholme des Kraftfahrzeugs15 vermieden werden. -
6 zeigt eine schematische Darstellung eines zweiten Versuchsaufbaus eines Crashversuchs, bei dem das Auffahren eines Kraftfahrzeugs15 auf einen Dummy19 untersucht wird. Gezeigt sind allerdings nur die bewegten Messobjekte mit markierten und unmarkierten Messbereichen, nicht aber die Auswertevorrichtung. - Das Kraftfahrzeug
15 weist vier Positionsmarken21a , b, c, d auf, wie sie herkömmlich zur Markierung von Messbereichen vor dem Crash-Versuch auf Messobjekte aufgebracht werden. Mit den herkömmlichen Auswertevorrichtungen und -verfahren wäre es nur möglich, quantitative Auswertungen bezüglich dieser vier Messbereiche durchzuführen. - Das Kraftfahrzeug
15 und der Dummy19 weisen ferner sieben unmarkierte Messbereiche auf, die unter Verwendung von digitaler Bildverarbeitung ausgewählt und identifiziert wurden. Die Auswahl und Identifikation der unmarkierten Messbereiche können sowohl vor dem Crash-Versuch als auch nach dem Crash-Versuch durchgeführt werden. - Als unmarkierte Messbereiche wurden in
7 ein Hinterrad22 , ein Türschweller23 , ein Türgriff24 , eine Türfuge25 , ein Scheinwerfer26 , der Dummy Kopf27 und der Dummyarm28 ausgewählt und identifiziert. - Die Identifikation eines unmarkierten Messbereichs kann dabei z.B. durch Merkmalsvergleich des gesamten Messbereichs erfolgen, so dass bei einer späteren Auswertung 3D-Bewegungsdaten hinsichtlich der Position, der Geschwindigkeit, der Beschleunigung und der Orientierung für den gesamten Messbereich ermittelt werden können.
- Die unmarkierten Messbereiche können aber auch durch eine Vielzahl von kleineren unmarkierten Messbereichen zusammengesetzt sein und bilden damit komplexe Messbereiche. Diese Art der Auswahl und Identifikation der unmarkierten Messbereiche bietet den Vorteil einer höheren Ortsauflösung der Auswertung und dass auch Verwindungen und Deformationen der unmarkierten Messbereiche ausgewertet werden können. Wird beispielsweise der Messbereich Türschweller
23 durch eine Vielzahl von unmarkierten Messbereichen zusammengesetzt, so kann nach dem simulierten Unfall untersucht werden, ob und wie der Türschweller23 deformiert wurde. - Ferner ist es möglich, durch Verwendung einer Vielzahl von unmarkierten Messbereichen ein 3D-Modell von Teilen des Kraftfahrzeugs
15 oder des Dummies19 zu erzeugen. Beispielsweise kann aus einer Vielzahl von Messbereichen ein 3D-Modell der Kraftfahrzeugtür, der Motorhaube oder des gesamten Frontbereichs des Kraftfahrzeugs15 oder des Dummykopfs27 erzeugt werden. Die Erzeugung der 3D-Modelle kann auch unter Verwendung von bereits existierenden 3D-CAD-Konstruktionsmodellen der jeweiligen Teile erfolgen, wobei die unmarkierten Messbereiche als Stützstellen in den 3D-CAD-Konstruktionsmodellen verwendet werden. -
7 zeigt ein Beispiel für eine grafische Darstellung39 von Ergebnissen des Versuchsaufbaus in6 . Eine derartige grafische Darstellung wird beispielsweise nach dem simulierten Unfall in dem Auswertesystem17 in5 angezeigt. Die grafische Darstellung39 zeigt die bewegten Messobjekte Kraftfahrzeug15 und Dummy19 im Moment der Kollision. - Die in
6 als ausgewählt und identifiziert dargestellten unmarkierten Messbereiche sind in der7 mit Farbkodierungen29 ,30 ,31 ,32 ,33 ,34 und35 versehen. Die Farbkodierungen sind in dieser Anmeldung ersatzweise als Kreise, Dreiecke und Quadrate dargestellt. Tatsächlich werden die Farbkodierungen durch verschiedene Farben eines Farbverlaufs dargestellt, der beispielsweise von blau nach rot verläuft. Durch die am unteren Bildrand der grafischen Darstellungen39 angeordneten Legenden36 ,37 und38 wird eine Zuordnung der Farbkodierungen zu absoluten Werten hinsichtlich des Abstandes (Legende36 ), der Geschwindigkeit (Legende37 ) und der Beschleunigung (Legende38 ) gegeben, die abwechselnd aktiviert werden können. Bei den Legenden36 ,37 und38 zeigt ein Pfeil an, dass die absoluten Werte der dargestellten Bewegungsdaten von Kreis über Dreieck zu Quadrat größer werden. - In der grafischen Darstellung
39 ist die Legende36 aktiv. Aus der grafischen Darstellung39 ist somit der Abstand zwischen Kamerasystem und den ausgewählten Messbereichen direkt aus den Farbkodierungen ablesbar. Bei den Messbereichen handelt es sich um komplexe Messbereiche, die aus einer Vielzahl von kleineren Messbereichen zusammengesetzt wurden, die quasi eine Messpunktwolke bilden. Für jeden der kleineren Messbereiche wird eine eigene Abstandsinformation durch Farbkodierungen angezeigt, wie aus der Vielzahl der Kreise z.B. bei der Farbkodierung30 des Türschwellers zu erkennen ist. Bei Umschaltung der grafischen Darstellung auf die anderen Legenden37 oder38 zur Anzeige der Geschwindigkeit bzw. der Beschleunigung werden die Farbkodierungen entsprechend der anzuzeigenden Werte verändert. -
8 zeigt ein Ablaufdiagramm für ein Verfahren zur Ermittlung und Auswertung von Bewegungsdaten aus einem Crashversuch wie er beispielsweise in den5 oder7 gezeigt ist, der beispielsweise mittels einer Auswertevorrichtung mit Kamerasystem1a und Auswertesystem17 wie in5 aufgenommen wird. - In einem ersten Schritt wird die Auswertevorrichtung kalibriert und die Kalibrierung anschließend verifiziert. Eine derartige Kalibrierung und Verifizierung kann beispielsweise durch Aufnahme von Bildern eines Kalibrierobjektes erfolgen, von dem die Position im Versuchsraum und die Abmessungen bekannt sind. Dieser erste Schritt muss nicht notwendigerweise vor jedem Messdurchlauf durchgeführt werden, insbesondere solange die Kameras zueinander fixiert sind.
- In einem nächsten Schritt werden Bildsequenzen von den bewegten Messobjekten, also zum Beispiel eines Kraftfahrzeugs und eines Dummies, mittels eines Stereo-Kamerasystems während einem simulierten Unfall aufgenommen.
- Nach dem Crash-Versuch werden Informationen zur Auswahl der Messbereiche in das Auswertesystem eingegeben bzw. automatisch ausgewählt. Eine Zwischenspeicherung der Bildsequenzen bzw. der Auswahlinformationen kann optional erfolgen.
- In einem weiteren Schritt erfolgt die Identifikation der ausgewählten Messbereiche mittels digitaler Bildverarbeitung. Es können dabei sämtliche bekannte Verfahren der Bildverarbeitung verwendet werden.
- In einem weiteren Schritt können aus den identifizierten Messbereiche entweder komplexe Messbereiche oder 3D-Modelle erzeugt werden, die jeweils ein gesamtes bewegtes Messobjekt, Teile eines bewegten Messobjekts oder Abschnitte eines bewegten Messobjekts repräsentieren. Die 3D-Modelle können auch unter Verwendung von existierenden 3D-CAD-Modellen erstellt werden.
- In einem weiteren Schritt werden zunächst 3D-Positionsdaten der Messbereiche, der komplexen Messbereiche oder der 3D-Modelle durch Stereo-Bildverarbeitung ermittelt.
- Auf Basis der ermittelten 3D-Positionsdaten werden dann in einem weiteren Schritt der optische Fluss, also die zeitabhängige Bewegung der Messbereiche, der komplexen Messbereiche und/oder der 3D-Modelle berechnet. Hierbei wird auf bekannte Techniken der Bewegungsanalyse bei der Stereo-Bildverarbeitung zurückgegriffen, wie z.B. Differenzbildung von aufeinanderfolgenden Bildern und Auswertung der Grauwertkanten oder Bestimmung von korrespondierenden, also identischen, Messbereichen in aufeinanderfolgenden Bildern und Ermittlung eines Verschiebungsvektors.
- Optional können 3D-Geschwindigkeitsdaten, 3D-Beschleunigungsdaten oder Verwindungen/Deformationen der Messbereiche, der komplexen Messbereiche und/oder der 3D-Modelle berechnet werden.
- In einem weiteren Schritt erfolgt die Ausgabe der ermittelten Daten, d.h. der Bildsequenzen und der Bewegungsdaten.
- Die Ausgabe erfolgt durch Visualisierung mittels einer grafischen Darstellung wie in
7 gezeigt. Ferner können die Versuchsergebnisse, insbesondere das Verhalten der komplexen Messbereiche oder der 3D-Modelle in einer Simulation ausgeführt als virtual reality, d.h. in einer 3D-Animation, dargestellt werden, so dass der Versuchsablauf aus verschiedenen auch ursprünglich nicht durch das Kamerasystem aufgenommenen Perspektiven gezeigt werden kann. Weiterhin können die ermittelten Daten an andere Programme übergeben werden. - Die Reihenfolge der in
8 gezeigten Schritte des Verfahrens ist nicht zwingend, z.B. kann die Berechnung der komplexen Messbereiche und der 3D-Modelle auch erst nach Ermittlung der 3D-Positionsdaten der Messbereiche erfolgen. -
9 zeigt die Architektur einer Software-Toolbox für eine Messvorrichtung zur Erfassung und Auswertung von Bildsequenzen von bewegten Objekten in einem Crashversuch. - Der Mess-Layer der Toolbox umfasst programmtechnische Komponenten zur Kalibrierung und Verifikation der Kalibrierung, die wie bereits zu
8 erläutert durchgeführt werden. Ferner umfasst der Mess-Layer programmtechnische Komponenten zur Stereobild-Analyse und Bewegungsanalyse, die entsprechend der Beschreibung zu8 umgesetzt sind. - Auf dem Mess-Layer setzten die Basis-Applikationen Punktverfolgung, Objekt-Tracking und 3D-Form-Extraktion auf. Punktverfolgung und Objekt-Tracking sind bereits oben erläutert. Die Applikation 3D-Form-Extraktion erzeugt auf einer Vielzahl von Messbereichen oder aus komplexen Messbereichen ein 3D-Modell mit hoher örtlicher Auflösung.
- Die Toolbox weist ferner Komplett-Applikationen auf, die die Analyse von z.B. der Kopfbewegung eines Dummies oder von Bewegungsdaten, insbesondere Deformationen, von Motorhauben umsetzen. Eine weitere Komplett-Applikation stellt das Object-Modelling dar, dass einen Vergleich bzw. Abgleich der bildbasierten 3D-Modellen mit 3D-CAD-Modellen realisiert.
- Eine Dateneingabe in die Toolbox ist entweder durch manuelle Eingabe über über GUIs (graphical user interfaces) oder durch Schnittstellen zu CAD-Systemen (computer aided design) oder FEM-Systemen (finite elements methods) möglich. Die Datenausgabe auf der Toolbox erfolgt durch Visualisierung oder Animation (virtual reality) oder ebenfalls über Schnittstellen zur CAD- oder FEM-Systemen.
-
10 zeigt ein weiteres Ausführungsbeispiel eines Versuchsaufbaus eines Crashversuchs mit drei Kamerasystemen. Im Unterschied zu dem Versuchsaufbau in5 sind die drei Kamerasysteme1a , b, c ortsfest positioniert und erfassen den Dummy19 während des Aufpralls des Kraftfahrzeugs15 auf das Hindernis16 . Der dargestellte Versuchsaufbau ermöglicht somit die Beobachtung des zu vermessenden Objekts auf drei verschiedenen Perspektiven, so dass die Struktur des Dummies und dessen Bewegungsablauf vollständig dreidimensional erfasst werden kann. In dem dargestellten Beispiel stehen sich die Kamerasysteme1a und1c frontal gegenüber, bei Abwandlungen dieses Versuchsaufbaus können die Kameras drei verschiedene Beobachtungswinkel aufweisen, so z.B. um jeweils 120° versetzt angeordnet sein. -
- 1, 1a, b, c
- Kamerasystem
- 2,
- Kameras
- 4, 5
- Objektive
- 6, 7
- Detektorelemente
- 8
- Basisabstand
- 9
- Messebene
- 10
- Objektbereich
- 11, 12
- Sichtfelder
- 13
- Halterung
- 14a, b
- Befestigungsschrauben, Vergussmasse
- 15
- Kraftfahrzeug
- 16
- Hindernis
- 17
- Auswertesystem
- 18
- Fahrgastkabine
- 19
- Dummy
- 20
- mitbewegte Kamerahalterung
- 21a, b, c, d
- Positionsmarken
- 22
- Hinterrad
- 23
- Türschweller
- 24
- Türgriff
- 25
- Türfuge
- 26
- Scheinwerfer
- 27
- Dummykopf
- 28
- Dummyarm
- 29, 30, 31,
- 32, 33, 34,35
- Farbkodierungen
- 36, 37, 38
- Legenden
- 39
- graphische Darstellung
Claims (26)
- Auswertevorrichtung zur Erfassung und Auswertung von Bildsequenzen von bewegten Messobjekten mit markierten und/oder unmarkierten Messbereichen, vorzugsweise von Kraftfahrzeugen (
15 ) und Dummies (19 ) o.ä., in einem Hochgeschwindigkeitsversuch, insbesondere in einem Crashversuch, mit einem Kamerasystem (1 ,1a , b, c) zur Erfassung von Bildsequenzen der bewegten Messobjekte, wobei das Kamerasystem (1 ,1a , b, c) mindestens zwei Hochgeschwindigkeitskameras (2 ,3 ) mit zweidimensionalen Detektorelementen (6 ,7 ) aufweist, dadurch gekennzeichnet, dass ein Auswertesystem (17 ) vorgesehen ist, das Mittel zur Bestimmung von 3D-Bewegungsdaten der Messbereiche aus den erfassten Bildsequenzen unter Verwendung der Stereo-Bildverarbeitung aufweist. - Auswertevorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die mindestens zwei Kameras (
2 ,3 ) einen zweidimensionalen CCD-Chip und/oder einen zweidimensionalen CMOS-Chips aufweisen. - Auswertevorrichtung nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die mindestens zwei Kameras zeitlich zueinander synchronisiert sind, vorzugsweise derart, dass die mindestens zwei Kameras Bilder der Bildsequenzen gleichzeitig erfassen.
- Auswertevorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die mindestens zwei Kameras örtlich zueinander fixiert sind, vorzugsweise derart, dass die mindestens zwei Kameras die bewegten Messobjekte aus mindestens zwei verschiedenen Beobachtungswinkeln und/oder – positionen erfassen.
- Auswertevorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die mindestens zwei Kameras das gleiche optische Abbildungsverhältnis aufweisen und/oder die gleichen Messbereiche erfassen.
- Auswertevorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Auswertesystem Mittel zur Identifikation der Messbereiche aufweist.
- Auswertevorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Mittel zur Identifikation der Messbereiche Mittel zur Identifikation von unmarkierten Messbereichen umfassen und zwar insbesondere von unmarkierten Messbereichen, die durch geschlossene und/oder quasi – geschlossene Objekte – wie z.B. einem Dummy (
19 ), vorzugsweise dessen Köperteile, Extremitäten (28 ) oder Kopf (27 ), einer Rückenlehne eines Sitzes, eines Airbags, einer Motorhaube, dem gesamten Frontbereich eines Kraftfahrzeuges oder der A-, B- oder C-Säule eines Kraftfahrzeuges – gebildet sind und/oder von unmarkierten Messbereichen die durch Objektkonturlinien – wie z.B. dem Verlauf eines Türrahmenabsatzes, einer Kotflügelbegrenzungslinie, einem Türschweller (23 ) – gebildet sind und/oder von unmarkierten Messbereichen, die durch beliebige Bereiche gebildet sind und/oder von unmarkierten Messbereichen, die durch ihre Struktur identifiziert werden können. - Auswertevorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass Mittel zur Erzeugung von bildbasierten 3D-Modellen auf den Messbereichen vorgesehen sind.
- Auswertevorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Mittel zur Bestimmung der 3D-Bewegungsdaten Mittel, vorzugsweise digitale Auswertungsalgorithmen, zur Bestimmung von 3D-Positionsdaten und/oder 3D-Geschwindigkeitsdaten und/oder 3D-Beschleunigungsdaten und/oder 3D-Orientierungsdaten und/oder Verformungen und/oder Verwindungen der Messbereiche und/oder der 3D-Modelle umfasst.
- Auswertevorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass Mittel zur Verfolgung von Messbereichen und/oder der 3D-Modelle innerhalb der Bildersequenzen vorgesehen sind.
- Auswertevorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass Mittel zur Speicherung der Bildsequenzen und/oder der 3D-Bewegungsdaten vorgesehen sind.
- Auswertevorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass Mittel zur Visualisierung, insbesondere zur Animation, und/oder Mittel zur Ausgabe der 3D-Bewegungsdaten und/oder der 3D-Modelle sowie weiterer relevanter Daten vorgesehen sind.
- Auswerteverfahren für die Ermittlung von Bewegungsdaten in einem Hochgeschwindigkeitsversuch, insbesondere einem Crash-Versuch, mit bewegten Messobjekten, die markierte und/oder unmarkierte Messbereiche aufweisen, wobei Bildersequenzen von den bewegten Messobjekten während des Hochgeschwindigkeitsversuchs durch ein Kamerasystem erfasst werden, das mindestens zwei Kameras, vorzugsweise Hochgeschwindigkeitskameras, mit zweidimensionalen Detektorelementen aufweist, dadurch gekennzeichnet, dass 3D-Bewegungsdaten der Messbereiche durch Auswertung der erfassten Bildersequenzen unter Verwendung der Stereo-Bildverarbeitung bestimmt werden.
- Auswerteverfahren nach Anspruch 14, dadurch gekennzeichnet, dass ein oder mehrere Kamerasysteme mit einem oder mehreren der Merkmale der Ansprüche 1 bis 13 eingesetzt wird, insbesondere eine oder mehrere Auswertevorrichtungen nach einem der Ansprüche 1 bis 13.
- Auswerteverfahren nach Anspruch 14 oder 15, dadurch gekennzeichnet, dass mittels digitaler Bildverarbeitung Messbereiche, insbesondere unmarkierte Messbereiche wie z.B. in Anspruch 7 aufgezählt, identifiziert werden.
- Auswerteverfahren nach einem der Ansprüche 14 bis 16, dadurch gekennzeichnet, dass aus einem oder mehreren der identifizierten Messbereiche ein 3D-Modell des Messobjekts und/oder von Teilen des Messobjekts erzeugt werden.
- Auswerteverfahren nach Anspruch 16 oder 17, dadurch gekennzeichnet, dass aus den erfassten Bildersequenzen 3D-Bewegungsdaten der identifizierten Messbereiche und/oder des 3D-Modells bestimmt werden, wobei die 3D-Bewegungsdaten 3D-Positionsdaten und/oder 3D-Geschwindigkeitsdaten und/oder 3D-Beschleunigungsdaten und/oder 3D-Orientierungsdaten und/oder zeit- und/oder positionsabhängige Verformungen oder Verwindungen umfassen.
- Auswerteverfahren nach einem der Ansprüche 14 bis 18, dadurch gekennzeichnet, dass die 3D-Bewegungsdaten durch Methoden des Objekt-Trackings und/oder der Punktverfolgung und/oder anderen Methoden der Bewegungsanalyse bestimmt werden.
- Auswerteverfahren nach einem der Ansprüche 14 bis 19, dadurch gekennzeichnet, dass aus den 3D-Bewegungsdaten und/oder den Messbereichen und/oder den 3D-Modellen die Bewegung und die Verformung von relevanten Teilen des Messobjekts wie z.B. dem Kopf oder dem Körper des Dummies oder einer Motorhaube etc. ermittelt werden.
- Auswerteverfahren nach einem der Ansprüche 14 bis 20, dadurch gekennzeichnet, dass absolute Bewegungsdaten und/oder relative Bewegungsdaten ermittelt werden.
- Auswerteverfahren nach einem der Ansprüche 14 bis 21, dadurch gekennzeichnet, dass das Kamerasystem außerhalb des bewegten Messobjekts oder innerhalb, z.B. in der Fahrgastkabine des Kraftfahrzeugs, angeordnet wird.
- Auswerteverfahren nach einem der Ansprüche 14 bis 22, dadurch gekennzeichnet, dass die Hildersequenzen zunächst gespeichert werden und erst nach dem Hochgeschwindigkeitsversuch ausgewertet werden.
- Auswerteverfahren nach einem der Ansprüche 14 bis 23, dadurch gekennzeichnet, dass die erfassten Bildersequenzen, die Messbereiche, die 3D-Modelle und/oder die 3D-Bewegungsdaten gespeichert und/oder insbesondere durch eine Animation visualisiert werden.
- Auswerteverfahren nach einem der Ansprüche 14 bis 24, dadurch gekennzeichnet, dass das Kamerasystem kalibriert und/oder verifiziert wird.
- Verwendung eines Auswertesystems nach einem der Ansprüche 1 bis 13, dadurch gekennzeichnet, dass das Auswertesystem zur Auswertung eines Hochgeschwindigkeitsversuches, insbesondere Crashversuchs, mit bewegten Messobjekten eingesetzt wird.
- Verwendung eines Auswertesystems nach Anspruch 26, dadurch gekennzeichnet, dass ein Verfahren nach einem der Ansprüche 14 bis 25 angewendet wird.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE200410050020 DE102004050020B4 (de) | 2004-10-13 | 2004-10-13 | Auswertevorrichtung und Auswerteverfahren für einen Crashversuch |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE200410050020 DE102004050020B4 (de) | 2004-10-13 | 2004-10-13 | Auswertevorrichtung und Auswerteverfahren für einen Crashversuch |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102004050020A1 true DE102004050020A1 (de) | 2006-05-04 |
DE102004050020B4 DE102004050020B4 (de) | 2008-04-30 |
Family
ID=36201560
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE200410050020 Expired - Fee Related DE102004050020B4 (de) | 2004-10-13 | 2004-10-13 | Auswertevorrichtung und Auswerteverfahren für einen Crashversuch |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102004050020B4 (de) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102009021686A1 (de) * | 2009-05-18 | 2010-11-25 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Crashsimulationsanlage und Crashsimulationsverfahren |
FR2966585A1 (fr) * | 2010-10-25 | 2012-04-27 | Peugeot Citroen Automobiles Sa | Installation pour determiner la position d'un mannequin pour test de choc dans un vehicule et procede utilisant cette installation |
CN103185660A (zh) * | 2011-12-28 | 2013-07-03 | 江南大学 | 一种用于汽车碰撞试验的安全检测反馈系统 |
CN103940570A (zh) * | 2014-05-09 | 2014-07-23 | 中南大学 | 轨道车辆实车对撞试验系统 |
US9485470B2 (en) | 2012-01-31 | 2016-11-01 | Dr. Ing. H.C.F. Porsche Aktiengesellschaft | Evaluation unit, evaluation method, measurement system for a crash test vehicle measurement and a method for performing a crash test vehicle measurement |
CN113670718A (zh) * | 2021-08-09 | 2021-11-19 | 南京中车浦镇城轨车辆有限责任公司 | 一种机车电缆接头力学与寿命测试装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4308776C2 (de) * | 1992-03-23 | 1997-08-21 | Fuji Heavy Ind Ltd | Einrichtung zum Überwachen des Außenraums eines Fahrzeugs |
JP2002252850A (ja) * | 2001-02-26 | 2002-09-06 | Matsushita Electric Ind Co Ltd | 実験結果管理システム及び実験結果管理方法 |
US6651482B1 (en) * | 2000-12-15 | 2003-11-25 | Exponent, Inc. | Apparatus and method for vehicle rollover crash testing |
US20040101162A1 (en) * | 2002-11-19 | 2004-05-27 | Honda Motor Co., Ltd. | Moving object detection device, moving object detection method, and moving object detection program |
-
2004
- 2004-10-13 DE DE200410050020 patent/DE102004050020B4/de not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4308776C2 (de) * | 1992-03-23 | 1997-08-21 | Fuji Heavy Ind Ltd | Einrichtung zum Überwachen des Außenraums eines Fahrzeugs |
US6651482B1 (en) * | 2000-12-15 | 2003-11-25 | Exponent, Inc. | Apparatus and method for vehicle rollover crash testing |
JP2002252850A (ja) * | 2001-02-26 | 2002-09-06 | Matsushita Electric Ind Co Ltd | 実験結果管理システム及び実験結果管理方法 |
US20040101162A1 (en) * | 2002-11-19 | 2004-05-27 | Honda Motor Co., Ltd. | Moving object detection device, moving object detection method, and moving object detection program |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102009021686A1 (de) * | 2009-05-18 | 2010-11-25 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Crashsimulationsanlage und Crashsimulationsverfahren |
DE102009021686B4 (de) * | 2009-05-18 | 2021-02-04 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Crashsimulationsanlage und Crashsimulationsverfahren |
FR2966585A1 (fr) * | 2010-10-25 | 2012-04-27 | Peugeot Citroen Automobiles Sa | Installation pour determiner la position d'un mannequin pour test de choc dans un vehicule et procede utilisant cette installation |
CN103185660A (zh) * | 2011-12-28 | 2013-07-03 | 江南大学 | 一种用于汽车碰撞试验的安全检测反馈系统 |
US9485470B2 (en) | 2012-01-31 | 2016-11-01 | Dr. Ing. H.C.F. Porsche Aktiengesellschaft | Evaluation unit, evaluation method, measurement system for a crash test vehicle measurement and a method for performing a crash test vehicle measurement |
CN103940570A (zh) * | 2014-05-09 | 2014-07-23 | 中南大学 | 轨道车辆实车对撞试验系统 |
CN113670718A (zh) * | 2021-08-09 | 2021-11-19 | 南京中车浦镇城轨车辆有限责任公司 | 一种机车电缆接头力学与寿命测试装置 |
Also Published As
Publication number | Publication date |
---|---|
DE102004050020B4 (de) | 2008-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2002203B1 (de) | Verfahren und system zur formmessung einer spiegelnden oberfläche | |
DE102008041523B4 (de) | Verfahren zur dreidimensionalen Messung und Vorrichtung zur dreidimensionalen Messung | |
EP2515101B1 (de) | Verfahren zur Planung einer Inspektionsbahn und zur Bestimmung von zu inspizierenden Bereichen | |
DE102009032771B4 (de) | Messeinrichtung und Verfahren zum dreidimensionalen optischen Vermessen von Objekten | |
EP0767357A1 (de) | Messvorrichtung zur kontaktlosen Messanalyse von Körpern oder Oberflächen | |
DE102018001969A1 (de) | Verfahren zur Kalibrierung eines kontaktanalogen Headup-Displays eines Fahrzeuges in einer Werkstatt | |
EP2133659A1 (de) | Verfahren und Vorrichtung zur Ermittlung der Lage eines Sensors | |
DE102015008887A1 (de) | Verfahren und Vorrichtung zur Kalibrierung eines Headup-Displays in einem Fahrzeug | |
DE10127304C5 (de) | Verfahren und Vorrichtung zur Bestimmung der dreidimensionalen Kontur einer spiegelnden Oberfläche eines Objektes | |
EP2546778A2 (de) | Verfahren zum evaluieren einer Objekterkennungseinrichtung eines Kraftfahrzeugs | |
DE102004050020B4 (de) | Auswertevorrichtung und Auswerteverfahren für einen Crashversuch | |
DE102004033526A1 (de) | Verfahren und Vorrichtung zur Analyse zumindest partiell reflektierender Oberflächen | |
DE102007021106B4 (de) | Verfahren und Vorrichtung zum Kalibrieren eines Kamerasystems | |
DE102005060980B4 (de) | Verfahren und System zur Bestimmung eines kollisionsfreien dreidimensionalen Raumvolumens entlang eines Bewegungspfades gegenüber einer realen Umgebung | |
EP2031348A1 (de) | Vorrichtung für ein spiegelndes Metallband mit einer Inspektionseinheit zum Detektieren von Oberflächendefekten und/oder Vermessen der Oberflächentopographie | |
DE102006048726A1 (de) | Verfahren zum Vermessen der Rad- oder Achsgeometrie eines Fahrzeugs | |
DE102009056013A1 (de) | Verfahren zum Erzeugen eines Augmented-Reality-Bildes | |
DE102010012340B4 (de) | Verfahren zum Erfassen der Bewegung eines Menschen in einem Fertigungsprozess, insbesondere in einem Fertigungsprozess für ein Kraftfahrzeug | |
DE102010029627B4 (de) | Vorrichtung und Verfahren zur Bestimmung der Struktur einer spiegelnden Oberfläche eines Objekts | |
DE102004046752B4 (de) | Verfahren zur dreidimensionalen Erfassung von Messobjekten | |
DE102019201134A1 (de) | Einmessung einer Augmented-Reality-Brille zur Verwendung in einem Kraftfahrzeug | |
EP3800622B1 (de) | Verfahren und vorrichtung zum aufzeichnen einer verkehrssituation bei der vorbeifahrt eines fahrzeugs an einem aufzeichnungsgerät | |
DE102013102528B4 (de) | Verfahren zur Bestimmung einer Verbauposition einer Innenraumsensorik in einem Fahrzeug | |
DE102017122627A1 (de) | Optisches Messsystem und Messverfahren | |
WO2024032971A1 (de) | Vorrichtung und verfahren zur vermessung dreidimensionaler virtueller bilder und objekte eines head-up-displays |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8127 | New person/name/address of the applicant |
Owner name: DAIMLERCHRYSLER AG, 70327 STUTTGART, DE |
|
8127 | New person/name/address of the applicant |
Owner name: DAIMLER AG, 70327 STUTTGART, DE |
|
8364 | No opposition during term of opposition | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |