DE102018103333B3 - Verfahren und System zur dynamischen Strukturanalyse - Google Patents

Verfahren und System zur dynamischen Strukturanalyse Download PDF

Info

Publication number
DE102018103333B3
DE102018103333B3 DE102018103333.8A DE102018103333A DE102018103333B3 DE 102018103333 B3 DE102018103333 B3 DE 102018103333B3 DE 102018103333 A DE102018103333 A DE 102018103333A DE 102018103333 B3 DE102018103333 B3 DE 102018103333B3
Authority
DE
Germany
Prior art keywords
coordinate system
vibration
vibration sensor
world coordinate
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102018103333.8A
Other languages
English (en)
Inventor
Daniel Herfert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Angewandter Informatik Ev Gesell zur Forderung
Ges Zur Foerderung Angewandter Informatik Ev
Original Assignee
Angewandter Informatik Ev Gesell zur Forderung
Ges Zur Foerderung Angewandter Informatik Ev
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Angewandter Informatik Ev Gesell zur Forderung, Ges Zur Foerderung Angewandter Informatik Ev filed Critical Angewandter Informatik Ev Gesell zur Forderung
Priority to DE102018103333.8A priority Critical patent/DE102018103333B3/de
Application granted granted Critical
Publication of DE102018103333B3 publication Critical patent/DE102018103333B3/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H11/00Measuring mechanical vibrations or ultrasonic, sonic or infrasonic waves by detecting changes in electric or magnetic properties
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M17/00Testing of vehicles
    • G01M17/08Railway vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M7/00Vibration-testing of structures; Shock-testing of structures

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Abstract

Ein Verfahren zur dynamischen Strukturanalyse umfasst die folgenden Schritte:
- Bereitstellen (S1) einer Mehrzahl von Schwingungssensoren (10) an dem zu untersuchenden Objekt;
- optisches Erfassen (S2) der Schwingungssensoren mittels einer Videokamera (32) in einem Videobild;
- Für jeden der Schwingungssensoren: Bestimmen (S3) einer Position und einer Orientierung des Schwingungssensors in einem 3D-Weltkoordinatensystem (120) auf Basis eines Abbildes des Schwingungssensors (10) in dem Videobild unter Verwendung extrinsischer Kameraparameter (EKP) und intrinsischer Kameraparameter (IKP) der Videokamera, und
- Visualisieren (S4) mittels der Schwingungssensoren erfasster Schwingungen in einem 2D-Pixelkoordinatensystem (146) auf Basis einer Transformation der 3D-Koordinaten der Schwingungssensoren in dem 3D-Weltkoordinatensystem in das 2D-Pixelkoordinatensystem.

Description

  • Die Erfindung betrifft ein Verfahren und ein System zur dynamischen Strukturanalyse. Genauer betrifft die Erfindung ein Verfahren zur Visualisierung von Schwingungsmesswerten im Rahmen einer dynamischen Strukturanalyse sowie einzelne Komponenten eines entsprechenden Systems, wie z.B. geeignet eingerichtete Schwingungssensoren sowie eine das Verfahren steuernde Steuereinrichtung.
  • Technologischer Hintergrund
  • Die strukturdynamische und akustische Systemoptimierung ist für die Entwicklung und Konstruktion von leistungsfähigen und langlebigen Maschinen, Fahrzeugen, Geräten und industriellen Anlagen von wesentlicher Bedeutung. Die strukturdynamische Analyse ist daher in vielen Branchen der Wirtschaft anzutreffen: im Maschinen-, Schiffs- und Fahrzeugbau, in der Luft- und Raumfahrttechnik, in der Wehrtechnik, im Bereich der Haushaltsgeräte und Unterhaltungselektronik. Ein weiteres großes Anwendungsgebiet ist der Bereich des Bauwesens. Bauwerke sind ständig Umgebungseinflüssen ausgesetzt, diese regen Bauwerke (insgesamt oder Teile davon) zu meist unerwünschten und schädlichen Schwingungen an. In immer stärkerem Maße erfolgen solche Anregungen durch Verkehrsströme in der Nähe von Bauwerken oder, z.B. im Falle von Brücken, durch auf dem Bauwerk direkt angeordnete oder mit dem Bauwerk verbundene Technik, wie z.B. Maschinen oder Windkraftgeneratoren.
  • Neben der Entwicklung- und Konstruktionsphase werden dynamische Strukturanalysen auch zur Optimierung bzw. Anpassung von bereits existierenden Strukturen verwendet.
  • Bei der Durchführung einer Modalanalyse zur Konstruktion, Begutachtung oder zur dynamischen Optimierung eines Objekts, z.B. eines Bauwerkes, mittels elektro-mechanischer Sensoren ist gemäß dem gegenwärtigen Stand der Technik großer zeitlicher und personeller Aufwand erforderlich, insbesondere bedingt durch die Einrichtung der Messhardware.
  • Besonders bei der Modalanalyse von Bauwerken und größeren bzw. komplexen Objekten, wie z.B. Fahrzeugkarosserien, muss ein großer Zeitaufwand ausschließlich für die Vorbereitung der Messung eingeplant werden. In den meisten aktuell durchgeführten Modalanalysen von Bauwerken wird zudem kabelgebundene Messhardware eingesetzt, die neben dem großen zeitlichen Aufwand bei der Einrichtung und wegen der störenden Kabelverbindung nicht überall im Bauwerk angebracht werden kann. Zudem ist damit größerer Aufwand beim Transport der Messhardware verbunden.
  • Die meisten Messaufbauten werden aktuell immer noch nicht verteilt vorgenommen, d.h. es müssen alle verwendeten Sensoren an einen zentralen Datenrecorder angeschlossen werden, was zu deutlich mehr Kabelaufwand gegenüber verteilten Messaufbauten führt.
  • Die korrekte Durchführung von Messungen ist neben der Sensorauswahl wesentlich für die spätere Durchführung der Modalanalyse. Denn bei ungenügend vorgenommenen Messungen oder schlecht gewählten Sensorpositionen kann es zu starken Abweichungen zwischen den Analyseergebnissen und der Realität kommen. Für die Validierung der Sensorpositionen einer Messung, zur Funktionsprüfung aller Sensoren und zur Bewertung der Ergebnisse der Modalanalyse ist eine Animation von Eigenschwingungsformen des zu untersuchenden Objekts notwendig.
  • Die Anzeige der Eigenschwingungsformen ist aber aktuell nur möglich, wenn ein geometrisches 3D-Modell des zu untersuchten Objekts vorliegt und eine Zuordnung der Sensoren zu dem 3D-Modell stattgefunden hat. Aktuell wird eine solche Animation der Eigenschwingungsformen hauptsächlich anhand von abstrakten geometrischen Modellen der Struktur vorgenommen, die aus Knoten, dazugehörigen Linien und Dreiecken bestehen.
  • Solche geometrische 3D-Modelle eines Objekts werden in der Regel mit Hilfe eines Editors manuell oder mittels eines CAD-Programms erstellt. Bei räumlich komplizierten Objekten, z.B. bei sehr stark strukturierten Oberflächen, verursacht diese Herangehensweise einen immensen Zeitaufwand, sodass in den meisten Fällen nur einfache geometrische Modelle angefertigt werden. Der Aufwand wird durch eine zusätzlich erforderliche manuelle Vermessung der Originalstruktur durch einen Ingenieur nochmals erhöht. Durch den großen zeitlichen Aufwand zur Erstellung eines passenden geometrischen Modelles kann eine direkte Animation der Eigenschwingungsformen, direkt am Messort, in den meisten Fällen nicht durchgeführt werden. Fehler bei der Messung sind dann erst im Nachhinein erkennbar.
  • Eine präzise Zuordnung von Schwingungssensoren, z.B. elektro-mechanischen Sensoren, hinsichtlich Position und Ausrichtung des Sensors mit Bezug zu dem geometrischen Modell des zu untersuchenden Objektes ist wesentlich, da durch eine ungenaue Zuordnung die Animation der Eigenschwingungsformen an falschen Orten bzw. in falschen Richtungen wiedergegeben werden würden. Somit ist eine genaue Vermessung der Sensorpositionen bzw. eine präzise einheitliche Feststellung der Ausrichtung des Sensors in Relation zu dem zu untersuchenden Objekt notwendig, was besonders bei großen Objekten, wie z.B. Bauwerken, einen großen personellen Aufwand nach sich zieht.
  • Weiterhin müssen diese an dem zu untersuchenden Objekt festgestellten Sensorpositionen und -ausrichtungen dann manuell in das virtuelle 3D-Modell eingetragen werden, was ebenfalls mit großem Aufwand verbunden ist.
  • In der US 2011/0295427 A1 werden Verfahren und Systeme beschrieben, um einen entfernten Sensor innerhalb eines Zielobjekts zu positionieren. Ein knickgelenktes Robotersystem ist mit dem Fernsensor gekoppelt. Ein Positionierungssystem bestimmt eine Position des zu prüfenden Zielobjekts und eine erste Position des Fernsensors. Ein Steuersystem kalibriert eine virtuelle Darstellung des Zielobjekts in Bezug auf die Position des Zielobjekts und verfolgt die Bewegung des entfernten Sensors relativ zum Zielobjekt.
  • In der US 2017/0220718 A1 wird ausgeführt, dass strukturelle Zustandsüberwachung (Structural Health Monitoring, SHM) unerlässlich ist, aber teuer in der Durchführung sein kann. Ein darin dort beschriebenes Verfahren beinhaltet das Erfassen von Vibrationen an einer Vielzahl von Stellen einer Struktur durch eine Vielzahl von zeitsynchronisierten Sensoren. Das Verfahren beinhaltet ferner das Bestimmen eines ersten Satzes von Abhängigkeiten aller Sensoren der zeitsynchronisierten Sensoren zu einer ersten Abtastzeit zu beliebigen Sensoren einer zweiten Abtastzeit und das Bestimmen eines zweiten Satzes von Abhängigkeiten aller Sensoren der zeitsynchronisierten Sensoren zur zweiten Abtastzeit zu beliebigen Sensoren einer dritten Abtastzeit. Die zweite Abtastzeit ist größer als die erste Abtastzeit, und die dritte Abtastzeit ist größer als die zweite Abtastzeit. Die Methode ermittelt dann, ob sich die Struktur geändert hat, wenn sich der erste Satz von Abhängigkeiten von dem zweiten Satz von Abhängigkeiten unterscheidet. Daher kann automatisiertes SHM Sicherheit zu geringeren Kosten für den Bauherrn gewährleisten.
  • Die DE 10 2007 023 826 A1 betrifft ein Verfahren und eine Vorrichtung zur Schwingungsmessung eines Objektes. Das Verfahren umfasst die folgenden Verfahrensschritte: Festlegen wenigstens eines zu messenden Punktes des Objektes, Bewegen zumindest eines auf einer Halterung befestigten Laser-Interferometers in eine Messlage zur Messung des Messpunktes auf dem Objekt, Aussenden zumindest eines Messstrahls des Laser-Interferometers auf den zumindest einen Messpunkt auf dem Objekt, Erfassen des vom Objekt zurückgestreuten Messstrahls, Ermitteln von Schwingungsdaten aus dem ausgesandten und zurückgestreuten Messstrahl, Zuordnen der Schwingungsdaten zu dem Messpunkt sowie Auswerten der Schwingungsdaten und Ausgeben der Schwingungsdaten des Messpunktes, wobei zumindest ein Abgleich einer Lage des Laser-Interferometers mittels zumindest einer Lage eines bekannten, frei vorgebbaren Punktes auf dem Objekt vorgenommen wird und eine Transformationsvorschrift zur Ermittlung der Lage des Laser-Interferometers relativ zum Objekt für beliebige Messlagen anhand des Abgleichs erstellt wird.
  • Die EP 2 887 030 A1 betrifft eine Vorrichtung und ein Verfahren zur Messung von Schwingungen zumindest eines bewegten Objektes, mit zumindest einem Laser, welcher dazu eingerichtet ist, Laserstrahlung auszusenden, und zumindest einer Kamera, welche dazu eingerichtet ist, das bewegte Objekt zu erfassen, und zumindest einem Empfänger, welcher dazu eingerichtet ist, zumindest einen Teil der Laserstrahlung zu erfassen, dadurch gekennzeichnet, dass die Laserstrahlung mit einer Strahlführungseinrichtung in eine vorgebbare Richtung lenkbar ist und die Vorrichtung weiterhin zumindest eine Nachführeinrichtung enthält, welcher zumindest Bilddaten der Kamera zuführbar sind und mit welcher zumindest ein Ansteuersignal der Strahlführungseinrichtung erzeugbar ist.Ein konfigurierbarer Vibrationssensor gemäß der US 7,093,492 B2 umfasst eine Sensorschaltung, einen Analog-Digital-Wandler und einen Prozessor, wobei die Sensorschaltung ein Vibrationssensorelement und einen durch den Prozessor steuerbaren Filter mit variabler Bandbreite umfasst. Neben dem Filter mit variabler Bandbreite können auch andere konfigurierbare Elemente in der Sensorschaltung verwendet werden, darunter ein Verstärker mit variabler Verstärkung. Diese konfigurierbaren Elemente ermöglichen es, den konfigurierbaren Schwingungssensor für verschiedene Schwingungsmessanwendungen bei der Messung von Schwingungen an schwingenden Strukturen wie Maschinen und dergleichen zu konfigurieren.
  • Die DE 10 2012 014 277 A1 betrifft eine Vorrichtung zum Erfassen von Schwingungen an einer Maschine mit mindestens einem um eine Drehachse rotierenden Maschinenelement, mit einem Messkopf zur lösbaren Ankopplung an mindestens eine Messstelle der Maschine, mit einer Sensoranordnung zum Messen von Schwingungen in mindestens einer bzgl. des Messkopfs feststehenden Sensormessrichtung, und einer Anordnung zum Erfassen der aktuellen räumlichen Orientierung der Sensormessrichtung, mit mindestens einem Gyroskop, und einer Anordnung zum Zuordnen von Schwingungsmessung und der entsprechenden Orientierung der Sensormessrichtung während der jeweiligen Schwingungsmessung. Aufgabe der vorliegenden Erfindung ist es, ein Verfahren und ein System zur dynamischen Strukturanalyse vorzuschlagen, welche den vorgenannten Nachteilen Rechnung tragen.
  • Zusammenfassung der Erfindung
  • Diese Aufgabe wird mit einem Verfahren und mit Vorrichtungen mit den Merkmalen der nebengeordneten Ansprüche gelöst. Bevorzugte Ausgestaltungen und Weiterbildungen sind in den abhängigen Ansprüchen angegeben.
  • Eine bevorzugte Ausführungsform eines Verfahrens zur dynamischen Strukturanalyse eines Objekts umfasst die folgenden Schritte:
    • In einem ersten Schritt wird eine Mehrzahl von Schwingungssensoren bereitgestellt.
  • In einem weiteren Schritt werden die Schwingungssensoren mittels einer eine Videokamera umfassenden Erfassungseinrichtung in einem Videobild optisch erfasst.
  • Für jeden der Schwingungssensoren erfolgt dann ein Bestimmen einer Position und einer Orientierung des Schwingungssensors in einem 3D-Weltkoordinatensystem, in welchem ein zu untersuchendes Objekt angeordnet ist, auf Basis eines Abbildes des Schwingungssensors in dem Videobild. Dies geschieht unter Verwendung extrinsischer Kameraparameter und intrinsischer Kameraparameter der Erfassungseinrichtung.
  • Die extrinsischen Kameraparameter definieren dabei in bekannter Weise eine Koordinatentransformation zwischen dem 3D-Weltkoordinatensystem und einem der Erfassungseinrichtung zugeordneten 3D-Kamerakoordinatensystem. Extrinsische Kameraparameter sind z.B. eine Translation in x-Richtung (Tx), eine Translation in y-Richtung (Ty), eine Translation in z-Richtung (Tz), eine Rotation um die x-Achse mit Winkel alpha (Rx), eine Rotation um die y-Achse mit Winkel beta (Ry) und eine Rotation um die y-Achse mit Winkel gamma (Rz).
  • Die intrinsischen Kameraparameter definieren ebenfalls in bekannter Weise eine Koordinatentransformation zwischen dem 3D-Kamerakoordinatensystem und einem dem Videobild zugeordneten 2D-Pixelkoordinatensystem. Intrinsische Kameraparameter sind z.B. eine Brennweite (f) der Videokamera, ein x-Wert eines Bildmittelpunktes (Ox), ein y-Wert des Bildmittelpunktes (Oy), eine Pixelskalierung in x-Richtung (sx) und eine Pixelskalierung in y-Richtung (sy).
  • Extrinsische Kameraparameter und ggf. intrinsische Kameraparameter können in bekannter Weise mittels einer Kamerakalibrierung ermittelt werden, z.B. mit dem Verfahren nach Tsai. Intrinsische Kameraparameter werden in der Regel von der Erfassungseinrichtung selbst bereitgestellt, d.h. können aus einem Speicher der Erfassungseinrichtung ausgelesen werden.
  • In einem weiteren Schritt des Verfahrens können dann mittels der Schwingungssensoren erfasste Schwingungen in dem 2D-Pixelkoordinatensystem, d.h. auf einer Anzeigeeinrichtung, wie z.B. einen Display, auf Basis einer Transformation der 3D-Koordinaten der Schwingungssensoren in dem 3D-Weltkoordinatensystem in das 2D-Pixelkoordinatensystem visualisiert werden.
  • Gemäß einer ersten Ausführungsform wird ein Schwingungssensor bereitgestellt wird, indem dieser an dem zu untersuchenden Objekt angeordnet wird. Das optische Erfassen des Schwingungssenors, zum Bestimmen von Position und Orientierung im 3D-Weltkkordinatensystem, erfolgt somit, nachdem der Schwingungssensor bereits am zu untersuchenden Objekt angeordnet ist.
  • Gemäß einer alternativen Ausführungsform wird ein Schwingungssensor zunächst an einem beliebig wählbaren Ausgangspunkt angeordnet. Nach dem Bestimmen der Position und der Orientierung des Schwingungssensors in dem 3D-Weltkoordinatensystem, auf Basis der Position und Orientierung am Ausgangspunkt, wird der Schwingungssensor erst dann an dem zu untersuchenden Objekt angeordnet. Eine dabei erfolgende Änderung von Position und Orientierung im 3D-Weltkoordinatensystem wird mittels einer inertiale Messeinheit, IMU, des Schwingungssensors erfasst und entsprechend angepasst.
  • Diese Ausführungsform ist vorteilhaft in dem Fall, dass eine einzige Kameraperspektive nicht ausreichen würde, um alle Schwingungssensoren an dem zu untersuchenden Objekt zu erfassen. Es müsste dann, was grundsätzlich möglich wäre, die Videokamera zum vollständigen Erfassen aller Schwingungssensoren am Objekt bewegt werden, was eine Neubestimmung der extrinsischen Kameraparameter notwendig machen würde. Dies kann unterbleiben, wenn alle Schwingungssensoren zunächst an einem geeigneten Ausgangspunkt optisch erfasst werden, welcher eine solche Erfassung ohne Bewegung der Videokamera erlaubt.
  • Das Bestimmen der Position und Orientierung eines Schwingungssensors auf Basis des Videobildes kann auf verschiedenen Wegen erfolgen.
  • Gemäß einer ersten Ausführungsform erfolgt das Bestimmen der Position eines Schwingungssensors in dem 3D-Weltkoordinatensystem, indem die Position eines Abbildes des Schwingungssensors im Videobild manuell erfasst wird.
  • In analoger Weise kann das Bestimmen der Orientierung eines Schwingungssensors in dem 3D-Weltkoordinatensystem erfolgen, indem die Orientierung eines Abbildes des Schwingungssensors im Videobild manuell erfasst wird.
  • Gemäß einer alternativen Ausführungsform kann das Bestimmen der Position eines Schwingungssensors in dem 3D-Weltkoordinatensystem auf Basis einer markerbasierten Bilderkennung erfolgen. In analoger Weise kann das Bestimmen der Orientierung eines Schwingungssensors in dem 3D-Weltkoordinatensystem auf Basis einer markerbasierten Bilderkennung erfolgen. Beide Verfahren können kombiniert werden. Beispielsweise können einzelne markerbasiert festgestellte Positionen oder Orientierungen manuell nachgebessert oder korrigiert werden.
  • Damit ist eine erste, vorbereitende Phase des Verfahrens zur dynamischen Strukturanalyse eines Objekts abgeschlossen, welche im Wesentlichen dazu dient, den am Objekt angeordneten Schwingungssensoren in einfacher Weise 3D-Koordinaten und eine Orientierung im 3D-Weltkoordinatensystem zuzuordnen. Der hierfür erforderliche Aufwand ist im Vergleich zu Verfahren des Standes der Technik sehr gering. Eine aufwändige Erstellung eines 3D-Modells des Objekts kann vollständig wegfallen, ebenso wie eine manuelle Zuordnung von Sensorpositionen und -orientierungen zu dem Modell. In dem Fall, dass die Sensorpositionen und -orientierunen markerbasiert erfasst werden, müssen lediglich die Sensoren an dem Objekt angeordnet und einmalig, vor oder nach dem Anordnen am Objekt, mittels der Videokamera erfasst werden.
  • Der Schritt des Visualisierens, der einer zweiten Phase des Verfahrens zur dynamischen Strukturanalyse eines Objekts zuzuordnen ist, kann folgende Teilschritte umfassen:
  • Zunächst wird das zu untersuchende Objekt zumindest aus der aktuellen Perspektive der Erfassungseinrichtung erfasst und eine das Objekt entsprechend partiell definierende 3D-Punktwolke wird mittels einer 3D-Abtastung des Objekts durch die Erfassungseinrichtung ermittelt. Die Erfassungseinrichtung kann dazu z.B. eine 3D-Tiefenkamera umfassen.
  • Jedem Punkt der 3D-Punktwolke wird dabei eine 3D-Koordinate im 3D-Weltkoordinatensystem zugeordnet. Dies erfolgt erneut auf Basis der extrinsischen Kameraparameter der Erfassungseinrichtung.
  • Danach wird ein Wert, der eine mittels eines Schwingungssensors erfasste Schwingung angibt, einem Punkt der 3D-Punktwolke zugeordnet, welcher Punkt im Wesentlichen der Position des Schwingungssensors im 3D-Weltkoordinatensystem entspricht. Dies dient dem Erstellen einer 3D-Darstellung des Schwingungsverhaltens des Objekts im 3D-Weltkoordinatensystem. Diese 3D-Darstellung kann beispielsweise eine 3D-Farbkarte sein, welche farblich codiert, welche Schwingungswerte von welchen Schwingungssensoren erfasst werden.
  • Diese 3D-Darstellung im 3D-Weltkoordinatensystem wird in einem weiteren Teilschritt in eine 2D-Darstellung, z.B. eine 2D-Farbkarte, des Schwingungsverhaltens des Objekts im 2D-Pixelkoordinatensystem transformiert. Dies geschient auf Basis der intrinsischen Kameraparameter der Erfassungseinrichtung.
  • Das Verfahren erlaubt verschiedene Visualisierungen.
  • Gemäß einer bevorzugten Ausführungsform umfasst das Verfahren die folgenden weiteren Schritte:
  • Es wird erneut ein Videobild erfasst, nämlich ein Videobild des zu untersuchenden Objekts, mittels der Videokamera der Erfassungseinrichtung, vorzugsweise gleichzeitig mit dem Erfassen der 3D-Punktwolke.
  • In der Regel umfasst die Erfassungseinrichtung, z.B. eine 3D-Tiefenkamera, hierbei sowohl die Videokamera als auch eine Einrichtung zum dreidimensionalen Abtasten des Objekts. Wesentlich ist, dass sowohl dem hier erfassten Videobild als auch der erfassten 3D-Punktwolke des Objekts dasselbe 3D-Kamerakoordinatensystem zugrunde wird.
  • Dieser Schritt des Erfassens des Videobildes ist nicht zu Verwechseln mit dem optischen Erfassen der Schwingungssensoren in der ersten Phase.
  • In einem weiteren Schritt wird dann das Videobild des Objekts mit der 2D-Darstellung des Schwingungsverhaltens des Objekts überlagert, zum Erhalten einer Augmented Reality Ansicht des Schwingungsverhaltens des Objekts. Mit anderen Worten kann auf diese Weise das Schwingungsverhalten des Objekts mit konkretem Bezug zu dem Objekt selbst, als Überlagerung eines Videobildes des Objekts, visualisiert werden.
  • Gemäß einer weiteren Ausführungsform kann die Visualisierung aber auch ohne ein Videobild des Objekts erfolgen, und nur ein 3D-Modell des Objekts „unterlegen“. Entsprechend umfasst das Verfahren dann die weiteren Schritte:
  • Es wird ein partielles oder vollständiges 3D-Modell des Objekts auf Basis der 3D-Abtastung des Objekts erstellt. Danach wird der Wert, der eine mittels eines Schwingungssensors erfasste Schwingung angibt, zu einem Punkt des 3D-Modells, anstelle eines Punktes der 3D-Punktwolke, zugeordnet. In der Regel ist das 3D-Modell starr und erlaubt - im Gegensatz zu der Augmented Reality Visualisierung, keine Darstellung einer Bewegung des 3D-Modells.
  • Grundsätzlich erlaubt es das vorstehend beschriebene Verfahren, dass ein Schwingungsverhalten des Objekts mit Bezug zu verschiedenen Ansichten des Objekts in Echtzeit visualisiert werden kann, d.h. die Erfassungseinrichtung kann sich im Schritt des Erfassens der 3D-Punktwolke und im Schritt des Erfassen des Videobildes des Objekts (in der zweiten Phase) z.B. um das Objekt herum bewegen. Wenn sich die Erfassungseinrichtung bewegt, werden die extrinsischen Kameraparameter entsprechend der Bewegung angepasst, basierend auf einer Erfassung der Bewegung der Erfassungseinrichtung mittels einer IMU der Erfassungseinrichtung oder basierend auf an sich bekannten photogrammetrischen Verfahren.
  • Ebenso erlaubt es das vorstehend beschriebene Verfahren, dass sich das Objekt in der zweiten Phase, d.h. während der Visualisierung bewegt. Es kann also auch ein Schwingungsverhalten in Echtzeit mit Bezug zu einem sich bewegenden Objekt visualisiert werden. Dazu werden, wenn sich das zu untersuchende Objekt bewegt, die 3D-Koordinaten eines an dem Objekt angeordneten Schwingungssensors im 3D-Weltkoordinatensystem entsprechend der Bewegung des Schwingungssensors mit dem Objekt angepasst, basierend auf einer Erfassung der Bewegung mittels einer IMU des Schwingungssensors.
  • Eine bevorzugte Ausführungsform eines Schwingungssensors zur Verwendung bei einer dynamischen Strukturanalyse eines Objekts, umfasst die folgenden Elemente:
    • - einen Beschleunigungsaufnehmer;
    • - eine inertiale Messeinheit, IMU;
    • - einen Datenrecorder;
    • - ein Energiespeicherelement, und
    • - eine Kommunikationseinheit zum drahtlosen Übertragen von in dem Datenrecorder gespeicherten Daten an eine Steuereinrichtung.
  • Die Kommunikationseinheit ist eingerichtet, Daten mit einer Frequenz von zumindest 48 kHz an die Steuereinrichtung zu übertragen, wodurch eine quasi kontinuierliche Übertragung von Messdaten an die Steuereinrichtung ermöglicht wird. Dies ist vorteilhaft insbesondere mit Blick auf eine vorstehend beschriebene Echtzeitvisualisierung des Schwingungsverhaltens eines Objekts.
  • Die Kommunikationseinheit ist vorzugsweise eingerichtet, die Daten mittels eines Bluetooth-Kommunikationsprotokolls, vorzugweise mittels des Bluetooth Low Energy, BLE, Kommunikationsprotokolls zu übertragen. Dadurch werden die Energiereserven optimal eingesetzt. Grundsätzlich sind jedoch auch andere Kommunikationsprototolle verwendbar, z.B. WLAN.
  • Eine bevorzugte Ausführungsform einer Steuereinrichtung zur dynamischen Strukturanalyse eines Objekts ist eingerichtet, drahtlos mit einem Schwingungssensor der vorstehend beschriebenen Art zu kommunizieren.
  • Die Steuereinrichtung ist weiter eingerichtet, eine Position und eine Orientierung des Schwingungssensors in einem 3D-Weltkoordinatensystem zu bestimmen auf Basis eines mittels einer Videokamera erfassten Videobildes und auf Basis eines Abbildes des Schwingungssensors in dem Videobild unter Verwendung extrinsischer Kameraparameter und intrinsischer Kameraparameter einer die Videokamera umfassenden Erfassungseinrichtung. Diese Bestimmung kann eine automatische markerbasierte Bilderkennung umfassen. Alternativ oder zusätzlich kann die Bestimmung ein Empfangen einer Nutzereingabe umfassen, z.B. betreffend eine Position oder Orientierung eines Abbildes eines Schwingungssensors in dem Videobild.
  • Schließlich ist die Steuereinrichtung eingerichtet, mittels eines Schwingungssensors erfasste Schwingungen in einem 2D-Pixelkoordinatensystem, z.B. auf einem Display einer Anzeigeeinrichtung, auf Basis einer Transformation der 3D-Koordinaten des Schwingungssensors in dem 3D-Weltkoordinatensystem in das 2D-Pixelkoordinatensystem in zumindest einer der vorstehend beschriebenen Weisen zu visualisieren.
  • Eine bevorzugte Ausführungsform eines Systems zur dynamischen Strukturanalyse eines Objekts umfasst eine Mehrzahl von vorstehend beschriebenen Schwingungssensoren, welche eingerichtet sind, an dem Objekt angeordnet zu werden. Weiter umfasst das System eine Erfassungseinrichtung, umfassend eine Videokamera zum Erfassen eines Videobildes und eine 3D-Abtasteinrichtung zum Erfassen einer das Objekt definierenden 3D-Punktwolke, wobei die Erfassungseinrichtung eingerichtet ist, das Videobild und die 3D-Punktwolke an eine vorstehend beschriebene Steuereinrichtung zu übertragen. Schließlich umfasst das System die vorstehend beschriebene Steuereinrichtung.
  • Die Erfassungseinrichtung und die Steuereinrichtung sind vorzugsweise in einem gemeinsamen Gerät ausgebildet, z.B. ein Tablet-Computer.
  • Ein Computerprogrammprodukt umfassend gemäß einer Ausführungsform ein computerlesbares Speichermedium, auf welchem ein Computerprogramm gespeichert ist, welches eingerichtet ist, wenn es auf einem oder mehreren Prozessoren eines vorstehend beschriebenen Systems ausgeführt wird, ein vorstehend beschriebenes Verfahren auszuführen.
  • Die Erfindung bietet zahlreiche Vorteile: Das Schwingungsverhalten des Objekts kann, wie bereits erwähnt, in Echtzeit und auch bei sich bewegendem Objekt und/oder sich bewegender Erfassungseinrichtung, in Form einer „Augmented Reality“-Visualisierung, d.h. bei gleichzeitiger Darstellung des Objekts, direkt am Objekt dargestellt werden.
  • Dadurch, dass das Objekt räumlich abgetastet wird, kann eine mühevolle manuelle Erstellung eines abstrakten 3D-Modells entfallen. Aus den 3D-Abtastdaten kann, falls erforderlich, in einfacher Weise automatisch ein hinreichendes 3D-Modell erstellt werden.
  • Vorzugsweise umfassen die Schwingungssensoren jeweils eine inertiale Messeinheit, IMU, mittels welcher eine Bewegung der Schwingungssensoren im Falle einer Bewegung des Objekts, bestimmt werden kann. Damit wird eine Visualisierung des Schwingungsverhaltens am sich bewegenden Objekt ermöglicht.
  • Die Zuordnung der Positionen und Orientierungen der Schwingungssensoren zu dem 3D-Weltkoordinatensystem kann, wie vorstehend bereits erläutert, ebenfalls nahezu vollständig automatisch erfolgen. Eine manuelle Zuordnung von Sensorposition und -ausrichtung zum 3D-Weltkoordinatensystem über die Auswahl auf dem Videobild bereitet wenig Aufwand und kann dann vollständig unterbleiben, wenn diese Zuordnung markerbasiert, mittels automatischer Bilderkennung durchgeführt wird.
  • Wenn sich die Erfassungseinrichtung bewegt, können die extrinsischen Kameraparameter der Erfassungseinrichtung entsprechend der Bewegung der Erfassungseinrichtung angepasst werden, entweder auf Basis einer IMU der Erfassungseinrichtung oder mittels photogrammetrischer Verfahren. Eine Koordinatentransformation zwischen dem 3D-Kamerakoordinatensytstem und dem 3D-Weltkoordinatensystem kann immer dann, wenn sich das Objekt und/oder die Erfassungseinrichtung bewegt, neu berechnet werden, wodurch es erstmals möglich wird, das Schwingungsverhalten des Objekts auch bei sich bewegendem Objekt und/oder bei Betrachtung des Objekts aus verschiedenen Blickwinkeln in Echtzeit zu visualisieren.
  • Dadurch, dass die Schwingungssensoren erfasste Daten drahtlos an die Steuereinrichtung übertragen, entfällt jede im Stand der Technik in der Regel erforderliche Verkabelung. Auf diese Weise wird nicht nur der Aufwand in der Vorbereitung der Messung erheblich verringert, sondern es wird auch eine Messung der Schwingung am sich bewegenden Objekt erst möglich gemacht, da eine Verkabelung eine ungestörte Bewegung des Objekts zumindest behinderte.
  • Aufgrund der Tatsache, dass die Datenrecorder der Schwingungssensoren die erfassten Daten zumindest vorverarbeiten und nur noch erforderliche Daten an die Steuereinrichtung übertragen, wird zum einen ein Kommunikationsnetzwerk entlastet, zum anderen verringert sich der Rechenaufwand in der Steuereinrichtung.
  • Zum Visualisieren von mittels der Schwingungssensoren erfassten Schwingungen in dem 2D-Pixelkoordinatensystem kann, wie erwähnt, eine 2D-Farbkarte verwendet werden, welche mit einem 3D-Modell des Objekts oder einem Videobild des Objekts überlagert werden kann. Dabei wird entsprechenden Punkten im 3D-Weltkoordinatensystem (vor der Transformation in das 2D-Pixelkoordinatensystem) jeweils eine die jeweilige Schwingung anzeigende Farbe zugeordnet, welche Schwingung (Auslenkung) von einem Schwingungssensor an der entsprechenden Position erfasst worden ist.
  • Dabei kann Punkten des 2D-Pixelkoordinatensystem, denen mittels der beschriebenen Koordinatentransformationen nicht unmittelbar eine Position eines Schwingungssensors zugeordnet wird, mittels Interpolation eine Farbe zugeordnet werden. Eine solche Interpolation kann beispielsweise auf Basis von Farben solcher Punkte bestimmt werden, denen mittels der Koordinatentransformationen jeweils eine Position eines Schwingungssensors zugeordnet worden ist.
  • Figurenliste
  • Die Erfindung wird nachfolgend anhand eines Ausführungsbeispiels und dazugehöriger Zeichnungen beispielhaft näher erläutert. Die Figuren zeigen:
    • 1 eine bevorzugte Ausführungsform eines Schwingungssensors;
    • 2 eine bevorzugte Ausführungsform eines erfindungsgemäßem Systems während einer dynamischen Strukturanalyse an einem zu untersuchenden Objekt;
    • 3 schematisch das Ergebnis eines „Augmented Reality“-Visualisierungsverfahrens gemäß einer Ausführungsform der Erfindung;
    • 4 schematisch Schritte eines solchen Verfahrens, und
    • 5 schematisch dabei verwendete Koordinatensysteme.
  • Detaillierte Beschreibung der Erfindung
  • 1 zeigt schematisch eine bevorzugte Ausführungsform eines Schwingungssensors 10 in Form eines miniaturisierten energiesparenden Bluetooth-Smart Schwingungssensors 10 mit einem optionalen analogen (nicht gezeigt) und einem digitalen Beschleunigungsaufnehmer 121, mit einer IMU-Einheit 12 zur Bestimmung der Position und der Ausrichtung des Sensors 10 und weiteren Sensoren 15, 16 zur Bestimmung von Umgebungseinflüssen.
  • Dieser miniaturisierte, kabellose und energieeffiziente Schwingungssensor 10 ermöglicht ein komplett dezentralisiertes kabelloses Messsystem. Der Schwingungssensor 10 beinhaltet einen triaxialen analogen und digitalen Beschleunigungssensor 121. Der Schwingungssensor 10 hat folgende Sensoren integriert: Temperatursensor 15 (optional), Feuchtigkeitssensor 16 (optional), einen digitalen, als Bestandteil der IMU 12, und optional zusätzlich einen analogen 3D-Beschleunigungsaufnehmer, ein 3D-Gyroskop 122, als Teil der IMU, und ein 3D-Magnetometer 123, ebenfalls als Teil der IMU. Von den Sensoren 15, 16, 12 erfasste Messwerte können in einem Datenrecorder 18 vorverarbeitet und als Messdaten gespeichert werden. Die Übermittlung der Messdaten erfolgt mittels einer Kommunikationseinheit 17, vorzugweise über Bluetooth Low Energy (BLE). Der Schwingungssensor 10 wird über einen Akku 14 betrieben.
  • Zur Bestimmung der Position und Ausrichtung des Schwingungssensors wurde Sensorik 121, 122, 123 zur Umsetzung einer inertialen Messeinheit, IMU, 12 in den Schwingungssensor 10 integriert. Durch die Miniaturisierung des Schwingungssensor 10 ist erstmals eine Integration des Datenrecorders 18 (inklusive zusätzlichem Beschleunigungsaufnehmer) direkt am Messobjekt möglich. Somit ist eine vollständige Messung komplett ohne den Einsatz von Kabeln möglich. Durch das immer noch geringe Gewicht eines solchen Schwingungssensors 10 (ca. 20 - 50 Gramm, abhängig vom Gewicht des eingesetzten analogen Beschleunigungsaufnehmers) sind praktisch keine Beeinträchtigungen der Schwingungseigenschaften von realen Objekten zu befürchten, auch wenn viele Schwingungssensoren 10 eingesetzt werden. Zur Untersuchung einer Fahrzeugkarosserie können beispielsweise problemlos 16 Sensoren der beschriebenen Art eingesetzt werden.
  • Der Schwingungssensor 10 ist eingerichtet, Messdaten praktisch kontinuierlich, mit einer Frequenz zumindest 48 kHz, an eine nachfolgend beschriebene Steuereinrichtung zu übermitteln. Durch Sensordatenfusion mit neun Freiheitsgraden, durch das verbaute 3D-Gyroskop 122, den 3D-Beschleunigungsaufnehmer 121 und das 3D-Magnetometer 123, wird die Bewegungsveränderung zu einem vorher definierten Referenzzustand bestimmt. Für die Erfassung der translatorischen Bewegung in x- bzw. y- bzw. z-Achse wird der 3D-Beschleunigungsaufnehmer benötigt, der drei lineare Beschleunigungswerte misst. Aus den Beschleunigungsmesswerten wird nach Kompensation der Erdbeschleunigung, durch Integration der Beschleunigung die dazugehörige Geschwindigkeit und nach nochmaliger Integration die Position im Raum bezogen zu einem vorgegebenen Referenzpunkt berechnet. Zur Erfassung der rotierenden Bewegungen in x- bzw. y- bzw. z-Achse wird das 3D-Gyroskop 122 genutzt, der drei Winkelgeschwindigkeiten liefert. Die Integration der Winkelgeschwindigkeiten ergibt, bezogen zu einem Referenzpunkt, die Orientierung im Raum. Dadurch kann die vollständige Bewegung des Sensors im Raum sehr genau ermittelt werden. Zur Bestimmung der Integrationskonstanten, zum Korrigieren der Sensordrift der Beschleunigungs- und Drehratensensoren und zur Verbesserung der Genauigkeit wird im gezeigten Beispiel ein zusätzlicher 3D-Magnetfeldsensor (Magnetometer) 123 verwendet. Zur Bestimmung der Position und Orientierung der IMU 12 im Raum kann ein Kalman-basierter Filter verwendet werden.
  • Da die IMU-Sensoren 121, 122, 123 ausschließlich relative Bewegungen, von einem Referenzzustand ausgehend, erfassen, werden alle Sensorbewegungen von einem geometrisch bekannten Referenzort aus betrachtet. Dieser Referenzort kann frei gewählt werden.
  • In 2 ist schematisch eine bevorzugte Ausführungsform eines erfindungsgemäßen Systems 70 während einer dynamischen Strukturanalyse an einem zu untersuchenden Objekt (Fahrzeugkarosserie) gezeigt. Das System 70 umfasst eine Mehrzahl vorstehend beschriebener Schwingungssensoren 10, eine Erfassungseinrichtung 30 sowie eine Steuereinrichtung 40.
  • Die Erfassungseinrichtung 30 kann z.B. als 3D-Tiefenkamera ausgebildet sein, und ist eingerichtet, das Objekt zum Erstellen einer das Objekt zumindest partiell definierenden 3D-Punktwolke abzutasten, Videobilder der Schwingungssensoren 10 und des Objekts 20 zu erfassen, und entsprechende 3D-Abtastungsdaten und Videobilder an die Steuereinrichtung 40 drahtlos oder kabelgebunden zu übertragen. Es ist auch möglich, dass Erfassungsrichtung 30 und Steuereinrichtung 40 in einem gemeinsamen Gerät ausgebildet sind, z.B. in einem Tablet-Computer.
  • Die Steuereinrichtung 40 umfasst einen Prozessor 44 und eine Kommunikationseinheit 42 zur drahtlosen Datenkommunikation mit den Schwingungssensoren 10 sowie vorzugsweise eine Anzeigeeinrichtung 46, wie z.B. ein Display. Die Anzeigeeinrichtung 46 kann aber auch separat ausgebildet sein. Die Funktionsweise der einzelnen Komponenten wird nachfolgend mit Bezug zu den 3 und 4 näher erläutert.
  • 3 zeigt schematisch das Ergebnis eines Verfahrens mit den in 4 angedeuteten Schritten, nämlich eine „Augmented Reality“-Visualisierung des Schwingungsverhaltens eines Objekts 20, im gezeigten Beispiel einer Fahrzeugkarosserie, direkt am Objekt 20, als Überlagerung einer Videoaufnahme des Objekts 20, und in Echtzeit.
  • Die Visualisierung erfolgt dadurch, dass ein Videobild des Objekts 20 in vorgegebenen Bereichen von einer 2D-Farbkarte überlagert wird. Eine Farbe F1, F2, F3, F4 der Farbkarte gibt dabei in vorgegebener Weise ein Schwingungsverhalten (Auslenkung) des Objekts wider, welches seitens eines in dem entsprechenden Bereich angeordneten Schwingungssensors 10 (vgl. 2) gemessen worden ist.
  • Wie in 3 angedeutet, kann auch solchen Bildeinheiten des Videobildes eine Farbe zugeordnet werden, die nicht unmittelbar mit der Position eines Schwingungssensors 10 übereinstimmen (vgl. dazu 2), mittels verschiedener Interpolationsverfahren.
  • In 3 ist eine Variante eines solchen Interpolationsverfahrens (stark vereinfacht) dargestellt, bei welchem ein Abbild einer Oberfläche des Objekts 20 in 2D-Pixelkoordinatensystem in Abschnitte unterteilt ist, die jeweils eine unmittelbare Umgebung eines an dem Objekt 20 angeordneten Schwingungssensors 10 ausmachen. Sämtliche Pixel innerhalb eines solchen Abschnitts erhalten dann in der Visualisierung diejenige ein Schwingungsverhalten signalisierende Farbe, die der Farbe entspricht, die dem durch den Sensor des Abschnitts ermittelten Schwingungsverhalten entspricht. Alternativ oder zusätzlich (nicht gezeigt) können kontinuierliche Farbübergänge in der Farbkarte dadurch ermöglich werden, dass für Bildeinheiten zwischen zwei Sensoren (gewichtete) Mittelwerte von an den Sensorpositionen bestimmten Farben berechnet und visualisiert werden. Dies kann beispielsweise auf Basis einer linearen Interpolation erfolgen.
  • Wie in 4 angedeutet, wird in Schritt S1 eine Mehrzahl von Schwingungssensor 10 bereitgestellt, indem diese an dem Objekt 20 angeordnet werden.
  • Zur Bestimmung der Position und Ausrichtung der Schwingungssensoren 10 werden diese in Schritt S2 mittels einer Videokamera 32 einer Erfassungseinrichtung 30 in einem Videobild erfasst. Auf diese Weise wird ein Zusammenhang zwischen dem 3D-Weltkoordinatensystem 120 und dem 3D-Kamerakoordinatensystem 130 hergestellt (vgl. 5).
  • Das zu untersuchende Objekt 20 „befindet sich“ im 3D-Weltkoordinatensystem 120, die Position und Orientierung der Erfassungseinrichtung 30 ist durch das 3D-Kamerakoordinatensystem 130 vorgegeben. Um einen Zusammenhang zwischen den beiden 3D-Koordinatensystemen 120, 130 und einem 2D-Pixelkoordinatensystem 146, welches eine 2D-Anzeige einer zu erzeugenden Visualisierung des Schwingungsverhaltens des Objekts 20 definiert, werden zum einen die intrinsischen Kameraparameter IKP aus der Erfassungseinrichtung 30 ausgelesen oder mittels Kamerakalibrierung bestimmt und zum anderen die extrinsischen Kameraparameter EKP mittels Kamerakalibrierung bestimmt. Die extrinsischen Kameraparameter EKP definieren eine Transformation zwischen dem 3D-Weltkoordinatensystem 120 und dem 3D-Kamerakoordinatensystem 130, während die intrinsischen Kameraparameter IKP einen Zusammenhang zwischen dem 3D-Kamerakoordinatensystem 130 und dem 2D-Pixelkoordinatensystem 146 definieren. Eine Projektionsmatrix PM kann aus einer Verkettung der extrinsischen Kameraparameter EKP mit dem intrinsischen Kameraparametern IKP berechnet werden und bestimmt dann eine Transformation zwischen dem 3D-Weltkoordinatensystem 120 und dem 2D-Pixelkoordinatensystem 146.
  • In Schritt S3 wird für jeden Schwingungssensor 10 eine Position und eine Orientierung in dem 3D-Weltkkordinatensystem 120 bestimmt. Dies kann manuell, durch eine Nutzereingabe auf einer Anzeigeeinrichtung 46 erfolgen, wobei ein Abbild des entsprechenden Schwingungssensors 10 in dem Videobild „angeklickt“ wird, und Angaben zur Orientierung eingegeben werden. Alternativ kann dieser Vorgang auch automatisch erfolgen, indem mittels Bilderkennung auf dem Schwingungssensor 10 angebrachte Marker oder dergleichen erfasst und verarbeitet werden. Dabei kann ein Schwingungssensor 10 eindeutig identifiziert und seine Orientierung festgestellt werden. Damit ist die erste Phase des Verfahrens abgeschlossen.
  • In einer zweiten Phase erfolgt dann in den Schritten S4 bis S8 eine Visualisierung mittels der durch die Schwingungssensoren erfassten Werte in dem 2D-Pixelkoordinatensystem 146, d.h. z.B. auf einem Display 46 eines Tablet-Computers (vgl. 3) auf Basis einer Transformation der 3D-Koordinaten der Schwingungssensoren 10 aus dem 3D-Weltkoordinatensystem 120 in das 2D-Pixelkoordintatensystem.
  • In Schritt S4.1 wird eine das zu untersuchende Objekt 20 definierenden 3D-Punktwolke mittels einer 3D-Abtastung des Objekts 20 durch die Erfassungseinrichtung 30 erfasst, wobei jedem Punkt der 3D-Punktwolke eine 3D-Koordinate im 3D-Weltkoordinatensystem 120 zugeordnet wird.
  • Simultan dazu, d.h. im gleichen Arbeitsgang und unter Verwendung der Videokamera 32 der Erfassungseinrichtung 30 wird in Schritt S4.2 ein Videobild des zu untersuchenden Objekts erfasst. Wichtig dabei ist, dass dem Videobild und der 3D-Punktewolke das gleiche 3D-Kamerakoordinatensystem zugrunde liegt, welches eindeutig korreliert sein muss mit dem 3D-Kamerakoordinatensystem, welches in der ersten Phase, in Schritt S2, das optische Erfassen der Schwingungssensoren 10 definiert hat.
  • In Schritt S4.3 wird dann ein Wert, der eine mittels eines Schwingungssensors 10 erfasste Schwingung angibt, einem Punkt der 3D-Punktwolke zugeordnet, welcher Punkt der Position des Schwingungssensors 10 entspricht. Auf dieser Weise kann eine 3D-Darstellung des Schwingungsverhaltens des Objekts 20 im 3D-Weltkoordinatensystem 120 erzeugt werden, quasi eine 3D-Farbkarte des Schwingungsverhaltens.
  • In Schritt S4.4 wird diese 3D-Darstellung im 3D-Weltkoordinatensystem 120 in eine 2D-Darstellung des Schwingungsverhaltens des Objekts 20 im 2D-Pixelkoordinatensystem 146 transformiert, um eine 2-dimensionale Darstellung des Schwingungsverhaltens zu erhalten, z.B. in Form einer 2D-Farbkarte.
  • Diese 2D-Farbkarte wird dann in Schritt S4.5 dem Videobild des Objekts überlagert, wie dies schematisch in 3 angedeutet ist. Auf diese Weise kann eine Augmented Reality Ansicht des Schwingungsverhaltens des Objekts erhalten werden.
  • Dabei kann das Objekt aus verschiedenen Perspektiven betrachtet werden. Wenn sich die Erfassungseinrichtung 30 bewegt, was in Schritt S7 geprüft wird, so werden in Schritt S8 die extrinsischen Kameraparameter EKP entsprechend der Bewegung neu berechnet. Die Bewegung der Erfassungseinrichtung kann basierend auf einer Erfassung der Bewegung mittels einer IMU der Erfassungseinrichtung 30 oder basierend auf photogrammetrischen Verfahren erfolgen. Die Visualisierung kann dann in Echtzeit aktualisiert werden, wie dies mit dem Rücksprung zu Schritt S4 angedeutet ist.
  • Alternativ oder zusätzlich ist es möglich, dass sich das zu untersuchende Objekt 20 während der Visualisierung bewegt. Wird eine solche Bewegung erkannt (vgl. Schritt S5, z.B. basierend auf einer Erfassung der Bewegung der Schwingungssensoren 10 an dem Objekt mittels der IMUs 12 der Schwingungssensoren 10), so werden die 3D-Koordinaten der an dem Objekt 20 angeordneten Schwingungssensoren 10 im 3D-Weltkoordinatensystem entsprechend der Bewegung in Schritt S6 angepasst. Auch in diesem Fall kann die Visualisierung dann in Echtzeit aktualisiert werden, wie dies mit dem Rücksprung zu Schritt S4 angedeutet ist.
  • Durch diese vorliegende Erfindung ist es erstmals möglich, die direkte Schwingungssensorantwort auf dem realen Objekt anzuzeigen, und dies in Echtzeit. Somit sind Präsentationen oder Validierungen von Messungen direkt am Messort ohne vorherige Kenntnisse über das geometrische Modell in kurzer Zeit möglich, ohne einen bislang notwendigen immensen Aufwand allein für die Vorbereitung einer Messung. Zudem muss der Anwender keine zusätzlichen Softwareparameter mehr einstellen, sodass der manuelle Aufwand für den Anwender ausschließlich im Positionieren und Befestigen der Schwingungssensoren 10 liegt und er danach automatisiert die „Augmented Reality“ Anwendung nutzen kann.

Claims (13)

  1. Verfahren zur dynamischen Strukturanalyse, umfassend die Schritte: - Bereitstellen (S1) einer Mehrzahl von Schwingungssensoren (10); - optisches Erfassen (S2) der Schwingungssensoren (10) mittels einer eine Videokamera (32) umfassenden Erfassungseinrichtung (30) in einem Videobild; - für jeden der Schwingungssensoren (10): Bestimmen (S3) einer Position und einer Orientierung des Schwingungssensors (10) in einem 3D-Weltkoordinatensystem (120) auf Basis eines Abbildes des Schwingungssensors (10) in dem Videobild unter Verwendung extrinsischer Kameraparameter (EKP) und intrinsischer Kameraparameter (IKP) der Erfassungseinrichtung (30), - Visualisieren (S4) mittels der Schwingungssensoren (10) erfasster Schwingungen in einem 2D-Pixelkoordinatensystem (146) auf Basis einer Transformation der 3D-Koordinaten der Schwingungssensoren (10) in dem 3D-Weltkoordinatensystem (120) in das 2D-Pixelkoordinatensystem (146).
  2. Verfahren nach Anspruch 1, wobei ein Schwingungssensor (10) bereitgestellt wird, indem dieser an dem zu untersuchenden Objekt (20) angeordnet wird.
  3. Verfahren nach Anspruch 1, wobei ein Schwingungssensor (10) an einem beliebig wählbaren Ausgangspunkt angeordnet wird und nach dem Bestimmen der Position und der Orientierung in dem 3D-Weltkoordinatensystem (120) an dem zu untersuchenden Objekt (20) angeordnet wird, wobei eine dabei erfolgende Änderung von Position und Orientierung des Schwingungssensors (10) im 3D-Weltkoordinatensystem (120) mittels einer inertialen Messeinheit, IMU, (12) des Schwingungssensors (10) erfasst und entsprechend angepasst wird.
  4. Verfahren nach einem der Ansprüche 1 bis 3, wobei das Bestimmen der Position eines Schwingungssensors (10) in dem 3D-Weltkoordinatensystem (120) erfolgt, indem die Position eines Abbildes des Schwingungssensors (10) im Videobild manuell erfasst wird, und/oder wobei das Bestimmen der Orientierung eines Schwingungssensors (10) in dem 3D-Weltkoordinatensystem (120) erfolgt, indem die Orientierung eines Abbildes des Schwingungssensors (10) im Videobild manuell erfasst wird.
  5. Verfahren nach einem der Ansprüche 1 bis 3, wobei das Bestimmen der Position eines Schwingungssensors (10) in dem 3D-Weltkoordinatensystem (120) auf Basis einer markerbasierten Bilderkennung erfolgt, und/oder wobei das Bestimmen der Orientierung eines Schwingungssensors (10) in dem 3D-Weltkoordinatensystem (120) auf Basis einer markerbasierten Bilderkennung erfolgt.
  6. Verfahren nach einem der Ansprüche 2 oder 3, wobei der Schritt des Visualisierens (S4) folgende Teilschritte umfasst: - Erfassen (S4.1) einer das zu untersuchende Objekt (20) definierenden 3D-Punktwolke mittels einer 3D-Abtastung des Objekts (20) durch die Erfassungseinrichtung (30), wobei jedem Punkt der 3D-Punktwolke eine 3D-Koordinate im 3D-Weltkoordinatensystem (120) zugeordnet wird; - Zuordnen (S4.3) eines Wertes, der eine mittels eines Schwingungssensors (10) erfasste Schwingung angibt, zu einem Punkt der 3D-Punktwolke, welcher der Position des Schwingungssensors (10) entspricht, zum Erstellen einer 3D-Darstellung des Schwingungsverhaltens des Objekts (20) im 3D-Weltkoordinatensystem (120); und - Transformation (S4.4) der 3D-Darstellung im 3D-Weltkoordinatensystem (120) in eine 2D-Darstellung des Schwingungsverhaltens des Objekts (20) im 2D-Pixelkoordinatensystem (146).
  7. Verfahren nach Anspruch 6, umfassend die weiteren Schritte: - Erfassen (S4.2) eines Videobildes des zu untersuchenden Objekts (20) mittels der Videokamera (32) der Erfassungseinrichtung (30), und - Überlagern (S4.5) des Videobildes mit der 2D-Darstellung des Schwingungsverhaltens des Objekts (20) zum Erhalten einer Augmented Reality Ansicht.
  8. Verfahren nach Anspruch 6, umfassend die weiteren Schritte: - Erstellen eines 3D-Modells des Objekts (20) auf Basis der 3D-Abtastung des Objekts (20); und - Zuordnen des Wertes, der eine mittels eines Schwingungssensors (10) erfasste Schwingung angibt, zu einem Punkt des 3D-Modells.
  9. Verfahren nach einem der Ansprüche 1 bis 8, wobei, wenn sich die Erfassungseinrichtung (30) bewegt (S7), die extrinsischen Kameraparameter (EKP) entsprechend der Bewegung angepasst werden (S8), basierend auf einer Erfassung der Bewegung mittels einer IMU der Erfassungseinrichtung (30) oder basierend auf photogrammetrischen Verfahren.
  10. Verfahren nach einem der Ansprüche 1 bis 9, wobei, wenn sich das zu untersuchende Objekt (20) bewegt (S5), die 3D-Koordinaten eines an dem Objekt (20) angeordneten Schwingungssensors (10) im 3D-Weltkoordinatensystem (120) entsprechend der Bewegung angepasst werden (S6), basierend auf einer Erfassung der Bewegung mittels einer IMU (12) des Schwingungssensors (10).
  11. Steuereinrichtung (40) zur dynamischen Strukturanalyse eines Objekts (20), wobei die Steuereinrichtung (40) eingerichtet ist, - drahtlos mit einem Schwingungssensor (10) zu kommunizieren, wobei der Schwingungssensor umfasst: - einen Beschleunigungsaufnehmer (121); - eine inertiale Messeinheit, IMU, (12; 121, 122, 123); - einen Datenrecorder (18); - ein Energiespeicherelement (14), und - eine Kommunikationseinheit (17) zum drahtlosen Übertragen von in dem Datenrecorder (18) gespeicherten Daten an eine Steuereinrichtung (40), wobei die Kommunikationseinheit (17) eingerichtet ist, Daten mit einer Frequenz von zumindest 48 kHz an die Steuereinrichtung (40) zu übertragen; und wobei die Steuereinrichtung (40) weiter eingerichtet ist, - eine Position und eine Orientierung des Schwingungssensors (10) in einem 3D-Weltkoordinatensystem (120) zu bestimmen auf Basis eines mittels einer Videokamera (32) erfassten Videobildes und auf Basis eines Abbildes des Schwingungssensors (10) in dem Videobild unter Verwendung extrinsischer Kameraparameter (EKP) und intrinsischer Kameraparameter (IKP) einer die Videokamera umfassenden Erfassungseinrichtung (30), und - mittels des Schwingungssensors (10) erfasste Schwingungen in einem 2D-Pixelkoordinatensystem (146) auf Basis einer Transformation der 3D-Koordinaten des Schwingungssensors (10) in dem 3D-Weltkoordinatensystem (120) in das 2D-Pixelkoordinatensystem (146) zu visualisieren.
  12. System (70) zur dynamischen Strukturanalyse eines Objekts (20), umfassend: - eine Mehrzahl von Schwingungssensoren (10), welche eingerichtet sind, an dem Objekt (20) angeordnet zu werden, wobei jeder der Schwingungssensoren jeweils umfasst: - einen Beschleunigungsaufnehmer (121); - eine inertiale Messeinheit, IMU, (12; 121, 122, 123); - einen Datenrecorder (18); - ein Energiespeicherelement (14), und - eine Kommunikationseinheit (17) zum drahtlosen Übertragen von in dem Datenrecorder (18) gespeicherten Daten an eine Steuereinrichtung (40), wobei die Kommunikationseinheit (17) eingerichtet ist, Daten mit einer Frequenz von zumindest 48 kHz an die Steuereinrichtung (40) zu übertragen; wobei das System (70) weiter umfasst: - eine Erfassungseinrichtung (30), umfassend eine Videokamera (32) zum Erfassen eines Videobildes und eine 3D-Abtasteinrichtung (31) zum Erfassen einer das Objekt definierenden 3D-Punktwolke, wobei die Erfassungseinrichtung (30) eingerichtet ist, das Videobild und die 3D-Punktwolke an eine Steuereinrichtung (40) nach Anspruch 11 zu übertragen; sowie - eine Steuereinrichtung (40) nach Anspruch 11.
  13. Computerprogrammprodukt, umfassend ein computerlesbares Speichermedium, auf welchem ein Computerprogramm gespeichert ist, welches eingerichtet ist, wenn es auf einem oder mehreren Prozessoren (44) eines Systems (70) nach Anspruch 12 ausgeführt wird, ein Verfahren nach einem der Ansprüche 1 bis 10 auszuführen.
DE102018103333.8A 2018-02-14 2018-02-14 Verfahren und System zur dynamischen Strukturanalyse Expired - Fee Related DE102018103333B3 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018103333.8A DE102018103333B3 (de) 2018-02-14 2018-02-14 Verfahren und System zur dynamischen Strukturanalyse

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018103333.8A DE102018103333B3 (de) 2018-02-14 2018-02-14 Verfahren und System zur dynamischen Strukturanalyse

Publications (1)

Publication Number Publication Date
DE102018103333B3 true DE102018103333B3 (de) 2019-05-09

Family

ID=66178839

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018103333.8A Expired - Fee Related DE102018103333B3 (de) 2018-02-14 2018-02-14 Verfahren und System zur dynamischen Strukturanalyse

Country Status (1)

Country Link
DE (1) DE102018103333B3 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022201725A1 (de) 2022-02-18 2023-08-24 Siemens Aktiengesellschaft Verfahren zum Herstellen eines Vibrationserfassungssystems, Computerprogrammprodukt und Herstellungssystem

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7093492B2 (en) 2004-03-19 2006-08-22 Mechworks Systems Inc. Configurable vibration sensor
DE102007023826A1 (de) 2007-05-21 2008-11-27 Polytec Gmbh Verfahren und Vorrichtung zur berührungslosen Schwingungsmessung
US20110295427A1 (en) 2010-05-26 2011-12-01 Motzer William P Methods and systems for inspection sensor placement
DE102012014277A1 (de) 2011-08-16 2013-02-21 Prüftechnik Dieter Busch AG Vorrichtung und Verfahren zum Erfassen von Maschinenschwingungen
EP2887030A1 (de) 2013-12-20 2015-06-24 Fraunhofer Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Messung von Schwingungen eines bewegten Objektes
US20170220718A1 (en) 2016-02-01 2017-08-03 Massachusetts Institute Of Technology Motion Sensing Wi-Fi Sensor Networks for Continuous 3D Modeling and Prediction of Facility Responses to Disturbances

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7093492B2 (en) 2004-03-19 2006-08-22 Mechworks Systems Inc. Configurable vibration sensor
DE102007023826A1 (de) 2007-05-21 2008-11-27 Polytec Gmbh Verfahren und Vorrichtung zur berührungslosen Schwingungsmessung
US20110295427A1 (en) 2010-05-26 2011-12-01 Motzer William P Methods and systems for inspection sensor placement
DE102012014277A1 (de) 2011-08-16 2013-02-21 Prüftechnik Dieter Busch AG Vorrichtung und Verfahren zum Erfassen von Maschinenschwingungen
EP2887030A1 (de) 2013-12-20 2015-06-24 Fraunhofer Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Messung von Schwingungen eines bewegten Objektes
US20170220718A1 (en) 2016-02-01 2017-08-03 Massachusetts Institute Of Technology Motion Sensing Wi-Fi Sensor Networks for Continuous 3D Modeling and Prediction of Facility Responses to Disturbances

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022201725A1 (de) 2022-02-18 2023-08-24 Siemens Aktiengesellschaft Verfahren zum Herstellen eines Vibrationserfassungssystems, Computerprogrammprodukt und Herstellungssystem

Similar Documents

Publication Publication Date Title
EP2176833B1 (de) Verfahren und system zur ermittlung der position und orientierung einer kamera relativ zu einem realen objekt
EP1606581B1 (de) VERFAHREN UND VORRICHTUNG ZUR BILDVERARBEITUNG IN EINEM GEODÄTISCHEN MESSGER T
DE102009012590A1 (de) Vorrichtung zum Ermitteln der Stellung eines Roboterarms mit Kamera zur Durchführung von Aufnahmen
DE102018200154A1 (de) Kalibrationsvorrichtung, Kalibrationsverfahren und Programm für einen visuellen Sensor
DE112015004396T5 (de) Augmented-reality-kamera zur verwendung mit 3d-metrologie-ausrüstung zum erzeugen von 3d-bildern aus 2d-kamerabildern
DE60206320T2 (de) Vorrichtung und Verfahren zur perspektivischen Projektionbilderzeugung
DE19962997A1 (de) Verfahren zur Kalibrierung eines Sensorsystems
DE102009058802A1 (de) Anordnung zur kombinierten Darstellung eines realen und eines virtuellen Modells im Kontext eines realen Modells sowie ein Verfahren zur Simulation eines virtuellen Modells in Verbindung mit virtuell als auch real vorhandenen Werkzeugen im Kontext eines realen Modells
DE102005037841B4 (de) Verfahren und Anordnung zur Bestimmung der relativen Lage eines ersten Objektes bezüglich eines zweiten Objektes, sowie ein entsprechendes Computerprogramm und ein entsprechendes computerlesbares Speichermedium
EP1521211A2 (de) Verfahren und Vorrichtung zum Bestimmen von Position und Orientierung einer Bildempfangseinrichtung
EP2977961B1 (de) Verfahren und Kommunikationseinrichtung zum Erstellen und/oder Ändern virtueller Objekte
DE19937265A1 (de) Verfahren und Vorrichtung zur Positionierung eines Meßkopfes auf einer kontaktfreien dreidimensionalen Meßmaschine
DE112018007660T5 (de) Kalibriervorrichtung für eine abbildungsvorrichtung, überwachungsvorrichtung, arbeitsmaschine und kalibrierverfahren
EP4051982A1 (de) Verfahren und mobile erfassungsvorrichtung zur erfassung von infrastrukturelementen eines unterirdischen leitungsnetzwerks
DE102018010252A1 (de) Verfahren und System zur dynamischen Strukturanalyse
DE102004046584A1 (de) Verfahren und Vorrichtung zur berührungslosen optischen 3D-Lagebestimmung eines Objekts
DE102018103333B3 (de) Verfahren und System zur dynamischen Strukturanalyse
EP3539085B1 (de) 3d-referenzierung
DE102012112239A1 (de) System und Verfahren zum Identifizieren eines Bauteils
DE102017100885B4 (de) Verfahren und vorrichtung zum erzeugen und projizieren eines 3d-thermogramms samt daten zu den aufnahmebedingungen
DE102014104514B4 (de) Verfahren zur Messdatenvisualisierung und Vorrichtung zur Durchführung des Verfahrens
EP3385916A1 (de) Messgerät und korrespondierendes messverfahren
DE102015109612A1 (de) Koordinatenmessgerät und Verfahren zum Kalibrieren desselben mit einer Time-of-Flight-Kamera
EP3465076B1 (de) Vorrichtung zur vermessung von objekten
EP1291617A1 (de) Verfahren und Anordnung zum Bestimmen der Position und Ausrichtung einer Bildaufnahme-Einrichtung beim optischen Vermessen von Objekten

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R130 Divisional application to

Ref document number: 102018010252

Country of ref document: DE

R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee