DE102008026657A1 - Method for imaged representation of three dimensional acoustic objects as measuring object, involves bringing images in relation to acoustic reference image of measuring object immediately or at time point - Google Patents

Method for imaged representation of three dimensional acoustic objects as measuring object, involves bringing images in relation to acoustic reference image of measuring object immediately or at time point Download PDF

Info

Publication number
DE102008026657A1
DE102008026657A1 DE102008026657A DE102008026657A DE102008026657A1 DE 102008026657 A1 DE102008026657 A1 DE 102008026657A1 DE 102008026657 A DE102008026657 A DE 102008026657A DE 102008026657 A DE102008026657 A DE 102008026657A DE 102008026657 A1 DE102008026657 A1 DE 102008026657A1
Authority
DE
Germany
Prior art keywords
microphone array
array
acoustic
microphone
measurement object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102008026657A
Other languages
German (de)
Inventor
Sandro Dr. Ing. Guidati
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HEAD Acoustics GmbH
Original Assignee
HEAD Acoustics GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by HEAD Acoustics GmbH filed Critical HEAD Acoustics GmbH
Priority to DE102008026657A priority Critical patent/DE102008026657A1/en
Publication of DE102008026657A1 publication Critical patent/DE102008026657A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B42/00Obtaining records using waves other than optical waves; Visualisation of such records by using optical means
    • G03B42/06Obtaining records using waves other than optical waves; Visualisation of such records by using optical means using ultrasonic, sonic or infrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H3/00Measuring characteristics of vibrations by using a detector in a fluid
    • G01H3/10Amplitude; Power
    • G01H3/12Amplitude; Power by electric means
    • G01H3/125Amplitude; Power by electric means for representing acoustic field distribution

Abstract

The method involves assigning an optical camera array to a microphone array, where the microphone array consists of spiral arms (120) and microphones (121). Images are recorded by the camera array in temporally synchronized manner parallel to a data flow of microphone signals of the microphone array, where the images comprise spatial information of a measuring object. The images are brought in relation to an acoustic reference image of the measuring object immediately or at a time point, where the camera array has video cameras (140) continuously recording the information of the object. Independent claims are also included for the following: (1) a device for imaged representation of three dimensional acoustic objects (2) a computer program for performing a method for imaged representation of three dimensional acoustic objects as a measuring object (3) a computer program product with a program code for performing a method for imaged representation of three dimensional acoustic objects as a measuring object.

Description

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zu bildgebenden Darstellung von akustischen Objekten nach den Oberbegriffen der unabhängigen Ansprüche.The The invention relates to a method and a device for imaging Representation of acoustic objects according to the generic terms of independent claims.

Gegenstand der Erfindung sind auch ein Computerprogramm sowie ein Computerprogrammprodukt mit einem Programmcode, der auf einem maschinenlesbaren Träger gespeichert ist, zur Durchführung des Verfahrens.object The invention also includes a computer program and a computer program product with a program code stored on a machine-readable carrier is stored for carrying out the method.

Stand der TechnikState of the art

Aus der DE 103 04 215 A1 sind ein Verfahren und eine Vorrichtung zur bildgebenden Darstellung von akustischen Objekten sowie ein entsprechendes Computerprogramm-Erzeugnis und ein entsprechendes computerlesbares Speichermedium bekannt geworden, welches ein Mikrofonarray mit einer integrierten Videokamera umfasst. Dieses Verfahren und die Vorrichtung dient zur Erfassung und Darstellung akustischer Emissionen. Die auch als akustische Kamera bezeichnete Vorrichtung ermöglicht es, Aufnahmen von akustischen Objekten, das heißt Objekten, die Schall abgeben, zu tätigen, wobei hier eine akustische Karte und ein optisches Bild dadurch überlagert werden, dass Objektabstand und Kameraöffnungswinkel ein optisches Bildfeld definieren, auf welches die akustische Karte „gerechnet” wird. Berechnungsrelevante Parameter der Mikrofone und der Kamera eines Array werden in einem Parameterfile des Arrays unverwechselbar gespeichert. Dieses ermöglicht es auch nach Abschluss der Messung zu einem späteren Zeitpunkt Einzelheiten der akustischen Messung zu rekapitulieren.From the DE 103 04 215 A1 For example, a method and an apparatus for the imaging of acoustic objects as well as a corresponding computer program product and a corresponding computer-readable storage medium have become known which comprise a microphone array with an integrated video camera. This method and device is used to detect and display acoustic emissions. The device, also referred to as an acoustic camera, makes it possible to take pictures of acoustic objects, that is to say objects that emit sound, in which case an acoustic map and an optical image are superimposed by object distance and camera opening angle defining an optical image field onto which the acoustic card is "calculated". Calculation-relevant parameters of the microphones and the camera of an array are stored unmistakably in a parameter file of the array. This makes it possible to recapitulate details of the acoustic measurement even after completion of the measurement at a later time.

Mit Hilfe dieser Vorrichtung und dieses Verfahrens wird automatisch jede Messung dokumentiert, indem Datensätze der Kameraaufnahmen unlösbar mit den Datensätzen der Mikrofon-Zeitfunktion, mit Zeitsynchronsignalen, mit Szenen-Informationen und Parameterfiles von Mikrofonarray und Datenrecorder verschmolzen in einem Datenfile abgespeichert werden. Für jeden Punkt im akustischen Bild können so Zeitfunktion, Frequenzfunktion, Schalldruck, Koordinaten, Klang oder Korrelation mit einer bekannten Zeitfunktion mittels eines Computers abgerufen und verarbeitet werden. Die Verarbeitung kann auch zu einem späteren Zeitpunkt nach Abschluss der Messung erfolgen und ermöglicht so eine bequeme Aufbereitung der Daten. Dieses Verfahren und die Vorrichtung ermöglichen jedoch keine räumliche Zuordnung der Schallquellen zu dem mittels der Videokamera aufgenommenen Bild.With Help of this device and this method becomes automatic Each measurement is documented by records of camera shots unsolvable with the data sets of the microphone time function, with time synchronization signals, with scene information and parameter files from microphone array and data recorder merged into a data file be stored. For every point in the acoustic picture can thus time function, frequency function, sound pressure, Coordinates, sound or correlation with a known time function be retrieved and processed by means of a computer. The processing may also be available at a later date after completing the Measurement made possible and thus a convenient treatment the data. This method and the device allow however, no spatial assignment of the sound sources to the captured by the video camera image.

Der Erfindung liegt daher die Aufgabe zugrunde, ein Verfahren und eine Vorrichtung zur bildgebenden Darstellung von akustischen Objekten der gattungsgemäßen Art so weiterzubilden, dass auch räumliche Informationen des akustischen Objekts erfasst und verarbeitet werden können.Of the Invention is therefore the object of a method and a Device for the imaging of acoustic objects further develop the generic type so that also spatial information of the acoustic object detected and can be processed.

Offenbarung der ErfindungDisclosure of the invention

Vorteile der ErfindungAdvantages of the invention

Diese Aufgabe wird durch ein Verfahren und eine Vorrichtung mit den Merkmalen der unabhängigen Ansprüche 1 und 10 gelöst. Grundidee der Erfindung ist es, ein optisches Kameraarray einem Mikrofonarray zuzuordnen und simultan zum Datenstrom der Mikrofonsignale des Mikrofonarrays räumliche Informationen des Messobjekts aufweisende Bilder zeitlich synchronisiert mit Hilfe des Kameraarrays aufzuzeichnen und diese Bilder in Relation zu dem akustischen Bezugsbild des Messobjekts zu bringen. Durch ein Kameraarray können räumliche Informationen des Messobjekts erfasst werden. Hierdurch ist eine präzise dreidimensionale Schallquellenlokalisierung dadurch möglich, dass der Abstand der potentiellen Schallquellen zum Mikrofon bestimmt werden kann, ohne diesen Abstand von Hand vermessen zu müssen.These The object is achieved by a method and a device having the features the independent claims 1 and 10 solved. The basic idea of the invention is to provide an optical camera array Assign microphone array and simultaneously to the data stream of the microphone signals of the microphone array spatial information of the DUT to record images in temporal synchronization using the camera array and these images in relation to the reference acoustic image of the measurement object bring to. Through a camera array, spatial Information of the DUT are recorded. This is a precise three-dimensional sound source localization by possible that the distance of the potential sound sources to the microphone can be determined without this distance by hand to have to measure.

Das Kameraarray umfasst mehrere versetzt angeordnete Kameras die auf weiter unten noch näher zu beschreibende Weise eine räumliche Quellkartierung ermöglichen.The Camera array includes several offset cameras on the to be described in more detail below a spatial source mapping enable.

Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind jeweils vorteilhafte Ausgestaltungen und Weiterbildungen des in dem unabhängigen Anspruch 1 angegebenen Verfahrens und der in dem unabhängigen Anspruch 10 angegebenen Vorrichtung möglich.By those listed in the dependent claims Measures are each advantageous embodiments and Developments specified in the independent claim 1 Method and that specified in the independent claim 10 Device possible.

So sieht eine vorteilhafte Ausgestaltung vor, dass das Kameraarray wenigstens zwei, vorzugsweise drei Videokameras umfasst, die zeitlich synchronisiert kontinuierlich räumliche Informationen des Messobjekts während der akustischen Aufnahme über das Mikrofonarray aufzeichnen. Diese Videokameras liefern jeweils drei Kamerabildern, deren Verschieben, Überlagern und Bestimmung der resultierenden Übereinstimmung von mehreren, vorzugsweise drei Kamerabildern eine Berechnung des variablen Abstands zwischen der Kamera und damit dem Mikrofonarray und jedem beliebigen Bildpunkt ermöglicht. Hierdurch kann eine räumlich gestaffelte Quellanordnung in einer Quellkartierung dargestellt werden.So provides an advantageous embodiment that the camera array includes at least two, preferably three video cameras, the time continuously synchronizes spatial information of the DUT during the acoustic recording via the microphone array record. These video cameras each provide three camera images, their shifting, overlaying and determination of the resulting match of several, preferably three camera images, a calculation of variable distance between the camera and thus the microphone array and any pixel allows. This can a spatially staggered source arrangement in a source mapping being represented.

Eine Abstandsbestimmung ist auch mit Hilfe der Epipolargeometrie möglich.A Distance determination is also possible with the aid of epipolar geometry.

Bevorzugt sind die optischen Achsen der Videokameras parallel zueinander angeordnet, wobei allerdings hervorzuheben ist, dass auch eine nicht parallele Anordnung rein prinzipiell denkbar ist.Preferably, the optical axes of the video cameras are arranged parallel to each other, although it should be emphasized that a not parallel arrangement is purely conceivable in principle.

Der Datenstrom der Mikrofonsignale des Mikrofonarrays und der Datenstrom des optischen Kameraarrays werden vorteilhafterweise zur Erstellung einer akustischen dreidimensionalen Abbildung des Messobjekts aufeinander bezogen.Of the Data stream of the microphone signals of the microphone array and the data stream of the optical camera array are advantageously used to create a acoustic three-dimensional image of the measurement object to each other based.

Die Abstandsbestimmung kann dabei Punkt für Punkt in Bezug auf die Oberfläche des Messobjekts erfolgen. Hierdurch kann die erwähnte räumlich gestaffelte Quellanordnung in einer Quellkartierung dargestellt werden. Durch Variation des räumlichen Abstands zwischen Messobjekt und Mikrofonarray und einer darauf bezogenen Scanebene des Mikrofonarrays kann eine akustische Oberfläche des Messobjekts bestimmt und in einer Anzeigeeinheit dargestellt werden. Akustische Oberfläche bedeutet hierbei beispielsweise die Darstellung des Schallpegels auf der Oberfläche des Messobjekts und damit die räumliche Darstellung von Bereichen, welche beispielsweise eine sehr intensive Schallabstrahlung aufweisen. Diese Darstellung ist die akustische dreidimensionale Abbildung.The Distance determination can be done point by point take place on the surface of the test object. hereby can the mentioned spatially staggered source arrangement be presented in a source mapping. By variation of the spatial distance between object to be measured and microphone array and a related scan plane of the microphone array can be an acoustic Surface of the DUT and determined in a display unit being represented. Acoustic surface means here for example, the representation of the sound level on the surface of the measurement object and thus the spatial representation of Areas which have, for example, a very intense sound radiation. This illustration is the acoustic three-dimensional image.

Eine sehr vorteilhafte Ausgestaltung des Verfahrens ermöglicht eine Kohärenz- bzw. Inkohärenzanalyse. Hierzu werden in Echtzeit mittels Kohärenz- oder Inkohärenzfilterung des Datenstroms die Mikrofonsignale des Mikrofonarrays zur Verstärkung bzw. zur Dämpfung von Schallquellen verwendet.A very advantageous embodiment of the method allows a coherence or incoherence analysis. For this be done in real time by means of coherence or incoherence filtering the data stream, the microphone signals of the microphone array for amplification or used for damping sound sources.

Die Kohärenz- oder Inkohärenzfilterung erfolgt auf der Basis der in den Frequenzraum, vorzugsweise mittels Fourier-Transformation, transformierten zeitlichen Mikrofonsignale.The Coherence or incoherence filtering occurs the base of the frequency domain, preferably by means of Fourier transformation, transformed temporal microphone signals.

Die erfindungsgemäße Vorrichtung zeichnet sich dadurch aus, dass das Kameraarray dem Mikrofonarray zugeordnet ist. Insbesondere ist das Kamera array im Zentrum des Mikrofonarrays angeordnet. Das Mikrofonarray kann dabei eine beliebige Ausgestaltung aufweisen. So können die Mikrofone beispielsweise in einem linearen Array angeordnet sein, wobei sich das Kameraarray dann im Zentrum dieser linearen Anordnung befindet. Denkbar ist auch eine stochastische Anordnung der Mikrofone, wobei hier das Kameraarray im Wesentlichen so angeordnet ist, dass es in jede Richtung von einer möglichst gleichen Anzahl von Mikrofonen umgeben wird. Auch eine Anordnung von Mikrofonen auf konzentrischen Ringen ist denkbar.The inventive device is characterized from that the camera array is assigned to the microphone array. Especially the camera array is arranged in the center of the microphone array. The Microphone array can have any configuration. For example, the microphones can be in a linear Array can be arranged, with the camera array then in the center this linear array is located. Also conceivable is a stochastic one Arrangement of the microphones, in which case the camera array essentially arranged so that it is possible in every direction of one same number of microphones is surrounded. Also an arrangement of microphones on concentric rings is conceivable.

Eine bevorzugte Ausgestaltung sieht vor, die Mikrofone spiralförmig anzuordnen und das Kameraarray im Zentrum zu positionieren.A preferred embodiment provides, the microphones spiral to arrange and position the camera array in the center.

Die optischen Achsen der Kameras, beispielsweise der drei Videokameras sind vorzugsweise parallel zueinander angeordnet.The optical axes of the cameras, for example the three video cameras are preferably arranged parallel to each other.

Kurze Beschreibung der ZeichnungShort description of the drawing

Ein Ausführungsbeispiel einer erfindungsgemäßen Vorrichtung ist in der 1 dargestellt und wird in der nachfolgenden Beschreibung näher erläutert.An embodiment of a device according to the invention is in the 1 and will be explained in more detail in the following description.

Ausführungsformen der Erfindungembodiments the invention

Eine erfindungsgemäße Vorrichtung 100 weist einen Grundkörper 110 auf, an dem Spiralarme 120 befestigt sind. Diese Spiralarme 120 weisen jeweils eine Mehrzahl von Mikrofonen 121 auf, die entlang der Spiralarme 120 angeordnet sind. Der Übersichtlichkeit halber sind in 1 diese Mikrofone nur bei einem Spiralarm 120 gekennzeichnet. Jeder der Spiralarme weist entsprechende Mikrofone 121 auf. Im Zentrum dieser Spiralarme sind drei Videokameras 140 angeordnet, deren optische Achsen parallel zueinander verlaufen.An inventive device 100 has a basic body 110 on, on the spiral arms 120 are attached. These spiral arms 120 each have a plurality of microphones 121 on that along the spiral arms 120 are arranged. For the sake of clarity, in 1 these microphones only with a spiral arm 120 characterized. Each of the spiral arms has corresponding microphones 121 on. At the center of these spiral arms are three video cameras 140 arranged, whose optical axes are parallel to each other.

Zur bildgebenden Darstellung von akustischen Objekten wird diese Vorrichtung auf das Messobjekt (nicht dargestellt) gerichtet und simultan und zeitlich synchronisiert sowohl der von dem Messobjekt abgestrahlte Schall erfasst als auch das Messobjekt mit Hilfe der Videokameras 140 aufgezeichnet.For the imaging of acoustic objects, this device is directed to the measurement object (not shown) and simultaneously and synchronized in time, both the sound emitted by the measurement object and the measurement object are detected with the aid of the video cameras 140 recorded.

Die Datenströme der Mikrofone 121 wie auch der Videokameras 140 werden in einer (nicht dargestellten) Recheneinheit, einem Computer, verarbeitet. Der Basisalgorithmus der Mikrofonarraytechnologie ist dabei das sogenannte Beamforming oder auch Delay-and-Sum-Verfahren. Bei diesem werden die Signale einer Anzahl von Sensoren ohne Richtungsinformationen so verknüpft, dass die aus einer bestimmten Richtung ankommenden oder von einem bestimmten Ort ausgesandten Signalanteile verstärkt und alle anderen Signalanteile abgedämpft werden. Dies geschieht beispielsweise im Falle von Mikrofonarrays dadurch, dass die Signale der einzelnen Mikrofone 121 entsprechend der geometrischen Anordnung der Sensoren und potentiellen Quellorten und der daraus resultierenden Laufzeit verzögert und dann überlagert werden. Stimmt der angenommene Quellort mit einem tatsächlichen Quellort überein, addieren sich die Signale phasenrichtig. Im anderen Fall kommt es zur Phasenauslöschung. Dieser Vorgang wird für alle in Frage kommenden Quellorte wiederholt. Dargestellt wird die Energie des durch Überlagerung entstandenen Signals. Hierdurch erhält man eine Quellkartierung, in der die Orte mit großer Übereinstimmung mit der realen Quelle farbig hervorgehoben sind.The data streams of the microphones 121 as well as the video cameras 140 are processed in a computing unit (not shown), a computer. The basic algorithm of the microphone array technology is the so-called beamforming or delay-and-sum method. In this case, the signals of a number of sensors without directional information are linked in such a way that the signal components arriving from a certain direction or emitted by a specific location are amplified and all other signal components are attenuated. This happens, for example, in the case of microphone arrays in that the signals of the individual microphones 121 delayed according to the geometric arrangement of the sensors and potential source locations and the resulting runtime and then superimposed. If the assumed source location coincides with an actual source location, the signals add in phase. In the other case, phase cancellation occurs. This process is repeated for all possible sources. The energy of the signal resulting from superimposition is shown. This provides a source mapping in which the locations are highlighted in color with great agreement with the real source.

Bei dem aus der DE 103 04 215 A1 hervorgehenden Verfahren wird diese Quellkartierung einem Videobild überlagert, um eine einfache Zuordnung zu den Quellobjekten zu erreichen. Die „Schärfe” der Quellkartierung entspricht dabei dem räumlichen Auflösungsvermögen des Mikrofonarrays und hängt von einer Vielzahl unterschiedlicher Faktoren ab. Die geometrische Anordnung von Sensoren und Quellen ist dabei von entscheidender Bedeutung. Mit Apertur wird der größte Abstand zwischen zwei Sensoren bezeichnet. Je größer die Apertur ist, desto größer ist das räumliche Auflösungsvermögen bei einer konstanten Frequenz des Schallereignisses. Bei einer planaren Sensoranordnung ist die Apertur senkrecht zur Sensorebene gleich null. Entsprechend ist die räumliche Auflösung in dieser Richtung, das heißt die Schärfentiefe, äußert gering. Mit einer dreidimensionalen Sensoranordnung, z. B. auf einer Kugel, lässt sich die Schärfentiefe nur geringfügig verbessern. Als Folge dessen ist es nicht möglich den Abstand einer Schallquelle zum Array mit Hilfe des Beamforming-Algorithmus exakt zu bestimmen. Der Abstand ist jedoch für die genaue Lokalisierung in den anderen Raumrichtungen von entscheidender Bedeutung. Wird nämlich ein zu großer Abstand für die Berechnung zugrunde gelegt, werden die Quellen am falschen Ort und mit einem falschen Pegel erkannt. Ist der Abstand zu klein, wird die Quelle überhaupt nicht erkannt.In the from the DE 103 04 215 A1 As a result of these methods, this source mapping is superimposed on a video image in order to achieve an easy allocation to the source objects. The "sharpness" of the source mapping corresponds to the spatial Chen resolution of the microphone array and depends on a variety of different factors. The geometric arrangement of sensors and sources is of crucial importance. Aperture is the maximum distance between two sensors. The larger the aperture, the greater the spatial resolution at a constant frequency of the sound event. In a planar sensor arrangement, the aperture is perpendicular to the sensor plane equal to zero. Accordingly, the spatial resolution in this direction, ie the depth of field, is extremely low. With a three-dimensional sensor arrangement, for. B. on a ball, the depth of field can only be improved slightly. As a result, it is not possible to accurately determine the distance of a sound source to the array using the beamforming algorithm. However, the distance is crucial for accurate localization in the other spatial directions. If too large a distance is used for the calculation, the sources are recognized in the wrong place and with an incorrect level. If the distance is too small, the source will not be recognized at all.

Generell kann gesagt werden, dass der Beamforming-Algorithmus einen geringen Dynamikumfang hinsichtlich der Darstellung der Quellkartierung aufweist. Darüber hinaus erzeugt der Algorithmus für jede real existierende Quelle sogenannte Geisterquellen, deren Pegel je nach Sensoranordnung maximal 14 dB unter dem Pegel der realen Quelle liegen. Weitere reale Quellen, die um mehr als 14 dB leiser als die erste Quelle sind, werden von deren Geisterquellen verdeckt. Bei einer falschen Abstandsannahme sinkt dieser begrenzte Dynamikumfang weiter.As a general rule can be said that the beamforming algorithm has a low Dynamic range with respect to the representation of the source mapping has. In addition, the algorithm generates for each real existing source so-called ghost sources whose levels depending on the sensor arrangement a maximum of 14 dB below the level of the real one Source lie. Other real sources that are more than 14 dB quieter as the first source, are obscured by their ghost sources. With a wrong distance assumption, this limited dynamic range decreases further.

Um den Abstand der Mikrofone zu dem Messobjekt zu bestimmen, ist es bei dem aus dem Stand der Technik bekannten Verfahren erforderlich den Abstand beispielsweise von Hand zu vermessen und dann als Einzahlwert in die Auswertesoftware einzugeben. Die Software berechnet dann eine Ebene senkrecht zum Array auf der mittels des Beamforming-Algorithmus nach Quellen gesucht wird. Das Ergebnis ist eine Quellkartierung für diesen Abstand. Bei dreidimensionalen Quellenanordnungen ist es damit nicht möglicht, in einer Quellkartierung alle Quellen korrekt darzustellen. Für eine korrekte Darstellung ist es erforderlich, anstelle einer planaren Scanebene eine drei dimensionale Scanoberfläche zu verwenden, auf der alle potentiellen Quellorte liegen. Rein prinzipiell ist es zwar möglich, alle Abstände zwischen den Sensoren und den potentiellen Schallquellen manuell zu messen. Dies ist jedoch im industriellen Einsatz nicht praktikabel. Die Einbindung von CAD-Daten wäre ebenfalls rein prinzipiell möglich, erfordert jedoch eine genaue Ausrichtung des Arrays zu dem durch die CAD-Daten beschriebenen Messobjekt. Auch diese genaue Ausrichtung ist nicht immer möglich. Eine solche Anwendung wäre nur auf Messobjekte mit vollständig vorhandenen CAD-Daten beschränkt.Around It is the distance of the microphones to the target to determine required in the known from the prior art method the To measure distance, for example, by hand and then as a single value enter into the evaluation software. The software then calculates a plane perpendicular to the array on the using the beamforming algorithm looking for sources. The result is a source mapping for this distance. For three-dimensional source arrangements This does not make it possible to source in a source map to represent correctly. For a correct representation is it requires a three dimensional instead of a planar scan plane Scan surface to use on which all potential Source locations lie. In principle, it is possible, all distances between the sensors and the potential sound sources to measure manually. However, this is not in industrial use practical. The integration of CAD data would also be purely in principle possible, but requires an accurate Alignment of the array to that described by the CAD data DUT. Again, this exact alignment is not always possible. Such an application would be complete only on metrics limited to existing CAD data.

Die in 1 dargestellte Vorrichtung und das nachfolgend beschriebene erfindungsgemäße Verfahren lösen nun das Problem, den genauen Abstand zwischen einzelnen Punkten des Messobjekts und dem Mikrofonarray zu bestimmen, durch eine Kombination des aus den Spiralarmen 120 und den Mikrofonen 121 gebildeten Mikrofonarrays mit dem Videoarray, gebildet aus den Videokameras 140, die im Zentrum des Mikrofonarrays angeordnet sind. Diese Videokameras 140 zeichnen parallel zum Datenstrom der Mikrofonsignale kontinuierlich und zeitlich synchronisiert Bilder von der aktuellen Messanordnung auf. Die optischen Achsen der Kameras 140 sind parallel angeordnet. Durch eine Kalibrierung werden dadurch auf an sich bekannte Weise Abbildungsfehler minimiert. Ein Objekt, welches sich in einem gegebenen Abstand zu den Kameras 140 befindet, wird an unterschiedlichen Positionen auf den Bildern der Kameras 140 abgebildet. Durch genaue Kenntnis der geometrischen Verhältnisse zwischen Objekt und Kameras 140 die beispielsweise durch die sogenannte Epipolargeometrie bestimmt werden können, können die Kamerabilder einzeln so entzerrt werden, dass sich das Objekt an derselben Position auf den einzelnen Bildern befindet. Durch Überlagerung der Kamerabilder erhält man ein neues Bild, auf dem das Objekt scharf erscheint. Ein Objekt, welches sich in einem anderen als dem momentan angenommenen Abstand befindet, wird hingegen nach der Entzerrung nicht auf dieselbe Position in den Kamerabildern abgebildet. Nach der Überlagerung erscheint das Objekt daher unscharf. Rein prinzipiell sind folgende Verfahren denkbar:

  • a) Durch ein manuelles Ändern des angenommenen Abstands mittels der Software kann nacheinander die Position der im Videobild aufgenommenen Objekte bestimmt werden. Synchron zur Änderung des Abstands wird auch die Scanebene für das Beamforming verschoben. Sobald ein Objekt korrekt fokussiert wurde, stimmen auch die Position und der Pegel der zugehörigen Schallquelle. Bei dieser Ausgestaltung des Verfahrens liegen alle Scanpunkte auf einer Ebene. In einer Quellkartierung können daher auch nur Quellen, die auf dieser Ebene liegen, korrekt dargestellt werden. Vorteil dieser Ausführungsform des Verfahrens ist es, dass ein manuelles Vermessen der Messobjekte entfällt. Da die Videobilder zusammen mit den Mikrofondaten abgespeichert werden, kann die Bestimmung der korrekten Entfernung auch nach Beendigung einer Messkampagne und Demontage der Messanordnung erfolgen. Das Verfahren ist darüber hinaus robust und einfach in der Anwendung. Eine softwaremäßig realisierte verschiebbare Bild-Lupe unterstützt den Anwender bei der Bestimmung der höchsten Bildschärfe.
  • b) Das vorstehend beschriebene Verfahren zur Bestimmung eines manuellen Fokus kann angewendet werden, um nacheinander den Abstand zu allen interessierenden Objekten zu bestimmen. Durch Interaktion mit der Software werden diese Punkte gespeichert. Die Software erzeugt eine Oberfläche, auf der alle gespeicherten Punkte liegen, und interpoliert die Flächen dazwischen. Auf diese Weise entsteht sukzessive eine dreidimensionale Fläche, die dann beim Beamforming als Scanfläche verwendet wird. Diese Fläche kann beispielsweise dem Schallpegel zugeordnet werden, wodurch eine akustische Oberfläche des Messobjekts darstellbar ist. Hierdurch können alle Quellen in einer Quellkartierung korrekt dargestellt werden.
  • c) Gemäß einer weiteren Ausgestaltung des Verfahrens wird eine Tiefenschätzung mit Hilfe der Videokameras 140 vorgenommen. Rein prinzipiell basiert dieses Verfahren auf der Auswertung von Punktkorrespondenzen in verschiedenen Videobildern. Eine andere Variante besteht darin, aus der geometrischen Anordnung der sich auf oben beschriebene Weise ergebenden entzerrten Videobildern eine diskrete Reihe möglicher Abstände zu berechnen. Jedes Bild wird dann in kleine überlappende Teilbereiche zerlegt. Für jeden Teilbereich wird die Ähnlichkeit der entsprechenden Teilbereiche der einzelnen Videobilder bestimmt und abgespeichert. Die Verfahren zur Bestimmung von Ähnlichkeitsmaßen sind aus dem Bereich der sogenannten Computer Vision an sich bekannt, z. B. die Bestimmung der Summe der paarweisen quadratischen Differenzen zwischen den Bildern der einzelnen Videokameras oder die Ermittlung des normierten Kreuzkorrelationskoeffizienten. Dieser Vorgang wird für alle in Frage kommenden Abstände wiederholt. Anschließend wird für jeden Teilbereich der Abstand bestimmt, für den die Übereinstimmung maximal ist. Dieser Ab stand ist der Abstand des abgebildeten Objektes zu den Videokameras 140 und damit zum Mikrofonarray 120, 121. Das Verfahren setzt zusätzliche Algorithmen zur Detektion von Bildpunkten mit hohem Kontrast voraus, da nur hier eine eindeutige Unterscheidung zwischen hoher und niedriger Übereinstimmung der Teilbereiche möglich ist. Dies kann beispielsweise mit Hilfe eines Algorithmus zur Kantendetektion gelöst werden. Dabei wird für jeden Teilbereich die quadratische Summe des Helligkeitsunterschieds zwischen den Bildpunkten und dem mittleren Helligkeitswert bestimmt – diese entspricht der Varianz des Teilbereichs. Über einen Schwellwert werden Bildpunkte mit hohem Kontrast bestimmt. Aus der Umgebung jedes dieser Bildpunkte wird ein Teilbereich für die anschließende Entfernungsbestimmung gebildet. Objekte mit deutlich ausgeprägter, sich wiederholender Struktur führen zu Fehldetektionen, da bei der Überlagerung für mehrere Abstände gleich hohe Werte der Übereinstimmung erreicht werden (Moire-Effekt). Dieses Problem wird dadurch gelöst, dass Bildpunkte mit wiederholten Maximalwerten in der Übereinstimmung als ungültig markiert werden. Abschließend wird aus allen gültigen Bildpunkten mittels Interpolation eine dreidimensionale Fläche bestimmt, die als Scanfläche für das Beamforming verwendet wird. Das Verfahren ist vollständig automatisierbar. Eine Interaktion des Benutzers ist nicht erforderlich. Bei diesem Verfahren ist auch eine korrekte Erfassung von sich bewegenden Objekten auf sehr vorteilhafte Weise möglich.
In the 1 The device shown and the method according to the invention described below now solve the problem of determining the exact distance between individual points of the measurement object and the microphone array by a combination of the spiral arms 120 and the microphones 121 formed microphone arrays with the video array formed from the video cameras 140 which are arranged in the center of the microphone array. These video cameras 140 record images of the current measuring arrangement in a continuous and synchronized manner parallel to the data stream of the microphone signals. The optical axes of the cameras 140 are arranged in parallel. Calibration minimizes aberrations in a manner known per se. An object which is at a given distance to the cameras 140 is located at different positions on the pictures of the cameras 140 displayed. Through precise knowledge of the geometric relationships between object and cameras 140 which can be determined for example by the so-called epipolar geometry, the camera images can be individually equalized so that the object is at the same position on the individual images. By overlaying the camera images you get a new image, on which the object appears sharp. An object which is located at a different distance than the one currently assumed, however, is not mapped to the same position in the camera images after the equalization. After the overlay, the object therefore appears blurred. In principle, the following methods are conceivable:
  • a) By manually changing the assumed distance by means of the software, the position of the objects recorded in the video image can be determined one after the other. Synchronous with the change in the distance, the scanning plane for beamforming is also shifted. Once an object has been properly focused, the position and level of the associated sound source are also correct. In this embodiment of the method, all scan points lie on one level. In a source map, therefore, only sources that lie on this level can be displayed correctly. The advantage of this embodiment of the method is that a manual measurement of the measurement objects is eliminated. Since the video images are stored together with the microphone data, the determination of the correct distance can also be made after completion of a measurement campaign and disassembly of the measuring arrangement. The process is also robust and easy to use. A software implemented sliding image magnifying glass supports the Users in determining the highest image sharpness.
  • b) The manual focus determination method described above can be used to sequentially determine the distance to all objects of interest. Interacting with the software saves these points. The software creates a surface on which all stored points lie and interpolates the surfaces in between. In this way, a three-dimensional surface is created successively, which is then used as a scanning surface during beamforming. This area can for example be assigned to the sound level, whereby an acoustic surface of the measurement object can be displayed. This allows all sources in a source map to be displayed correctly.
  • c) According to another embodiment of the method is a depth estimate using the video cameras 140 performed. In principle, this method is based on the evaluation of point correspondences in different video images. Another variant is to calculate a discrete series of possible distances from the geometric arrangement of the equalized video images resulting as described above. Each image is then decomposed into small overlapping subregions. For each subarea, the similarity of the corresponding subregions of the individual video images is determined and stored. The methods for determining similarity measures are known from the field of so-called computer vision per se, for. Example, the determination of the sum of the pairwise squared differences between the images of the individual video cameras or the determination of the normalized cross-correlation coefficient. This process is repeated for all distances in question. Then, for each subarea, the distance for which the match is maximum is determined. This distance was the distance of the imaged object to the video cameras 140 and thus to the microphone array 120 . 121 , The method requires additional algorithms for the detection of pixels with high contrast, since only here a clear distinction between high and low match of the sub-areas is possible. This can be solved for example with the aid of an algorithm for edge detection. In this case, the quadratic sum of the brightness difference between the pixels and the average brightness value is determined for each subarea - this corresponds to the variance of the subarea. A threshold value is used to determine pixels with high contrast. From the environment of each of these pixels, a partial area is formed for the subsequent distance determination. Objects with a pronounced, repetitive structure lead to misdetections, since the overlay for several distances achieves equal values of agreement (moiré effect). This problem is resolved by marking pixels with repeated maximum values in the match as invalid. Finally, a three-dimensional surface is determined from all valid pixels by means of interpolation, which is used as a scanning surface for beamforming. The procedure is fully automatable. An interaction of the user is not required. In this method, a correct detection of moving objects in a very advantageous manner possible.

Eine vorteilhafte Ausgestaltung des Verfahrens sieht eine Kohärenz-/Inkohärenzfilterung vor, welche die Möglichkeit eröffnet, Kohärenzen zwischen den Quellen aufzuzeigen. Kohärente Quellen haben in der Regel denselben Wirkungsursprung. Die Kenntnis dieses Wirkungsursprungs hilft bei der Lärmminderung bzw. Klangmodifikation.A advantageous embodiment of the method provides a coherence / incoherence filtering which opens up the possibility of coherences between the sources. Have coherent sources usually the same effect origin. The knowledge of this effect origin Helps with the reduction of noise or sound modification.

Mit Hilfe der Inkohärenzfilterung ist es möglich eine dominante Quelle in der Quellkartierung soweit zu dämpfen, dass leisere Quellen, die zuvor aufgrund der Geisterquellen verdeckt waren, sichtbar werden.With Help of incoherence filtering it is possible a to dampen the dominant source in the source mapping, that quieter sources, previously obscured by the ghost sources were, become visible.

Als kohärent gelten Signale, wenn sie zu jedem Zeitpunkt durch eine zeitinvariante Filterung ineinander übergeführt werden können. Die Kohärenzfilterung erfolgt in der Regel im Frequenzbereich. Dabei werden die beiden Zeitsignale in Blöcke zerlegt. Für jeden Block wird das komplexe Spektrum beispielsweise mittels der Fourier-Transformation berechnet. Nun werden das Produkt aus dem Spektrum des Nutzsignals (Mikrofonsignale des Arrays) und dem normierten konjugiert komplexen Spektrum des Referenzsignals gebildet. Das resultierende komplexe Spektrum wird über alle (möglichst viele) Zeitblöcke gemittelt. Signalanteile, die die oben gestellte Anforderung erfüllen, werden dabei verstärkt, bzw. andere Signalanteile werden gedämpft.When coherently apply signals when passing through at any time a time-invariant filtering into each other converted can be. The coherence filtering takes place in usually in the frequency domain. Thereby the two time signals become disassembled into blocks. For each block the complex becomes Spectrum calculated for example by means of the Fourier transform. Now the product of the spectrum of the useful signal (microphone signals of the array) and the normalized conjugate complex spectrum of the reference signal educated. The resulting complex spectrum is over averaged all (as many) time blocks as possible. Signal components, which meet the above requirement will be included amplified, or other signal components are attenuated.

Gemäß der vorliegenden Erfindung wird nun ein (nicht dargestellter) beliebiger zusätzlicher Sensor, z. B. ein Mikrofon, ein Beschleunigungsaufnehmer, ein Laservibrometer oder dergleichen in unmittelbarer Nähe der interessierenden Quelle angeordnet. Das System führt die vorstehend beschriebene Analyse mittels der Arraymikrofonsignale und dem Referenzmikrofonsignal aus. Die resultierenden komplexen Spektren werden anschließend für das Beamforming verwendet. Alle Quellen, die zum Referenzsensor inkohärent sind, werden in der Quellkartierung gedämpft. Das Ergebnis des Beamformings ist eine energieäquivalente Größe für jeden Scanpunkt. Im System wird parallel diese Größe für die ungefilterten und kohärenzgefilterten Spektren berechnet. Durch Subtraktion der beiden Energiewerte erhält man eine Quellkartierung in der nun die zum Referenzsensor kohärenten Quellen gedämpft werden.In accordance with the present invention, an arbitrary additional sensor (not shown), e.g. As a microphone, an accelerometer, a laser vibrometer or the like in the immediate vicinity of the source of interest. The system performs the above-described analysis using the array microphone signals and the reference microphone signal. The resulting complex spectra are then used for beamforming. All sources that are incoherent with the reference sensor are attenuated in the source mapping. The result of beamforming is an energy equivalent quantity for each scan point. In the system this size is parallel for the calculated unfiltered and coherence filtered spectra. By subtracting the two energy values, one obtains a source mapping in which the sources coherent to the reference sensor are now attenuated.

Zusammenfassend kann gesagt werden, dass die Kombination eines Mikrofonarrays 120, 121 mit einem System zur Bestimmung der Entfernung zwischen Mikrofonarray und Messobjekten, beispielsweise in Form eines Kameraarrays 140 die exakte Bestimmung des Abstands von Schallquellen zu dem Mikrofonarray 120, 121 in der industriellen Anwendung ermöglicht. Hierdurch ist eine genaue Lokalisation und Quantifizierung der Quellen möglich. Durch die optische Entfernungsbestimmung entfällt die Notwendigkeit, die Abstände manuell zu vermessen. Die Entfernungsbestimmung kann auch – und dies ist ein entscheidender Vorteil – nachträglich (ohne Vorhandensein des Messobjekts) erfolgen, da die Rohdaten der Videokameras 140 mit den Mikrofondaten abgespeichert werden. Durch die Möglichkeit, eine dreidimensionale Scanoberfläche zu generieren, können auch Quellen, die sich nicht in einer Ebene befinden, in einer Quellkartierung abgebildet werden. Der Dynamikumfang der Quellkartierung kann dabei voll ausgeschöpft und erhöht werden. Dabei sinkt der Rechenaufwand für die Analyse, da anstelle von mehreren Quellkartierungen (für jeden Abstand eine) nunmehr nur eine einzige bestimmt werden muss. Das Verfahren kann vollständig automatisiert durchgeführt werden und erfordert keine Annahmen über das Messobjekt. Darüber hinaus kann das Verfahren während der Messung/Auswertung in kurzer Zeit durchgeführt werden.In summary, it can be said that the combination of a microphone array 120 . 121 with a system for determining the distance between microphone array and measurement objects, for example in the form of a camera array 140 the exact determination of the distance from sound sources to the microphone array 120 . 121 in industrial application. This allows accurate localization and quantification of sources. The optical distance determination eliminates the need to manually measure the distances. The distance determination can also - and this is a decisive advantage - subsequently (without the presence of the object to be measured), since the raw data of the video cameras 140 be stored with the microphone data. The ability to generate a three-dimensional scan surface also allows sources that are not in a plane to be mapped in a source map. The dynamic range of the source mapping can be fully exploited and increased. This reduces the computational effort for the analysis, since instead of multiple source maps (for each distance one) now only one must be determined. The procedure can be carried out completely automatically and does not require any assumptions about the measurement object. In addition, the method can be carried out during the measurement / evaluation in a short time.

Die Kohärenz-/Inkohärenzfilterung eröffnet die Möglichkeit Kohärenzen zwischen den Quellen aufzuzeigen. Hierdurch können nicht nur leisere Quellen dargestellt werden, sondern es können auch entsprechende Schritte zur Lärmminderung bzw. Klangmodifikation auf der Basis kohärenter Schallquellen vorgenommen werden.The Coherence / incoherence filtering opens the Possibility to show coherence between the sources. This not only allows quieter sources to be shown but it can also be appropriate steps to Noise reduction or sound modification on the basis of coherent Sound sources are made.

Ein großer Vorteil ist es, dass das Verfahren in Echtzeit und online eingesetzt werden kann. Der Nutzer kann auf diese Weise aktiv mit dem Messobjekt interagieren und die Auswirkungen sämtliche Modifikationen an den Quellen und der Position des Referenzsensors unmittelbar erfahren.One big advantage is that the process in real time and can be used online. The user can be active in this way interact with the measurement object and the effects of all modifications at the sources and the position of the reference sensor immediately Experienced.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list The documents listed by the applicant have been automated generated and is solely for better information recorded by the reader. The list is not part of the German Patent or utility model application. The DPMA takes over no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • - DE 10304215 A1 [0003, 0023] - DE 10304215 A1 [0003, 0023]

Claims (16)

Verfahren zur bildgebenden Darstellung von dreidimensionalen akustischen Objekten als Messobjekt durch die Aufnahme eines akustischen Bezugsbilds des Messobjekts über ein Mikrofonarray (120, 121), wobei dem Mikrofonarray (120, 121) ein optisches Kameraarray (140) zugeordnet ist, welches simultan zum Datenstrom der Mikrofonsignale des Mikrofonarrays (120, 121) räumliche Informationen des Messobjekts aufweisende Bilder zeitlich synchronisiert aufzeichnet, die unmittelbar oder zu einem beliebigen späteren Zeitpunkt in Relation zu dem akustischen Bezugsbild des Messobjekts gebracht werden.Method for the imaging of three-dimensional acoustic objects as a measurement object by recording an acoustic reference image of the measurement object via a microphone array ( 120 . 121 ), wherein the microphone array ( 120 . 121 ) an optical camera array ( 140 ), which simultaneously to the data stream of the microphone signals of the microphone array ( 120 . 121 ) recording temporally synchronized spatial information of the measurement object images that are brought directly or at any later time in relation to the acoustic reference image of the measurement object. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Kameraarray wenigstens zwei, vorzugsweise drei Videokameras (140) umfasst, die kontinuierlich räumliche Informationen des Messobjekts während der akustischen Aufnahme über das Mikrofonarray (120, 121) aufzeichnen.A method according to claim 1, characterized in that the camera array at least two, preferably three video cameras ( 140 ), which continuously spatial information of the measurement object during the acoustic recording via the microphone array ( 120 . 121 ) record. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass die optischen Achsen der Videokameras (140) parallel zueinander angeordnet sind.Method according to claim 2, characterized in that the optical axes of the video cameras ( 140 ) are arranged parallel to each other. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass auf der Basis der Kamerasignale der Abstand zwischen Mikrofonarray (120, 121) und Messobjekt bestimmt wird.Method according to one of the preceding claims, characterized in that on the basis of the camera signals the distance between microphone array ( 120 . 121 ) and measured object is determined. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass der variable Abstand zwischen Mikrofonarray (120, 121) und Messobjekt durch Verschieben, Überlagern und Bestimmung der resultierenden Übereinstimmung von mehreren, vorzugsweise drei Kamerabildern bestimmt wird.Method according to claim 4, characterized in that the variable distance between microphone array ( 120 . 121 ) and measurement object is determined by moving, superimposing and determining the resulting match of a plurality, preferably three camera images. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass der Abstand mit Hilfe der Epipolargeometrie bestimmt wird.Method according to claim 4, characterized in that that the distance is determined by means of the epipolar geometry. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass der Datenstrom der Mikrofonsignale des Mikrofonarrays (120, 121) und der Datenstrom des optischen Kameraarrays (140) zur Erstellung einer akustischen dreidimensionalen Abbildung des Messobjekts aufeinander bezogen werden.Method according to one of the preceding claims, characterized in that the data stream of the microphone signals of the microphone array ( 120 . 121 ) and the data stream of the optical camera array ( 140 ) are related to each other to produce an acoustic three-dimensional image of the measurement object. Verfahren nach einem der Ansprüche 4 bis 6, dadurch gekennzeichnet, dass eine akustische Oberfläche des Messobjekts mit variablem Abstand zwischen Messobjekt und Mikrofonarray (120, 121) und einer darauf bezogenen Scanoberfläche des Mikrofonarrays bestimmt wird und in einer Anzeigeeinheit dargestellt wird, so dass in einer bildlichen Darstellung alle ähnlichen Quellen des Messobjektes simultan dargestellt werden.Method according to one of claims 4 to 6, characterized in that an acoustic surface of the measuring object with a variable distance between the measuring object and microphone array ( 120 . 121 ) and a related scanning surface of the microphone array is determined and displayed in a display unit, so that all similar sources of the measurement object are displayed simultaneously in a pictorial representation. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass in Echtzeit mittels Kohärenz- oder Inkohärenzfilterung des Datenstroms die Mikrofonsignale des Mikrofonarrays (120, 121) und wenigstens ein Referenzsignal zur Verstärkung bzw. Dämpfung von Schallquellen verwendet werden.Method according to one of the preceding claims, characterized in that in real time by means of coherence or incoherence filtering of the data stream, the microphone signals of the microphone array ( 120 . 121 ) and at least one reference signal for amplifying or attenuating sound sources are used. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass die Inkohärenz- oder Kohärenzfilterung auf der Basis der in den Frequenzraum, vorzugsweise mittels Fourier-Transformation, transformierten zeitlichen Mikrofonsignale erfolgt.Method according to claim 8, characterized in that that the incoherence or coherence filtering on the base of the frequency domain, preferably by means of Fourier transformation, transformed temporal microphone signals takes place. Vorrichtung zur bildgebenden Darstellung von akustischen Objekten durch die Aufnahme eines akustischen Bezugsbilds des Messobjekts über ein Mikrofonarray (120, 121), gekennzeichnet durch ein dem Mik rofonarray (120, 121) zugeordnetes optisches Kameraarray (140), durch welches simultan zum Datenstrom der Mikrofonsignale des Mikrofonarrays (120, 121) dreidimensionale Informationen des Messobjekts aufweisende Bilder zeitlich synchronisiert aufnehmbar und in einer Auswerteeinrichtung zur Erstellung einer akustischen Karte des Messobjekts auswertbar sind.Device for the imaging of acoustic objects by recording an acoustic reference image of the measurement object via a microphone array ( 120 . 121 ), characterized by a microphone array ( 120 . 121 ) associated optical camera array ( 140 ), through which simultaneously to the data stream of the microphone signals of the microphone array ( 120 . 121 ) three-dimensional information of the measurement object having images in time synchronized recordable and evaluable in an evaluation device for creating an acoustic map of the measurement object. Vorrichtung nach Anspruch 10, dadurch gekennzeichnet, dass das Kameraarray wenigstens zwei, vorzugsweise drei Videokameras (140) aufweist.Apparatus according to claim 10, characterized in that the camera array at least two, preferably three video cameras ( 140 ) having. Vorrichtung nach Anspruch 11, dadurch gekennzeichnet, dass die optischen Achsen der Videokameras (140) parallel zueinander angeordnet sind.Apparatus according to claim 11, characterized in that the optical axes of the video cameras ( 140 ) are arranged parallel to each other. Vorrichtung nach einem der Ansprüche 10 bis 12, dadurch gekennzeichnet, dass die Videokameras (140) im Wesentlichen im Zentrum des Mikrofonarrays angeordnet sind.Device according to one of claims 10 to 12, characterized in that the video cameras ( 140 ) are arranged substantially in the center of the microphone array. Computerprogramm, das alle Schritte eines Verfahrens nach einem der Ansprüche 1 bis 9 ausführt, wenn es auf einem Rechengerät abläuft.Computer program that shows all the steps of a procedure according to one of claims 1 to 9 executes when it runs on a computing device. Computerprogrammprodukt mit Programmcode, der auf einem maschinenlesbaren Träger gespeichert ist, zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 9, wenn das Programm auf einem Computer ausgeführt wird.Computer program product with program code based on a machine-readable carrier is stored for execution of the method according to any one of claims 1 to 9, when the Program is running on a computer.
DE102008026657A 2008-03-10 2008-06-04 Method for imaged representation of three dimensional acoustic objects as measuring object, involves bringing images in relation to acoustic reference image of measuring object immediately or at time point Withdrawn DE102008026657A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102008026657A DE102008026657A1 (en) 2008-03-10 2008-06-04 Method for imaged representation of three dimensional acoustic objects as measuring object, involves bringing images in relation to acoustic reference image of measuring object immediately or at time point

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102008013363 2008-03-10
DE102008013363.9 2008-03-10
DE102008026657A DE102008026657A1 (en) 2008-03-10 2008-06-04 Method for imaged representation of three dimensional acoustic objects as measuring object, involves bringing images in relation to acoustic reference image of measuring object immediately or at time point

Publications (1)

Publication Number Publication Date
DE102008026657A1 true DE102008026657A1 (en) 2009-09-24

Family

ID=40984114

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102008026657A Withdrawn DE102008026657A1 (en) 2008-03-10 2008-06-04 Method for imaged representation of three dimensional acoustic objects as measuring object, involves bringing images in relation to acoustic reference image of measuring object immediately or at time point

Country Status (1)

Country Link
DE (1) DE102008026657A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2584326A1 (en) * 2011-10-20 2013-04-24 Dyva Antenna for supporting an array of transducers and method for mounting such an antenna
DE102014217598A1 (en) * 2014-09-03 2016-03-03 Gesellschaft zur Förderung angewandter Informatik e.V. Method and arrangement for acquiring acoustic and optical information and a corresponding computer program and a corresponding computer-readable storage medium
EP3001162A1 (en) * 2014-09-27 2016-03-30 CAE Software & Systems GmbH Sound source visualisation system and conversion unit
DE102016125225A1 (en) * 2016-12-21 2018-06-21 Hochschule für Angewandte Wissenschaften Hamburg Körperschaft des Öffentlichen Rechts Method and device for the imaging of a sound-emitting object

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5714997A (en) * 1995-01-06 1998-02-03 Anderson; David P. Virtual reality television system
DE10204215A1 (en) * 2002-01-28 2003-08-21 Bombardier Transp Gmbh Vehicle with braking energy storage
DE10304215A1 (en) 2003-01-30 2004-08-19 Gesellschaft zur Förderung angewandter Informatik eV Method and device for imaging acoustic objects and a corresponding computer program product and a corresponding computer-readable storage medium
DE202008002958U1 (en) * 2008-03-01 2008-05-08 Ca Engineering Und Service Gmbh Arrangement of microphones and device for detecting an acoustic signal

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5714997A (en) * 1995-01-06 1998-02-03 Anderson; David P. Virtual reality television system
DE10204215A1 (en) * 2002-01-28 2003-08-21 Bombardier Transp Gmbh Vehicle with braking energy storage
DE10304215A1 (en) 2003-01-30 2004-08-19 Gesellschaft zur Förderung angewandter Informatik eV Method and device for imaging acoustic objects and a corresponding computer program product and a corresponding computer-readable storage medium
DE202008002958U1 (en) * 2008-03-01 2008-05-08 Ca Engineering Und Service Gmbh Arrangement of microphones and device for detecting an acoustic signal

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2584326A1 (en) * 2011-10-20 2013-04-24 Dyva Antenna for supporting an array of transducers and method for mounting such an antenna
FR2981800A1 (en) * 2011-10-20 2013-04-26 Dyva ANTENNA FOR CARRYING A NETWORK OF TRANSDUCERS AND METHOD FOR MOUNTING ANTENNA
DE102014217598A1 (en) * 2014-09-03 2016-03-03 Gesellschaft zur Förderung angewandter Informatik e.V. Method and arrangement for acquiring acoustic and optical information and a corresponding computer program and a corresponding computer-readable storage medium
US9894435B2 (en) 2014-09-03 2018-02-13 Gesellschaft Zur Forderung Angewandter Informatik E.V. Method and arrangement for detecting acoustic and optical information as well as a corresponding computer program and a corresponding computer-readable storage medium
EP3001162A1 (en) * 2014-09-27 2016-03-30 CAE Software & Systems GmbH Sound source visualisation system and conversion unit
DE102016125225A1 (en) * 2016-12-21 2018-06-21 Hochschule für Angewandte Wissenschaften Hamburg Körperschaft des Öffentlichen Rechts Method and device for the imaging of a sound-emitting object

Similar Documents

Publication Publication Date Title
DE102013009288B4 (en) 3D recording device, method for creating a 3D image and method for setting up a 3D recording device
EP2710794B1 (en) Method for generating and evaluating an image
DE102014206309B4 (en) System and method for obtaining offset images to be used for improved edge resolution
DE102007054906A1 (en) Method for optical measurement of the three-dimensional geometry of objects
DE112016001560T5 (en) Method and system for real-time motion artifact handling and noise removal for runtime sensor images
DE102008015499A1 (en) Method and device for determining the 3D coordinates of an object
DE19861203B4 (en) Process and device for extensive vibration analysis
DE102008054985A1 (en) Method and device for optical measurement of three-dimensional objects by means of a dental 3D camera using a triangulation method
DE102005037841A1 (en) Method and arrangement for determining the relative position of a first object with respect to a second object, and a corresponding computer program and a corresponding computer-readable storage medium
EP3775767A1 (en) Method and system for measuring an object by means of stereoscopy
DE10343160B3 (en) Method for determining a three-dimensional velocity field in a volume
DE102008026657A1 (en) Method for imaged representation of three dimensional acoustic objects as measuring object, involves bringing images in relation to acoustic reference image of measuring object immediately or at time point
DE19509962A1 (en) Three spatial components of three=dimensional object surface displacement vector field determn. method
DE102006028409A1 (en) Scanning microscope e.g. confocal scanning microscope, for use in micro-system technology, has signal detector arranged in optical path such that radiation is formed on detector, where focusing device is connected with scanner control unit
EP3537383A1 (en) Monitoring of vibrations of an object by means of a video camera
EP3158285B1 (en) Method for determining a spatial displacement vector field
EP2504659B1 (en) Device and method for measuring and compensating movement influences in phase-shift profilometers and the application thereof in mobile, manually controlled profilometry
DE102006003877A1 (en) vibrometer
WO2020061605A2 (en) Method for focusing a camera
DE102008036710A1 (en) Method for three-dimensional optical measuring of object with topometric measuring process, involves selecting partial areas of objects such that reflections of patterns on surface of object do not influence patterns in partial areas
EP2590139A1 (en) Method and apparatus for extensive optical three-dimensional measurement of surface topographies
EP3174010A2 (en) Method for creating a 3d representation and corresponding image recording apparatus
DE102011000088A1 (en) Method for determining structures and/or geometry of workpiece, involves defining path to be passed and/or sequence of executions for specified range and/or fixed amount of measuring points and/or measuring elements
DE102004007049A1 (en) Method for classifying an object with a stereo camera
DE102017122627A1 (en) Optical measuring system and measuring method

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20140101