DE102008026657A1 - Method for imaged representation of three dimensional acoustic objects as measuring object, involves bringing images in relation to acoustic reference image of measuring object immediately or at time point - Google Patents
Method for imaged representation of three dimensional acoustic objects as measuring object, involves bringing images in relation to acoustic reference image of measuring object immediately or at time point Download PDFInfo
- Publication number
- DE102008026657A1 DE102008026657A1 DE102008026657A DE102008026657A DE102008026657A1 DE 102008026657 A1 DE102008026657 A1 DE 102008026657A1 DE 102008026657 A DE102008026657 A DE 102008026657A DE 102008026657 A DE102008026657 A DE 102008026657A DE 102008026657 A1 DE102008026657 A1 DE 102008026657A1
- Authority
- DE
- Germany
- Prior art keywords
- microphone array
- array
- acoustic
- microphone
- measurement object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B42/00—Obtaining records using waves other than optical waves; Visualisation of such records by using optical means
- G03B42/06—Obtaining records using waves other than optical waves; Visualisation of such records by using optical means using ultrasonic, sonic or infrasonic waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01H—MEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
- G01H3/00—Measuring characteristics of vibrations by using a detector in a fluid
- G01H3/10—Amplitude; Power
- G01H3/12—Amplitude; Power by electric means
- G01H3/125—Amplitude; Power by electric means for representing acoustic field distribution
Abstract
Description
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zu bildgebenden Darstellung von akustischen Objekten nach den Oberbegriffen der unabhängigen Ansprüche.The The invention relates to a method and a device for imaging Representation of acoustic objects according to the generic terms of independent claims.
Gegenstand der Erfindung sind auch ein Computerprogramm sowie ein Computerprogrammprodukt mit einem Programmcode, der auf einem maschinenlesbaren Träger gespeichert ist, zur Durchführung des Verfahrens.object The invention also includes a computer program and a computer program product with a program code stored on a machine-readable carrier is stored for carrying out the method.
Stand der TechnikState of the art
Aus
der
Mit Hilfe dieser Vorrichtung und dieses Verfahrens wird automatisch jede Messung dokumentiert, indem Datensätze der Kameraaufnahmen unlösbar mit den Datensätzen der Mikrofon-Zeitfunktion, mit Zeitsynchronsignalen, mit Szenen-Informationen und Parameterfiles von Mikrofonarray und Datenrecorder verschmolzen in einem Datenfile abgespeichert werden. Für jeden Punkt im akustischen Bild können so Zeitfunktion, Frequenzfunktion, Schalldruck, Koordinaten, Klang oder Korrelation mit einer bekannten Zeitfunktion mittels eines Computers abgerufen und verarbeitet werden. Die Verarbeitung kann auch zu einem späteren Zeitpunkt nach Abschluss der Messung erfolgen und ermöglicht so eine bequeme Aufbereitung der Daten. Dieses Verfahren und die Vorrichtung ermöglichen jedoch keine räumliche Zuordnung der Schallquellen zu dem mittels der Videokamera aufgenommenen Bild.With Help of this device and this method becomes automatic Each measurement is documented by records of camera shots unsolvable with the data sets of the microphone time function, with time synchronization signals, with scene information and parameter files from microphone array and data recorder merged into a data file be stored. For every point in the acoustic picture can thus time function, frequency function, sound pressure, Coordinates, sound or correlation with a known time function be retrieved and processed by means of a computer. The processing may also be available at a later date after completing the Measurement made possible and thus a convenient treatment the data. This method and the device allow however, no spatial assignment of the sound sources to the captured by the video camera image.
Der Erfindung liegt daher die Aufgabe zugrunde, ein Verfahren und eine Vorrichtung zur bildgebenden Darstellung von akustischen Objekten der gattungsgemäßen Art so weiterzubilden, dass auch räumliche Informationen des akustischen Objekts erfasst und verarbeitet werden können.Of the Invention is therefore the object of a method and a Device for the imaging of acoustic objects further develop the generic type so that also spatial information of the acoustic object detected and can be processed.
Offenbarung der ErfindungDisclosure of the invention
Vorteile der ErfindungAdvantages of the invention
Diese Aufgabe wird durch ein Verfahren und eine Vorrichtung mit den Merkmalen der unabhängigen Ansprüche 1 und 10 gelöst. Grundidee der Erfindung ist es, ein optisches Kameraarray einem Mikrofonarray zuzuordnen und simultan zum Datenstrom der Mikrofonsignale des Mikrofonarrays räumliche Informationen des Messobjekts aufweisende Bilder zeitlich synchronisiert mit Hilfe des Kameraarrays aufzuzeichnen und diese Bilder in Relation zu dem akustischen Bezugsbild des Messobjekts zu bringen. Durch ein Kameraarray können räumliche Informationen des Messobjekts erfasst werden. Hierdurch ist eine präzise dreidimensionale Schallquellenlokalisierung dadurch möglich, dass der Abstand der potentiellen Schallquellen zum Mikrofon bestimmt werden kann, ohne diesen Abstand von Hand vermessen zu müssen.These The object is achieved by a method and a device having the features the independent claims 1 and 10 solved. The basic idea of the invention is to provide an optical camera array Assign microphone array and simultaneously to the data stream of the microphone signals of the microphone array spatial information of the DUT to record images in temporal synchronization using the camera array and these images in relation to the reference acoustic image of the measurement object bring to. Through a camera array, spatial Information of the DUT are recorded. This is a precise three-dimensional sound source localization by possible that the distance of the potential sound sources to the microphone can be determined without this distance by hand to have to measure.
Das Kameraarray umfasst mehrere versetzt angeordnete Kameras die auf weiter unten noch näher zu beschreibende Weise eine räumliche Quellkartierung ermöglichen.The Camera array includes several offset cameras on the to be described in more detail below a spatial source mapping enable.
Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind jeweils vorteilhafte Ausgestaltungen und Weiterbildungen des in dem unabhängigen Anspruch 1 angegebenen Verfahrens und der in dem unabhängigen Anspruch 10 angegebenen Vorrichtung möglich.By those listed in the dependent claims Measures are each advantageous embodiments and Developments specified in the independent claim 1 Method and that specified in the independent claim 10 Device possible.
So sieht eine vorteilhafte Ausgestaltung vor, dass das Kameraarray wenigstens zwei, vorzugsweise drei Videokameras umfasst, die zeitlich synchronisiert kontinuierlich räumliche Informationen des Messobjekts während der akustischen Aufnahme über das Mikrofonarray aufzeichnen. Diese Videokameras liefern jeweils drei Kamerabildern, deren Verschieben, Überlagern und Bestimmung der resultierenden Übereinstimmung von mehreren, vorzugsweise drei Kamerabildern eine Berechnung des variablen Abstands zwischen der Kamera und damit dem Mikrofonarray und jedem beliebigen Bildpunkt ermöglicht. Hierdurch kann eine räumlich gestaffelte Quellanordnung in einer Quellkartierung dargestellt werden.So provides an advantageous embodiment that the camera array includes at least two, preferably three video cameras, the time continuously synchronizes spatial information of the DUT during the acoustic recording via the microphone array record. These video cameras each provide three camera images, their shifting, overlaying and determination of the resulting match of several, preferably three camera images, a calculation of variable distance between the camera and thus the microphone array and any pixel allows. This can a spatially staggered source arrangement in a source mapping being represented.
Eine Abstandsbestimmung ist auch mit Hilfe der Epipolargeometrie möglich.A Distance determination is also possible with the aid of epipolar geometry.
Bevorzugt sind die optischen Achsen der Videokameras parallel zueinander angeordnet, wobei allerdings hervorzuheben ist, dass auch eine nicht parallele Anordnung rein prinzipiell denkbar ist.Preferably, the optical axes of the video cameras are arranged parallel to each other, although it should be emphasized that a not parallel arrangement is purely conceivable in principle.
Der Datenstrom der Mikrofonsignale des Mikrofonarrays und der Datenstrom des optischen Kameraarrays werden vorteilhafterweise zur Erstellung einer akustischen dreidimensionalen Abbildung des Messobjekts aufeinander bezogen.Of the Data stream of the microphone signals of the microphone array and the data stream of the optical camera array are advantageously used to create a acoustic three-dimensional image of the measurement object to each other based.
Die Abstandsbestimmung kann dabei Punkt für Punkt in Bezug auf die Oberfläche des Messobjekts erfolgen. Hierdurch kann die erwähnte räumlich gestaffelte Quellanordnung in einer Quellkartierung dargestellt werden. Durch Variation des räumlichen Abstands zwischen Messobjekt und Mikrofonarray und einer darauf bezogenen Scanebene des Mikrofonarrays kann eine akustische Oberfläche des Messobjekts bestimmt und in einer Anzeigeeinheit dargestellt werden. Akustische Oberfläche bedeutet hierbei beispielsweise die Darstellung des Schallpegels auf der Oberfläche des Messobjekts und damit die räumliche Darstellung von Bereichen, welche beispielsweise eine sehr intensive Schallabstrahlung aufweisen. Diese Darstellung ist die akustische dreidimensionale Abbildung.The Distance determination can be done point by point take place on the surface of the test object. hereby can the mentioned spatially staggered source arrangement be presented in a source mapping. By variation of the spatial distance between object to be measured and microphone array and a related scan plane of the microphone array can be an acoustic Surface of the DUT and determined in a display unit being represented. Acoustic surface means here for example, the representation of the sound level on the surface of the measurement object and thus the spatial representation of Areas which have, for example, a very intense sound radiation. This illustration is the acoustic three-dimensional image.
Eine sehr vorteilhafte Ausgestaltung des Verfahrens ermöglicht eine Kohärenz- bzw. Inkohärenzanalyse. Hierzu werden in Echtzeit mittels Kohärenz- oder Inkohärenzfilterung des Datenstroms die Mikrofonsignale des Mikrofonarrays zur Verstärkung bzw. zur Dämpfung von Schallquellen verwendet.A very advantageous embodiment of the method allows a coherence or incoherence analysis. For this be done in real time by means of coherence or incoherence filtering the data stream, the microphone signals of the microphone array for amplification or used for damping sound sources.
Die Kohärenz- oder Inkohärenzfilterung erfolgt auf der Basis der in den Frequenzraum, vorzugsweise mittels Fourier-Transformation, transformierten zeitlichen Mikrofonsignale.The Coherence or incoherence filtering occurs the base of the frequency domain, preferably by means of Fourier transformation, transformed temporal microphone signals.
Die erfindungsgemäße Vorrichtung zeichnet sich dadurch aus, dass das Kameraarray dem Mikrofonarray zugeordnet ist. Insbesondere ist das Kamera array im Zentrum des Mikrofonarrays angeordnet. Das Mikrofonarray kann dabei eine beliebige Ausgestaltung aufweisen. So können die Mikrofone beispielsweise in einem linearen Array angeordnet sein, wobei sich das Kameraarray dann im Zentrum dieser linearen Anordnung befindet. Denkbar ist auch eine stochastische Anordnung der Mikrofone, wobei hier das Kameraarray im Wesentlichen so angeordnet ist, dass es in jede Richtung von einer möglichst gleichen Anzahl von Mikrofonen umgeben wird. Auch eine Anordnung von Mikrofonen auf konzentrischen Ringen ist denkbar.The inventive device is characterized from that the camera array is assigned to the microphone array. Especially the camera array is arranged in the center of the microphone array. The Microphone array can have any configuration. For example, the microphones can be in a linear Array can be arranged, with the camera array then in the center this linear array is located. Also conceivable is a stochastic one Arrangement of the microphones, in which case the camera array essentially arranged so that it is possible in every direction of one same number of microphones is surrounded. Also an arrangement of microphones on concentric rings is conceivable.
Eine bevorzugte Ausgestaltung sieht vor, die Mikrofone spiralförmig anzuordnen und das Kameraarray im Zentrum zu positionieren.A preferred embodiment provides, the microphones spiral to arrange and position the camera array in the center.
Die optischen Achsen der Kameras, beispielsweise der drei Videokameras sind vorzugsweise parallel zueinander angeordnet.The optical axes of the cameras, for example the three video cameras are preferably arranged parallel to each other.
Kurze Beschreibung der ZeichnungShort description of the drawing
Ein
Ausführungsbeispiel einer erfindungsgemäßen
Vorrichtung ist in der
Ausführungsformen der Erfindungembodiments the invention
Eine
erfindungsgemäße Vorrichtung
Zur
bildgebenden Darstellung von akustischen Objekten wird diese Vorrichtung
auf das Messobjekt (nicht dargestellt) gerichtet und simultan und zeitlich
synchronisiert sowohl der von dem Messobjekt abgestrahlte Schall
erfasst als auch das Messobjekt mit Hilfe der Videokameras
Die
Datenströme der Mikrofone
Bei
dem aus der
Generell kann gesagt werden, dass der Beamforming-Algorithmus einen geringen Dynamikumfang hinsichtlich der Darstellung der Quellkartierung aufweist. Darüber hinaus erzeugt der Algorithmus für jede real existierende Quelle sogenannte Geisterquellen, deren Pegel je nach Sensoranordnung maximal 14 dB unter dem Pegel der realen Quelle liegen. Weitere reale Quellen, die um mehr als 14 dB leiser als die erste Quelle sind, werden von deren Geisterquellen verdeckt. Bei einer falschen Abstandsannahme sinkt dieser begrenzte Dynamikumfang weiter.As a general rule can be said that the beamforming algorithm has a low Dynamic range with respect to the representation of the source mapping has. In addition, the algorithm generates for each real existing source so-called ghost sources whose levels depending on the sensor arrangement a maximum of 14 dB below the level of the real one Source lie. Other real sources that are more than 14 dB quieter as the first source, are obscured by their ghost sources. With a wrong distance assumption, this limited dynamic range decreases further.
Um den Abstand der Mikrofone zu dem Messobjekt zu bestimmen, ist es bei dem aus dem Stand der Technik bekannten Verfahren erforderlich den Abstand beispielsweise von Hand zu vermessen und dann als Einzahlwert in die Auswertesoftware einzugeben. Die Software berechnet dann eine Ebene senkrecht zum Array auf der mittels des Beamforming-Algorithmus nach Quellen gesucht wird. Das Ergebnis ist eine Quellkartierung für diesen Abstand. Bei dreidimensionalen Quellenanordnungen ist es damit nicht möglicht, in einer Quellkartierung alle Quellen korrekt darzustellen. Für eine korrekte Darstellung ist es erforderlich, anstelle einer planaren Scanebene eine drei dimensionale Scanoberfläche zu verwenden, auf der alle potentiellen Quellorte liegen. Rein prinzipiell ist es zwar möglich, alle Abstände zwischen den Sensoren und den potentiellen Schallquellen manuell zu messen. Dies ist jedoch im industriellen Einsatz nicht praktikabel. Die Einbindung von CAD-Daten wäre ebenfalls rein prinzipiell möglich, erfordert jedoch eine genaue Ausrichtung des Arrays zu dem durch die CAD-Daten beschriebenen Messobjekt. Auch diese genaue Ausrichtung ist nicht immer möglich. Eine solche Anwendung wäre nur auf Messobjekte mit vollständig vorhandenen CAD-Daten beschränkt.Around It is the distance of the microphones to the target to determine required in the known from the prior art method the To measure distance, for example, by hand and then as a single value enter into the evaluation software. The software then calculates a plane perpendicular to the array on the using the beamforming algorithm looking for sources. The result is a source mapping for this distance. For three-dimensional source arrangements This does not make it possible to source in a source map to represent correctly. For a correct representation is it requires a three dimensional instead of a planar scan plane Scan surface to use on which all potential Source locations lie. In principle, it is possible, all distances between the sensors and the potential sound sources to measure manually. However, this is not in industrial use practical. The integration of CAD data would also be purely in principle possible, but requires an accurate Alignment of the array to that described by the CAD data DUT. Again, this exact alignment is not always possible. Such an application would be complete only on metrics limited to existing CAD data.
Die
in
- a) Durch ein manuelles Ändern des angenommenen Abstands mittels der Software kann nacheinander die Position der im Videobild aufgenommenen Objekte bestimmt werden. Synchron zur Änderung des Abstands wird auch die Scanebene für das Beamforming verschoben. Sobald ein Objekt korrekt fokussiert wurde, stimmen auch die Position und der Pegel der zugehörigen Schallquelle. Bei dieser Ausgestaltung des Verfahrens liegen alle Scanpunkte auf einer Ebene. In einer Quellkartierung können daher auch nur Quellen, die auf dieser Ebene liegen, korrekt dargestellt werden. Vorteil dieser Ausführungsform des Verfahrens ist es, dass ein manuelles Vermessen der Messobjekte entfällt. Da die Videobilder zusammen mit den Mikrofondaten abgespeichert werden, kann die Bestimmung der korrekten Entfernung auch nach Beendigung einer Messkampagne und Demontage der Messanordnung erfolgen. Das Verfahren ist darüber hinaus robust und einfach in der Anwendung. Eine softwaremäßig realisierte verschiebbare Bild-Lupe unterstützt den Anwender bei der Bestimmung der höchsten Bildschärfe.
- b) Das vorstehend beschriebene Verfahren zur Bestimmung eines manuellen Fokus kann angewendet werden, um nacheinander den Abstand zu allen interessierenden Objekten zu bestimmen. Durch Interaktion mit der Software werden diese Punkte gespeichert. Die Software erzeugt eine Oberfläche, auf der alle gespeicherten Punkte liegen, und interpoliert die Flächen dazwischen. Auf diese Weise entsteht sukzessive eine dreidimensionale Fläche, die dann beim Beamforming als Scanfläche verwendet wird. Diese Fläche kann beispielsweise dem Schallpegel zugeordnet werden, wodurch eine akustische Oberfläche des Messobjekts darstellbar ist. Hierdurch können alle Quellen in einer Quellkartierung korrekt dargestellt werden.
- c) Gemäß einer weiteren Ausgestaltung des
Verfahrens wird eine Tiefenschätzung mit Hilfe der Videokameras
140 vorgenommen. Rein prinzipiell basiert dieses Verfahren auf der Auswertung von Punktkorrespondenzen in verschiedenen Videobildern. Eine andere Variante besteht darin, aus der geometrischen Anordnung der sich auf oben beschriebene Weise ergebenden entzerrten Videobildern eine diskrete Reihe möglicher Abstände zu berechnen. Jedes Bild wird dann in kleine überlappende Teilbereiche zerlegt. Für jeden Teilbereich wird die Ähnlichkeit der entsprechenden Teilbereiche der einzelnen Videobilder bestimmt und abgespeichert. Die Verfahren zur Bestimmung von Ähnlichkeitsmaßen sind aus dem Bereich der sogenannten Computer Vision an sich bekannt, z. B. die Bestimmung der Summe der paarweisen quadratischen Differenzen zwischen den Bildern der einzelnen Videokameras oder die Ermittlung des normierten Kreuzkorrelationskoeffizienten. Dieser Vorgang wird für alle in Frage kommenden Abstände wiederholt. Anschließend wird für jeden Teilbereich der Abstand bestimmt, für den die Übereinstimmung maximal ist. Dieser Ab stand ist der Abstand des abgebildeten Objektes zu den Videokameras140 und damit zum Mikrofonarray120 ,121 . Das Verfahren setzt zusätzliche Algorithmen zur Detektion von Bildpunkten mit hohem Kontrast voraus, da nur hier eine eindeutige Unterscheidung zwischen hoher und niedriger Übereinstimmung der Teilbereiche möglich ist. Dies kann beispielsweise mit Hilfe eines Algorithmus zur Kantendetektion gelöst werden. Dabei wird für jeden Teilbereich die quadratische Summe des Helligkeitsunterschieds zwischen den Bildpunkten und dem mittleren Helligkeitswert bestimmt – diese entspricht der Varianz des Teilbereichs. Über einen Schwellwert werden Bildpunkte mit hohem Kontrast bestimmt. Aus der Umgebung jedes dieser Bildpunkte wird ein Teilbereich für die anschließende Entfernungsbestimmung gebildet. Objekte mit deutlich ausgeprägter, sich wiederholender Struktur führen zu Fehldetektionen, da bei der Überlagerung für mehrere Abstände gleich hohe Werte der Übereinstimmung erreicht werden (Moire-Effekt). Dieses Problem wird dadurch gelöst, dass Bildpunkte mit wiederholten Maximalwerten in der Übereinstimmung als ungültig markiert werden. Abschließend wird aus allen gültigen Bildpunkten mittels Interpolation eine dreidimensionale Fläche bestimmt, die als Scanfläche für das Beamforming verwendet wird. Das Verfahren ist vollständig automatisierbar. Eine Interaktion des Benutzers ist nicht erforderlich. Bei diesem Verfahren ist auch eine korrekte Erfassung von sich bewegenden Objekten auf sehr vorteilhafte Weise möglich.
- a) By manually changing the assumed distance by means of the software, the position of the objects recorded in the video image can be determined one after the other. Synchronous with the change in the distance, the scanning plane for beamforming is also shifted. Once an object has been properly focused, the position and level of the associated sound source are also correct. In this embodiment of the method, all scan points lie on one level. In a source map, therefore, only sources that lie on this level can be displayed correctly. The advantage of this embodiment of the method is that a manual measurement of the measurement objects is eliminated. Since the video images are stored together with the microphone data, the determination of the correct distance can also be made after completion of a measurement campaign and disassembly of the measuring arrangement. The process is also robust and easy to use. A software implemented sliding image magnifying glass supports the Users in determining the highest image sharpness.
- b) The manual focus determination method described above can be used to sequentially determine the distance to all objects of interest. Interacting with the software saves these points. The software creates a surface on which all stored points lie and interpolates the surfaces in between. In this way, a three-dimensional surface is created successively, which is then used as a scanning surface during beamforming. This area can for example be assigned to the sound level, whereby an acoustic surface of the measurement object can be displayed. This allows all sources in a source map to be displayed correctly.
- c) According to another embodiment of the method is a depth estimate using the video cameras
140 performed. In principle, this method is based on the evaluation of point correspondences in different video images. Another variant is to calculate a discrete series of possible distances from the geometric arrangement of the equalized video images resulting as described above. Each image is then decomposed into small overlapping subregions. For each subarea, the similarity of the corresponding subregions of the individual video images is determined and stored. The methods for determining similarity measures are known from the field of so-called computer vision per se, for. Example, the determination of the sum of the pairwise squared differences between the images of the individual video cameras or the determination of the normalized cross-correlation coefficient. This process is repeated for all distances in question. Then, for each subarea, the distance for which the match is maximum is determined. This distance was the distance of the imaged object to the video cameras140 and thus to the microphone array120 .121 , The method requires additional algorithms for the detection of pixels with high contrast, since only here a clear distinction between high and low match of the sub-areas is possible. This can be solved for example with the aid of an algorithm for edge detection. In this case, the quadratic sum of the brightness difference between the pixels and the average brightness value is determined for each subarea - this corresponds to the variance of the subarea. A threshold value is used to determine pixels with high contrast. From the environment of each of these pixels, a partial area is formed for the subsequent distance determination. Objects with a pronounced, repetitive structure lead to misdetections, since the overlay for several distances achieves equal values of agreement (moiré effect). This problem is resolved by marking pixels with repeated maximum values in the match as invalid. Finally, a three-dimensional surface is determined from all valid pixels by means of interpolation, which is used as a scanning surface for beamforming. The procedure is fully automatable. An interaction of the user is not required. In this method, a correct detection of moving objects in a very advantageous manner possible.
Eine vorteilhafte Ausgestaltung des Verfahrens sieht eine Kohärenz-/Inkohärenzfilterung vor, welche die Möglichkeit eröffnet, Kohärenzen zwischen den Quellen aufzuzeigen. Kohärente Quellen haben in der Regel denselben Wirkungsursprung. Die Kenntnis dieses Wirkungsursprungs hilft bei der Lärmminderung bzw. Klangmodifikation.A advantageous embodiment of the method provides a coherence / incoherence filtering which opens up the possibility of coherences between the sources. Have coherent sources usually the same effect origin. The knowledge of this effect origin Helps with the reduction of noise or sound modification.
Mit Hilfe der Inkohärenzfilterung ist es möglich eine dominante Quelle in der Quellkartierung soweit zu dämpfen, dass leisere Quellen, die zuvor aufgrund der Geisterquellen verdeckt waren, sichtbar werden.With Help of incoherence filtering it is possible a to dampen the dominant source in the source mapping, that quieter sources, previously obscured by the ghost sources were, become visible.
Als kohärent gelten Signale, wenn sie zu jedem Zeitpunkt durch eine zeitinvariante Filterung ineinander übergeführt werden können. Die Kohärenzfilterung erfolgt in der Regel im Frequenzbereich. Dabei werden die beiden Zeitsignale in Blöcke zerlegt. Für jeden Block wird das komplexe Spektrum beispielsweise mittels der Fourier-Transformation berechnet. Nun werden das Produkt aus dem Spektrum des Nutzsignals (Mikrofonsignale des Arrays) und dem normierten konjugiert komplexen Spektrum des Referenzsignals gebildet. Das resultierende komplexe Spektrum wird über alle (möglichst viele) Zeitblöcke gemittelt. Signalanteile, die die oben gestellte Anforderung erfüllen, werden dabei verstärkt, bzw. andere Signalanteile werden gedämpft.When coherently apply signals when passing through at any time a time-invariant filtering into each other converted can be. The coherence filtering takes place in usually in the frequency domain. Thereby the two time signals become disassembled into blocks. For each block the complex becomes Spectrum calculated for example by means of the Fourier transform. Now the product of the spectrum of the useful signal (microphone signals of the array) and the normalized conjugate complex spectrum of the reference signal educated. The resulting complex spectrum is over averaged all (as many) time blocks as possible. Signal components, which meet the above requirement will be included amplified, or other signal components are attenuated.
Gemäß der vorliegenden Erfindung wird nun ein (nicht dargestellter) beliebiger zusätzlicher Sensor, z. B. ein Mikrofon, ein Beschleunigungsaufnehmer, ein Laservibrometer oder dergleichen in unmittelbarer Nähe der interessierenden Quelle angeordnet. Das System führt die vorstehend beschriebene Analyse mittels der Arraymikrofonsignale und dem Referenzmikrofonsignal aus. Die resultierenden komplexen Spektren werden anschließend für das Beamforming verwendet. Alle Quellen, die zum Referenzsensor inkohärent sind, werden in der Quellkartierung gedämpft. Das Ergebnis des Beamformings ist eine energieäquivalente Größe für jeden Scanpunkt. Im System wird parallel diese Größe für die ungefilterten und kohärenzgefilterten Spektren berechnet. Durch Subtraktion der beiden Energiewerte erhält man eine Quellkartierung in der nun die zum Referenzsensor kohärenten Quellen gedämpft werden.In accordance with the present invention, an arbitrary additional sensor (not shown), e.g. As a microphone, an accelerometer, a laser vibrometer or the like in the immediate vicinity of the source of interest. The system performs the above-described analysis using the array microphone signals and the reference microphone signal. The resulting complex spectra are then used for beamforming. All sources that are incoherent with the reference sensor are attenuated in the source mapping. The result of beamforming is an energy equivalent quantity for each scan point. In the system this size is parallel for the calculated unfiltered and coherence filtered spectra. By subtracting the two energy values, one obtains a source mapping in which the sources coherent to the reference sensor are now attenuated.
Zusammenfassend
kann gesagt werden, dass die Kombination eines Mikrofonarrays
Die Kohärenz-/Inkohärenzfilterung eröffnet die Möglichkeit Kohärenzen zwischen den Quellen aufzuzeigen. Hierdurch können nicht nur leisere Quellen dargestellt werden, sondern es können auch entsprechende Schritte zur Lärmminderung bzw. Klangmodifikation auf der Basis kohärenter Schallquellen vorgenommen werden.The Coherence / incoherence filtering opens the Possibility to show coherence between the sources. This not only allows quieter sources to be shown but it can also be appropriate steps to Noise reduction or sound modification on the basis of coherent Sound sources are made.
Ein großer Vorteil ist es, dass das Verfahren in Echtzeit und online eingesetzt werden kann. Der Nutzer kann auf diese Weise aktiv mit dem Messobjekt interagieren und die Auswirkungen sämtliche Modifikationen an den Quellen und der Position des Referenzsensors unmittelbar erfahren.One big advantage is that the process in real time and can be used online. The user can be active in this way interact with the measurement object and the effects of all modifications at the sources and the position of the reference sensor immediately Experienced.
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list The documents listed by the applicant have been automated generated and is solely for better information recorded by the reader. The list is not part of the German Patent or utility model application. The DPMA takes over no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- - DE 10304215 A1 [0003, 0023] - DE 10304215 A1 [0003, 0023]
Claims (16)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102008026657A DE102008026657A1 (en) | 2008-03-10 | 2008-06-04 | Method for imaged representation of three dimensional acoustic objects as measuring object, involves bringing images in relation to acoustic reference image of measuring object immediately or at time point |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102008013363 | 2008-03-10 | ||
DE102008013363.9 | 2008-03-10 | ||
DE102008026657A DE102008026657A1 (en) | 2008-03-10 | 2008-06-04 | Method for imaged representation of three dimensional acoustic objects as measuring object, involves bringing images in relation to acoustic reference image of measuring object immediately or at time point |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102008026657A1 true DE102008026657A1 (en) | 2009-09-24 |
Family
ID=40984114
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102008026657A Withdrawn DE102008026657A1 (en) | 2008-03-10 | 2008-06-04 | Method for imaged representation of three dimensional acoustic objects as measuring object, involves bringing images in relation to acoustic reference image of measuring object immediately or at time point |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102008026657A1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2584326A1 (en) * | 2011-10-20 | 2013-04-24 | Dyva | Antenna for supporting an array of transducers and method for mounting such an antenna |
DE102014217598A1 (en) * | 2014-09-03 | 2016-03-03 | Gesellschaft zur Förderung angewandter Informatik e.V. | Method and arrangement for acquiring acoustic and optical information and a corresponding computer program and a corresponding computer-readable storage medium |
EP3001162A1 (en) * | 2014-09-27 | 2016-03-30 | CAE Software & Systems GmbH | Sound source visualisation system and conversion unit |
DE102016125225A1 (en) * | 2016-12-21 | 2018-06-21 | Hochschule für Angewandte Wissenschaften Hamburg Körperschaft des Öffentlichen Rechts | Method and device for the imaging of a sound-emitting object |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5714997A (en) * | 1995-01-06 | 1998-02-03 | Anderson; David P. | Virtual reality television system |
DE10204215A1 (en) * | 2002-01-28 | 2003-08-21 | Bombardier Transp Gmbh | Vehicle with braking energy storage |
DE10304215A1 (en) | 2003-01-30 | 2004-08-19 | Gesellschaft zur Förderung angewandter Informatik eV | Method and device for imaging acoustic objects and a corresponding computer program product and a corresponding computer-readable storage medium |
DE202008002958U1 (en) * | 2008-03-01 | 2008-05-08 | Ca Engineering Und Service Gmbh | Arrangement of microphones and device for detecting an acoustic signal |
-
2008
- 2008-06-04 DE DE102008026657A patent/DE102008026657A1/en not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5714997A (en) * | 1995-01-06 | 1998-02-03 | Anderson; David P. | Virtual reality television system |
DE10204215A1 (en) * | 2002-01-28 | 2003-08-21 | Bombardier Transp Gmbh | Vehicle with braking energy storage |
DE10304215A1 (en) | 2003-01-30 | 2004-08-19 | Gesellschaft zur Förderung angewandter Informatik eV | Method and device for imaging acoustic objects and a corresponding computer program product and a corresponding computer-readable storage medium |
DE202008002958U1 (en) * | 2008-03-01 | 2008-05-08 | Ca Engineering Und Service Gmbh | Arrangement of microphones and device for detecting an acoustic signal |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2584326A1 (en) * | 2011-10-20 | 2013-04-24 | Dyva | Antenna for supporting an array of transducers and method for mounting such an antenna |
FR2981800A1 (en) * | 2011-10-20 | 2013-04-26 | Dyva | ANTENNA FOR CARRYING A NETWORK OF TRANSDUCERS AND METHOD FOR MOUNTING ANTENNA |
DE102014217598A1 (en) * | 2014-09-03 | 2016-03-03 | Gesellschaft zur Förderung angewandter Informatik e.V. | Method and arrangement for acquiring acoustic and optical information and a corresponding computer program and a corresponding computer-readable storage medium |
US9894435B2 (en) | 2014-09-03 | 2018-02-13 | Gesellschaft Zur Forderung Angewandter Informatik E.V. | Method and arrangement for detecting acoustic and optical information as well as a corresponding computer program and a corresponding computer-readable storage medium |
EP3001162A1 (en) * | 2014-09-27 | 2016-03-30 | CAE Software & Systems GmbH | Sound source visualisation system and conversion unit |
DE102016125225A1 (en) * | 2016-12-21 | 2018-06-21 | Hochschule für Angewandte Wissenschaften Hamburg Körperschaft des Öffentlichen Rechts | Method and device for the imaging of a sound-emitting object |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102013009288B4 (en) | 3D recording device, method for creating a 3D image and method for setting up a 3D recording device | |
EP2710794B1 (en) | Method for generating and evaluating an image | |
DE102014206309B4 (en) | System and method for obtaining offset images to be used for improved edge resolution | |
DE102007054906A1 (en) | Method for optical measurement of the three-dimensional geometry of objects | |
DE112016001560T5 (en) | Method and system for real-time motion artifact handling and noise removal for runtime sensor images | |
DE102008015499A1 (en) | Method and device for determining the 3D coordinates of an object | |
DE19861203B4 (en) | Process and device for extensive vibration analysis | |
DE102008054985A1 (en) | Method and device for optical measurement of three-dimensional objects by means of a dental 3D camera using a triangulation method | |
DE102005037841A1 (en) | Method and arrangement for determining the relative position of a first object with respect to a second object, and a corresponding computer program and a corresponding computer-readable storage medium | |
EP3775767A1 (en) | Method and system for measuring an object by means of stereoscopy | |
DE10343160B3 (en) | Method for determining a three-dimensional velocity field in a volume | |
DE102008026657A1 (en) | Method for imaged representation of three dimensional acoustic objects as measuring object, involves bringing images in relation to acoustic reference image of measuring object immediately or at time point | |
DE19509962A1 (en) | Three spatial components of three=dimensional object surface displacement vector field determn. method | |
DE102006028409A1 (en) | Scanning microscope e.g. confocal scanning microscope, for use in micro-system technology, has signal detector arranged in optical path such that radiation is formed on detector, where focusing device is connected with scanner control unit | |
EP3537383A1 (en) | Monitoring of vibrations of an object by means of a video camera | |
EP3158285B1 (en) | Method for determining a spatial displacement vector field | |
EP2504659B1 (en) | Device and method for measuring and compensating movement influences in phase-shift profilometers and the application thereof in mobile, manually controlled profilometry | |
DE102006003877A1 (en) | vibrometer | |
WO2020061605A2 (en) | Method for focusing a camera | |
DE102008036710A1 (en) | Method for three-dimensional optical measuring of object with topometric measuring process, involves selecting partial areas of objects such that reflections of patterns on surface of object do not influence patterns in partial areas | |
EP2590139A1 (en) | Method and apparatus for extensive optical three-dimensional measurement of surface topographies | |
EP3174010A2 (en) | Method for creating a 3d representation and corresponding image recording apparatus | |
DE102011000088A1 (en) | Method for determining structures and/or geometry of workpiece, involves defining path to be passed and/or sequence of executions for specified range and/or fixed amount of measuring points and/or measuring elements | |
DE102004007049A1 (en) | Method for classifying an object with a stereo camera | |
DE102017122627A1 (en) | Optical measuring system and measuring method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |
Effective date: 20140101 |