DE102017121411A1 - System zum Erkennen einer Quelle einer akustischen Störung in einem Fahrzeug - Google Patents

System zum Erkennen einer Quelle einer akustischen Störung in einem Fahrzeug Download PDF

Info

Publication number
DE102017121411A1
DE102017121411A1 DE102017121411.9A DE102017121411A DE102017121411A1 DE 102017121411 A1 DE102017121411 A1 DE 102017121411A1 DE 102017121411 A DE102017121411 A DE 102017121411A DE 102017121411 A1 DE102017121411 A1 DE 102017121411A1
Authority
DE
Germany
Prior art keywords
signal
camera
fov
sound card
acoustic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017121411.9A
Other languages
English (en)
Inventor
Vincent DeChellis
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gulfstream Aerospace Corp
Original Assignee
Gulfstream Aerospace Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gulfstream Aerospace Corp filed Critical Gulfstream Aerospace Corp
Publication of DE102017121411A1 publication Critical patent/DE102017121411A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R19/00Electrostatic transducers
    • H04R19/04Microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • H04R1/028Casings; Cabinets ; Supports therefor; Mountings therein associated with devices performing functions other than acoustics, e.g. electric candles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L2021/02082Noise filtering the noise being echo, reverberation of the speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02166Microphone arrays; Beamforming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/40Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
    • H04R2201/4012D or 3D arrays of transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/20Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/20Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
    • H04R2430/23Direction finding using a sum-delay beam-former
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/11Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Otolaryngology (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

Ein System zum Erkennen einer Quelle einer akustischen Störung in einem Fahrzeug wird vorgestellt. Das System umfasst ein Gerät, das eine Kamera umfasst, die dazu konfiguriert ist, einen visuellen Datensatz zu empfangen und in Reaktion darauf ein Kamerasignal zu erzeugen. Das System umfasst ein Dock, das dazu konfiguriert ist, sich lösbar mit dem Gerät zu verbinden. Das Dock umfasst eine Anreihung von Mikrofonen, die dazu konfiguriert ist, die akustische Störung zu empfangen und in Reaktion darauf ein Mikrofonsignal zu erzeugen. Das System umfasst ein Prozessormodul, das dazu konfiguriert ist, mit dem Gerät und dem Dock kommunikativ verbunden zu werden. Das Prozessormodul ist dazu konfiguriert, in Reaktion auf das Erzeugen des Mikrofonsignals ein Rohsignal einer Klangkarte zu erzeugen. Das Prozessormodul ist dazu konfiguriert, das Kamerasignal und das Rohsignal der Klangkarte zu kombinieren und in Reaktion auf das Kombinieren des Kamerasignals und des Rohsignals der Klangkarte ein Kamera/Klangkarten-Überlagerungssignal zu erzeugen.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft im Allgemeinen Fahrzeuge und insbesondere das Herstellen, das Prüfen und die Wartung von Flugzeugen.
  • HINTERGRUND
  • Fahrzeuge, wie bspw. Flugzeuge und Kraftfahrzeuge, umfassen häufig Komponenten, die eine akustische Störung (d. h. ein unerwünschtes Geräusch) erzeugen. Eine akustische Störung ist nicht nur ablenkend oder störend für Insassen bzw. Passagiere innerhalb des Fahrzeugs oder Leute außerhalb des Fahrzeugs, die akustische Störung kann ein Hinweis dafür sein, dass eine Komponente nicht richtig funktioniert bzw. versagt. Die Quelle der akustischen Störung ist häufig bedingt durch Geräusche, Vibrationen, Quietschen oder Rattern von sich bewegenden oder fixierten Komponenten des Fahrzeugs. Die Quelle der akustischen Störung zu ermitteln kann schwierig sein. Beispielsweise können andere Geräusche, wie Motoren- oder Straßengeräusche, die akustische Störung teilweise maskieren bzw. überdecken, was ein Ermitteln der Quelle erschwert. Weiterhin kann die akustische Störung lediglich sporadisch auftreten, was eine Wiederholbarkeit der akustischen Störung zum Ermitteln der Quelle erschwert.
  • Um dieses Problem anzugehen, werden Techniker und/oder Ingenieure darin geschult, akustische Störungen, die das Fahrzeug gewöhnlich innehat, während einem Testlauf in einem Versuch zum Ermitteln der Quelle der akustischen Störung, zu erkennen und zu lokalisieren. Diese Testläufe können teuer und zeitaufwendig sein. Beispielsweise erfordert ein Ermitteln einer akustischen Störquelle in einem Flugzeug während eines Testlaufs für gewöhnlich zusätzliches Personal (beispielsweise Techniker, Ingenieure und Piloten), die Verwendung von zusätzlichem Treibstoff und das Herausnehmen des Flugzeugs aus einem regulären Betrieb. Auch wenn diese Lösung ausreichend ist, besteht Raum zur Verbesserung.
  • Entsprechend ist es wünschenswert, ein System zum Erkennen einer Quelle einer akustischen Störung und ein dafür geeignetes Verfahren bereitzustellen. Weiterhin gehen andere vorteilhafte Merkmale und Eigenschaften aus der nachstehenden Beschreibung und den abhängigen Ansprüchen in Verbindung mit den beigefügten Zeichnungen und dem voranstehend beschriebenen technischen Gebiet und Hintergrund hervor.
  • Verschiedene nicht-einschränkende Ausführungsformen eines Systems zum Erkennen einer Quelle einer akustischen Störung und verschiedene nicht-einschränkende Ausführungsformen von dazu geeigneten Verfahren sind hierin offenbart.
  • In einer nicht-einschränkenden Ausführungsform umfasst das System, ist jedoch nicht eingeschränkt auf, ein Gerät, das eine Kamera umfasst, die dazu konfiguriert ist, einen visuellen Datensatz zu empfangen und in Reaktion auf den visuellen Datensatz bzw. ein Empfangen des visuellen Datensatzes ein Kamerasignal zu erzeugen. Das System umfasst weiterhin ein Dock, das dazu konfiguriert ist, sich lösbar mit dem Gerät zu verbinden. Das Dock umfasst eine Anreihung von Mikrofonen, die dazu konfiguriert ist, die akustische Störung zu empfangen und in Reaktion auf die akustische Störung bzw. das Empfangen der akustischen Störung ein Mikrofonsignal zu erzeugen. Das System umfasst auch ein Prozessormodul, das dazu konfiguriert ist, mit dem Gerät und dem Dock kommunikativ verbunden zu sein bzw. in kommunikativer Verbindung zu stehen. Das Prozessormodul ist weiterhin dazu konfiguriert, ein Rohsignal einer Klangkarte in Reaktion auf das Mikrofonsignal bzw. den Empfang des Mikrofonsignals zu erzeugen. Das Prozessormodul ist auch dazu konfiguriert, das Kamerasignal und das Rohsignal der Klangkarte zu kombinieren und ein Kamera/Klangkarten-Überlagerungssignal in Reaktion auf das Kombinieren des Kamerasignals und des Rohsignals der Klangkarte zu erzeugen.
  • In einer nicht-einschränkenden Ausführungsform umfasst das Verfahren, ist jedoch nicht eingeschränkt auf, das Verwenden eines Systems, das ein Gerät und ein Dock umfasst. Das Gerät umfasst eine Kamera und eine Anzeige und das Dock umfasst eine Anreihung von Mikrofonen. Das Verfahren umfasst ferner, ist jedoch nicht eingeschränkt auf, ein Empfangen eines visuellen Datensatzes unter Verwendung der Kamera. Das Verfahren umfasst auch, ist jedoch nicht eingeschränkt auf, ein Erzeugen eines Kamerasignals in Reaktion auf den visuellen Datensatz bzw. das Empfangen des visuellen Datensatzes. Das Verfahren umfasst auch, ist jedoch nicht eingeschränkt auf, Empfangen der akustischen Störung unter Verwendung der Anreihung von Mikrofonen. Das Verfahren umfasst auch, ist jedoch nicht eingeschränkt auf, eine Erzeugung eines Mikrofonsignals in Reaktion auf die akustische Störung bzw. das Empfangen der akustischen Störung. Das Verfahren umfasst auch, ist jedoch nicht eingeschränkt auf, ein Erzeugen eines Rohsignals einer Klangkarte in Reaktion auf das Mikrofonsignal bzw. das Empfangen des Mikrofonsignals. Das Verfahren umfasst auch, ist jedoch nicht eingeschränkt auf, Verbinden bzw. Kombinieren des Kamerasignals und des Rohsignals der Klangkarte. Das Verfahren umfasst auch, ist jedoch nicht eingeschränkt auf, Erzeugen eines Kamera/Klangkarten-Überlagerungssignals in Reaktion auf die Verbindung bzw. die Kombination des Kamerasignals und des Rohsignals der Klangkarte. Das Verfahren umfasst auch, ist jedoch nicht eingeschränkt auf, ein Anzeigen des Kamera/Klangkarten-Überlagerungssignals auf der Anzeige.
  • Die vorliegende Erfindung wird im Folgenden im Zusammenhang mit den folgenden Figuren beschrieben, wobei einander entsprechende Bezugszeichen einander entsprechende Elemente kennzeichnen.
  • 1 ist eine perspektivische Ansicht, die eine nicht-einschränkende Ausgestaltung eines Systems zum Erkennen einer Quelle einer akustischen Störung in einem Fahrzeug darstellt.
  • 2 ist ein Blockdiagramm, das eine nicht-einschränkende Ausgestaltung des Systems aus 1 darstellt.
  • 3 ist ein Blockdiagramm, das eine andere nicht-einschränkende Ausgestaltung des Systems aus 1 darstellt.
  • 4 ist eine Ansicht aus einer erhöhten Perspektive, die eine Rückansicht einer nicht-einschränkenden Ausgestaltung des Systems aus 1 darstellt.
  • 5 ist eine Ansicht aus einer erhöhten Perspektive, die eine weitere Rückansicht einer nicht-einschränkenden Ausgestaltung des Systems aus 1 darstellt.
  • 6 ist eine Ansicht aus einer erhöhten Perspektive, die eine Frontalansicht einer nicht-einschränkenden Ausgestaltung des Systems aus 1 darstellt.
  • 7 ist eine perspektivische Seitenansicht einer nicht-einschränkenden Ausgestaltung des Systems aus 1.
  • 8 ist ein Flussdiagramm einer nicht-einschränkenden Ausgestaltung eines Verfahren zum Erkennen einer Quelle einer akustischen Störung in einem Fahrzeug unter Verwendung des Systems aus 1.
  • Die folgende detaillierte Beschreibung ist lediglich beispielhafter Natur und nicht dazu vorgesehen, die Erfindung oder die Anmeldung und Verwendungen der Erfindung einzuschränken. Weiterhin liegt keine Absicht vor, sich an eine in dem voranstehend beschriebenen Hintergrund beschriebene Theorie oder die folgende Beschreibung zu binden. Es ist hiermit klargestellt, dass die Zeichnungen und entsprechende Bezugszeichen entsprechende Teile oder Merkmale darstellen. Der Begriff “Modul”, wie er hierin verwendet wird, bezieht sich auf Hardware, Software, Firmware, elektronische Steuerungskomponenten, Verarbeitungsoperationen, und/oder einen Prozessor, unabhängig voneinander oder in Kombination, umfassend ohne Einschränkung: anwendungsspezifische integrierte Schaltkreise (ASIC), einen elektronischen Schaltkreis, einen Prozessor (geteilt, dediziert oder gruppiert) und Speicher, der ein oder mehrere Software oder Firmware Programme ausführt, einen kombinatorischen logischen Schaltkreis und/oder passende Komponenten, die die beschriebene Funktionalität bereitstellen.
  • Es wird ein System zum Erkennen einer Quelle einer akustischen Störung in einem Fahrzeug offenbart. In einer möglichen Ausgestaltung ist das System dazu konfiguriert, ein Gerät, wie bspw. ein Smartphone, einen „Tablet-Computer“ oder ein Dock zu umfassen. Das System kann an Bord eines Flugzeugs verstaut sein und von einem Mitglied einer Besatzung des Flugzeugs (oder von jeder anderen Person an Bord des Flugzeugsverwendet während des Flugs) verwendet werden, wenn eine akustische Störung auftritt. In anderen Worten, das System kann im Gegensatz zum Abwarten bis ein Testflug mit spezialisiertem Flugpersonal und Ausrüstung durchgeführt wird, wie es konventioneller Weise vorgesehen ist, sofort beim Erkennen eines Auftretens einer akustischen Störung von einem Mitglied einer Besatzung eines Flugzeugs an Bord des Flugzeugs verwendet werden. In Ausgestaltungen umfasst das Gerät eine Kamera mit einem Sichtfeld und das Dock umfasst eine Anreihung von Mikrofonen mit einem akustischen Sichtfeld, wobei das Kamera-Sichtfeld und das Mikrofon-Sichtfeld zueinander ausgerichtet sind und gemeinsam fluchten bzw. relativ zueinander ausgerichtet sind.
  • Wenn eine akustische Störung erfasst wird, kann das Mitglied der Besatzung des Flugzeugs das System aus dem Lagerraum des Flugzeugs nehmen. Als nächstes kann das Mitglied der Besatzung des Flugzeugs das Dock mit dem Gerät verbinden. Jedoch ist es denkbar, dass das Dock bereits mit dem Gerät bereits während der Lagerung verbunden ist. Das Mitglied der Besatzung des Flugzeugs kann die Anreihung von Mikrofonen und die Kamera in die Nähe der akustischen Störung ausrichten. Die Quelle kann in einem Abteil lokalisiert sein, das von einer Wand in einem Flugzeug aus einem Sichtbereich ausgeschlossen wird, so dass die Kamera ein Bild der Wand in der Nähe der Geräuschquelle aufnehmen wird und die Anreihung von Mikrofonen die Quelle der akustischen Störung aufnehmen wird. In Ausgestaltungen wird ein Klangkartensignal von der akustischen Störung erzeugt, wobei das Klangkartensignal das Bild überlagert, um ein Kamera/Klangkarten-Überlagerungssignal zu erzeugen. In Ausgestaltungen umfasst ein Bild eines Kamera/Klangkarten-Überlagerungssignals eine mehrfarbige Abschattung bzw. Tönung, die einen Ort bzw. eine Lokalisierung überlagert, wobei das Auftreten der Abschattung bzw. Tönung denjenigen Gebieten entspricht, von denen aus sich das Geräusch ausbreitet und die Färbung der Abschattung bzw. Tönung einer Amplitude des Geräuschs aus dem Klangkartensignal entspricht. In Ausgestaltungen umfasst das Gerät eine Anzeige zum Anzeigen des Kamera/Klangkarten-Überlagerungssignals, das von einem Mitglied der Besatzung des Flugzeugs gesehen werden kann.
  • Nach dem Erzeugen des Kamera/Klangkarten-Überlagerungssignals kann das Mitglied der Besatzung des Flugzeugs das Kamera/Klangkarten-Überlagerungssignal in einem Speicher des Geräts speichern oder das Kamera/Klangkarten-Überlagerungssignal zu einem Bodenpersonal übertragen. Das Mitglied der Besatzung des Flugzeugs kann dann das Dock von dem Gerät entfernen und das Gerät in dem Lagerraum verstauen. Jedoch ist es denkbar, dass das Dock während der Lagerung mit dem Gerät verbunden bleibt. Während einem Flug oder wenn das Flugzeug landet, kann ein Techniker am Boden das Kamera/Klangkarten-Überlagerungssignal überprüfen und die Quelle der akustischen Störung erkennen bzw. identifizieren ohne selbst während eines Testflugs an Bord des Flugzeugs sein zu müssen.
  • Ein besseres Verständnis des voranstehend beschriebenen Systems und des Verfahrens zum Erkennen einer Quelle einer akustischen Störung in einem Fahrzeug kann durch eine Durchsicht der dieser Anmeldung beigefügten Darstellungen zusammen mit einer Durchsicht der folgenden Beschreibung erreicht werden.
  • 1 ist eine perspektivische Ansicht einer nicht-einschränkenden Ausgestaltung eines Systems 10 zum Erkennen einer Quelle 12 einer akustischen Störung 14 in einem Fahrzeug. Die akustische Störung 14 kann jedes Geräusch sein. In manchen Ausgestaltungen kann die akustische Störung 14 eine Frequenz von 20 bis 20,000 Hz haben. Es versteht sich, dass auch wenn das Geräusch als akustische “Störung” bezeichnet wird, das Geräusch nicht notwendigerweise unerwünscht sein muss. In anderen Worten – die akustische Störung 14 kann auch ein erwünschtes Geräusch sein. Die Quelle 12 der akustischen Störung 14 kann durch Geräusche, Vibrationen, ein Quietschen oder ein Rattern von sich bewegenden oder fixierten Komponenten des Fahrzeugs bedingt sein. Die Quelle 12 kann von einem Hindernis, wie bspw. einer Wand, einem Abteil, einer Abdeckung, einem Boden, einer Decke usw. in einem Sichtfeld verdeckt werden.
  • 2 ist ein Blockdiagramm, das eine nicht-einschränkende Ausführung des Systems 10 darstellt. Das System 10 umfasst ein Gerät 16, ein Dock 18 und ein Prozessormodul 20. Wie nachstehend detailliert beschrieben, umfasst das System 10 weiterhin eine Batterie 22, ein Aufnahmegerät 24, einen Speicher 26, eine Anzeige 28 oder deren Kombinationen.
  • Das Gerät 16 umfasst eine Kamera 30, die dazu konfiguriert ist, einen visuellen Datensatz zu empfangen. Der visuelle Datensatz kann ein Bild sein, wie bspw. ein Standbild oder ein Video. Unter fortsetzender Bezugnahme auf 1 kann ein Betreiber das Gerät 16 verwenden, um einen visuellen Datensatz von einem Ort 32 in der Nähe der Quelle 12 der akustischen Störung 14 zu beschaffen, wenn das System dazu verwendet wird, eine akustische Störung zu erkennen. Der Ort 32 in der Nähe der Quelle 12 kann ein Hindernis umfassen, dass die Quelle 12 von der akustischen Störung 14 abschirmt bzw. verdeckt. In einem nicht-einschränkenden Beispiel kann die Quelle 12 innerhalb eines Abteils, das von einer Wand eines Flugzeugs gegenüber einem Blick abgedeckt wird, angeordnet sein. In diesem Beispiel wird die Kamera 30 ein Bild der Wand in der Nähe der Quelle 12 aufnehmen. Die Kamera 30 ist weiterhin dazu konfiguriert, ein Kamerasignal 34 in Reaktion auf den visuellen Datensatz bzw. ein Erzeugen oder ein Empfangen des visuellen Datensatzes zu erzeugen.
  • Das Dock 18 umfasst eine Anreihung 36 von Mikrofonen, um die akustische Störung 14 zu empfangen. In Ausgestaltungen hat die Anreihung 36 von Mikrofonen eine Frequenzantwort von 20 bis 20,000 Hz. Die Anreihung 36 von Mikrofonen ist weiterhin dazu konfiguriert ein Mikrofonsignal 38 in Reaktion auf die akustische Störquelle 14 bzw. das Empfangen der akustischen Störung 14 zu erzeugen. In Ausgestaltungen entspricht der visuelle Datensatz, der von der Kamera 30 empfangen wird, dem durch die Anreihung 36 von Mikrofonen erzeugten Mikrofonsignal 38.
  • Die Anreihung 36 von Mikrofonen kann mindestens zwei Mikrofone 40 umfassen, wie bspw. ein erstes Mikrofon 40’ und ein zweites Mikrofon 40’’. In Ausgestaltungen sind das erste Mikrofon 40’ und das zweite Mikrofon 40’’ jeweils dazu konfiguriert, die akustische Störung 14 zu erfassen. Weiterhin ist in Ausgestaltungen das erste Mikrofon 40’ dazu konfiguriert, ein erstes Mikrofonsignal in Reaktion auf die akustische Störquelle 14 bzw. das Empfangen der akustischen Störung 14 zu erzeugen, und das zweite Mikrofon 40’’ ist dazu konfiguriert, ein zweites Mikrofonsignal in Reaktion auf die akustische Störung 14 bzw. das Empfangen der akustischen Störung 14 zu erzeugen. Es ist denkbar, dass jedes der Mikrofone 40 dazu konfiguriert sein kann, die akustische Störung 14 zu erfassen, und jeweils ein Mikrofonsignal 38 in Reaktion auf die akustische Störung 14 bzw. das Empfangen der akustischen Störung 14 zu erzeugen. In Ausgestaltungen umfasst die Anreihung 36 von Mikrofonen Mikrofone 40 in einer Anzahl von 2 bis 30, von 3 bis 20 oder von 5 bis 15. In verschiedenen Ausführungen, sind das erste Mikrofon 40’ und das zweite Mikrofon 40’’ voneinander beabstandet mit einer Distanz von 2,54 mm (0.1 inches) bis 25,4 cm (10 inches), von 7,62 mm (0.3 inches) bis 12,7 cm (5 inches) oder von 1,27 cm (0.5 inches) bis 7,62 cm (3 inches). In anderen Worten sind, in einer beispielhaften Ausführung, wenn die Anreihung 36 von Mikrofonen fünfzehn Mikrofone 40 umfasst, mindestens zwei der fünfzehn Mikrofone, wie bspw. das erste Mikrofon 40’ und das zweite Mikrofon 40’’, voneinander beabstandet in einer Distanz von 2,54 mm (0.1 inches) bis 25,4 cm (10 inches), von 7,62 mm (0.3 inches) bis 12,7 cm (5 inches) oder von 1,27 cm (0.5 inches) bis 7,62 cm (3 inches). Eine exakte Beabstandung der Mikrofone 40 resultiert in einer erhöhten Auflösung des Rohsignals der Klangkarte 48. In verschiedenen Ausführungen sind die Mikrofone 40 in jedem passenden Muster, wie bspw. einem Spiralmuster oder einem fünfeckigen Muster, angeordnet.
  • Das Prozessormodul 20 ist dazu konfiguriert, kommunikativ mit dem Gerät 16 und dem Dock 18 verbunden zu werden. In verschiedenen Ausführungen ist das Prozessormodul 20 weiterhin dazu konfiguriert, kommunikativ mit der Kamera 30 und der Anreihung 36 von Mikrofonen verbunden zu werden. In Ausgestaltungen, führt das Prozessormodul 20 Berechnungsvorgänge aus und greift auf in dem Speicher 26 gespeicherte elektronische Daten zu. Das Prozessormodul 20 kann kommunikativ durch einen Kommunikationskanal verbunden werden. Der Kommunikationskanal kann als Draht, drahtlos oder eine Kombination daraus ausgeführt sein. Beispiele von drahtgebundenen Kommunikationskanälen umfassen, sind jedoch nicht beschränkt auf: Drähte, Glasfasern und Wellenleiter. Beispiele von drahtlosen Kommunikationskanälen umfassen, sind jedoch nicht beschränkt auf, Bluetooth, WLAN (Wi-Fi), oder radiofrequenzbasierte Kommunikationskanäle und Infrarot. Das Prozessormodul 20 kann weiterhin dazu konfiguriert sein, kommunikativ mit dem Fahrzeug oder einem Empfänger verbunden zu sein, der entfernt von dem Fahrzeug lokalisiert ist, wie bspw. Bodenpersonal. In Ausführungen umfasst das Prozessormodul 20 einen Prozessor 42 zur digitalen Strahlenformung (beamforming), einen Korrekturprozessor 44, einer Überlagerungsprozessor 46 oder eine Kombination daraus. Es ist denkbar, dass das Prozessormodul 20 zusätzliche Prozessoren zur Ausführung von Rechenoperationen und zum Zugriff auf in dem Speicher 26 gespeicherte elektronische Daten umfasst.
  • Das Prozessormodul 20 ist weiterhin dazu konfiguriert, ein Rohsignal 48 einer Klangkarte in Reaktion auf ein Mikrofonsignal 38 bzw. das Empfangen eines Mikrofonsignals 38 zu erzeugen. Genauer gesagt ist der Prozessor 42 zur digitalen Strahlenformung dazu konfiguriert, das Rohsignal 48 der Klangkarte in Reaktion auf das Mikrofonsignal 38 bzw. das Empfangen des Mikrofonsignals 38 zu erzeugen. In Ausführungen ist das Rohsignal 48 der Klangkarte ein multi-dimensionaler Datensatz der zumindest eine direkte Ausbreitung von Geräuschen in einer Umgebung beschreibt. Das Rohsignal 48 der Klangkarte kann weiterhin eine oder mehr Komponenten bzw. Dimensionen des Mikrofonsignals 38 beschreiben, wie bspw. Amplitude, Frequenz oder eine Kombination daraus. In einer beispielhaften Ausführung, beschreibt das Rohsignal 48 der Klangkarte weiterhin eine Amplitude des Mikrofonsignals 38.
  • In Ausführungen hat die Anreihung 36 von Mikrofonen ein akustisches Sichtfeld (FOV) 50. In Ausführungen hat das akustische FOV 50 eine im Allgemeinen konische Form, die sich von der Anreihung 36 von Mikrofonen aus erstreckt. In verschiedenen Ausführungen ist das Prozessormodul 20 weiterhin dazu konfiguriert, das akustische FOV 50 zu empfangen. Genauer gesagt ist der Korrekturprozessor 44 in manchen Ausführungen dazu konfiguriert, das akustische FOV 50 zu empfangen. Das akustische FOV 50 kann in dem Speicher 26 vorgegeben sein oder basierend auf einer Bedingung in der Umgebung (bspw. einer Lautstärke und/oder einem Typ der akustischen Störung, einer Lautstärke und/oder einem Typ von Hintergrundrauschen, einer Entfernung von der Anreihung 36 von Mikrofonen zu dem Ort 32 und/oder der Quelle 12, usw.) anpassbar sein. In verschiedenen Ausführungen, ist das Prozessormodul 20 dazu konfiguriert, jeden Teil des Mikrofonsignals 38 außerhalb des akustischen FOV 50 von dem Rohsignal 48 der Klangkarte zu entfernen, so dass das Rohsignal 49 der Klangkarte frei von jeglichen Anteilen des Mikrofonsignals 38 außerhalb des akustischen FOV 50 ist. Das akustische FOV 50 hat eine Winkelgröße ausgehend von der Anreihung 36 von Mikrofonen in einem Bereich von 1 bis 180, 50 bis 165 oder 100 bis 150, Grad.
  • In Ausführungen hat die Kamera 30 ein Kamera FOV 52. In Ausgestaltungen hat das Kamera FOV 52 eine ausgehend von der Kamera 30 im Allgemeinen konische Form. In verschiedenen Ausführungen ist das Prozessormodul 20 weiterhin dazu konfiguriert, das Kamera FOV 52 zu empfangen. Genauer gesagt ist der Korrekturprozessor 44 in manchen Ausführungen dazu konfiguriert, das Kamera FOV 52 zu empfangen. Das Kamera FOV 52 hat eine Winkelgröße ausgehend von der Kamera 30 in der Größe von 1 bis 180, 50 bis 150 oder 100 bis 130 Grad. In verschiedenen Ausführungen sind das akustische FOV 50 und das Kamera FOV 52 zumindest teilweise überlappend ausgeführt. In verschiedenen Ausführungen ist das Kamera FOV 52 in das akustische FOV 50 geneigt bzw. von diesem abgesetzt. Jedoch ist es denkbar, dass das akustische FOV 50 und das Kamera FOV 52 jede räumliche Verbindung haben, solange das akustische FOV 50 und das Kamera FOV 52 zumindest teilweise überlappen.
  • In Ausführungen ist das Prozessormodul 20 weiterhin dazu konfiguriert, sich gegenüber dem akustischen FOV 50 und dem Kamera FOV 52 auszurichten, und ein FOV Korrektursignal in Reaktion auf ein Ausrichten des akustischen FOV 50 und dem Kamera FOV 52 zu erzeugen. Genauer gesagt ist der Korrekturprozessor 44 in bestimmten Ausführungsformen dazu konfiguriert, das akustische FOV 50 und das Kamera FOV 52 zueinander auszurichten, und das FOV Korrektursignal in Reaktion auf das Ausrichten des akustischen FOV 50 und das Kamera FOV 52 zu erzeugen. In verschiedenen Ausführungsformen wird die Winkelgröße des akustischen FOV 50 erhöht oder verringert, um das akustische FOV 50 und das Kamera FOV 52 zueinander auszurichten. In einer beispielhaften Ausführung wird die Winkelgröße des akustischen FOV 50 reduziert, wenn das Kamera FOV 52 innerhalb des akustischen FOV 50 bzw. in das akustische FOV 50 geneigt wird, um das akustische FOV 50 an dem Kamera FOV 52 auszurichten. In einer anderen beispielhaften Ausführungsform wird die Winkelgröße des akustischen FOV 50 reduziert, um das akustische FOV 50 an dem Kamera FOV 52 auszurichten, wenn das akustische FOV 50 und das Kamera FOV 52 teilweise überlappen. Es ist denkbar, dass sämtliche Eigenschaften und/oder Dimensionen des akustischen FOV 50 und des Kamera FOV 52 angepasst werden können, um das akustische FOV 50 und das Kamera FOV 52 aneinander bzw. zueinander auszurichten. Beispiele von Eigenschaften und/oder Dimensionen, die angepasst werden können, sind, jedoch nicht ausschließlich: Auflösungen, Bitraten, laterale Größen der FOVs, longitudinale Größe der FOVs, Umfang der FOVs, usw.
  • In Ausführungsformen ist das Prozessormodul 20 weiterhin dazu konfiguriert, das FOV Korrektursignal an dem Rohsignal 48 der Klangkarte anzuwenden und ein korrigiertes Klangkartensignal 56 in Reaktion auf das Anwenden des FOV Korrektursignals auf das Rohsignal 48 der Klangkarte zu erzeugen. Genauer gesagt kann der Korrekturprozessor 44 in bestimmten Ausführungen dazu konfiguriert sein, das FOV Korrektursignal auf das Rohsignal 48 der Klangkarte anzuwenden und ein korrigiertes Klangkartensignal 56 in Reaktion auf das Anwenden des FOV Korrektursignals auf das Rohsignal 48 der Klangkarte zu erzeugen. In bestimmten Ausführungen ist der Korrekturprozessor 48 dazu konfiguriert, jeden Anteil des Rohsignals 48 der Klangkarte außerhalb des Kamera FOVs 52 zu entfernen und ein korrigiertes Klangkartensignal 56 zu erzeugen.
  • Das Prozessormodul 20 ist auch dazu konfiguriert, das Kamerasignal 34 und das Rohsignal 48 der Klangkarte zu kombinieren und ein Kamera/Klangkarten-Überlagerungssignal 58 in Reaktion auf das Kombinieren des Kamerasignals 34 und des Rohsignals 48 der Klangkarte zu erzeugen. Genauer gesagt ist der Überlagerungsprozessor 46 in bestimmten Ausführungen dazu konfiguriert, das Kamerasignal 34 und das Rohsignal 48 der Klangkarte zu kombinieren und das Kamera/Klangkarten-Überlagerungssignal 58 in Reaktion auf das Kombinieren des Kamerasignals 34 und des Rohsignals 48 der Klangkarte zu erzeugen. In Ausführungen ist das Kamera/Klangkarten-Überlagerungssignal 58 ein Bild des Ortes 32 mit dem Rohsignal 48 der Klangkarte, das den Ort 32 überlagert. Insbesondere umfasst das Kamera/Klangkarten-Überlagerungssignal 58 eine mehrfarbige Schattierung, die den Ort 32 überlagert, wobei das Auftreten der Schattierung Gebieten des Ortes 32 entspricht, die Geräusche verbreiten und die Färbung der Schattierung der Amplitude des Geräuschs von dem Rohsignal 48 der Klangkarte entspricht.
  • In Ausführungen ist das Prozessormodul 20 auch dazu konfiguriert, das Kamerasignal 34 und das korrigierte Klangkartensignal 56 zu kombinieren und in Reaktion auf das Kombinieren des Kamerasignals 34 und des korrigierten Klangkartensignals 56 ein Kamera/Klangkarten-Überlagerungssignal 58 zu erzeugen. Genauer gesagt ist der Überlagerungsprozessor 46 in bestimmten Ausführungen dazu konfiguriert, das Kamerasignal 34 und das korrigierte Klangkartensignal 56 zu kombinieren und das Kamera/Klangkarten-Überlagerungssignal 58 in Reaktion auf ein Kombinieren des Kamerasignals 34 und des korrigierten Klangkartensignals 56 zu erzeugen. In Ausführungen ist das Kamera/Klangkarten-Überlagerungssignal 58 ein Bild des Ortes 32, wobei das korrigierte Klangkartensignal 56 den Ort 32 überlagert. Insbesondere umfasst das Bild des Kamera/Klangkarten-Überlagerungssignals 58 in Ausführungsformen eine mehrfarbige Schattierung, die den Ort 32 überlagert, wobei das Auftreten der Schattierung Gebieten des Ortes 32 entspricht, die Geräusche verbreiten und die Färbung der Schattierung der Amplitude des Geräuschs von dem korrigierten Klangkartensignal 56 entspricht.
  • 3 ist ein Blockdiagramm, das eine andere nicht-einschränkende Ausführung des Systems 10 aus 1 dargestellt. In Ausführungen ist das Prozessormodul 20 mit dem Gerät 16, dem Dock 18 oder beiden, dem Gerät 16 und dem Dock 18 verbunden. Jedoch ist es denkbar, dass das Prozessormodul 20 getrennt von beiden, dem Gerät 16 und dem Dock 18 vorliegen kann. In bestimmten Ausführungen umfasst das Prozessormodul 20 ein erstes Prozessormodul 20’ und ein zweites Prozessormodule 20’’. Das erste Prozessormodul 20’ kann den Prozessor 42 zur digitalen Strahlenformung und den Korrekturprozessor 44 umfassen. Das zweite Prozessormodul 20’’ kann den Überlagerungsprozessor 46 umfassen. In einer beispielhaften Ausführung kann das erste Prozessormodul 20’ verbunden sein mit dem Dock 18, so dass der Prozessor 42 zur digitalen Strahlenformung und der Korrekturprozessor 44 mit dem Dock 18 verbunden sind und das zweite Prozessormodul 20’’ mit dem Gerät 16 verbunden sein kann, so dass der Überlagerungsprozessor 46 mit dem Gerät 16 verbunden ist. Der Prozessor 42 zur digitalen Strahlenformung, der Korrekturprozessor 44 und der Überlagerungsprozessor 46 sind dazu konfiguriert, miteinander oder mit der Kamera 30 und der Anreihung 36 von Mikrofonen verbunden zu werden.
  • 4 und 5 sind Ansichten aus einer erhöhten Perspektive, die nicht-einschränkende Ausführungsformen des Systems 10 aus 1 zeigen. Das Dock 18 hat eine erste Oberfläche (nicht dargestellt), die dazu konfiguriert ist, das Gerät 16 aufzunehmen und eine zweite Oberfläche 60, die die Anreihung 36 von Mikrofonen umfasst, wobei die Anreihung 36 von Mikrofonen von dem Dock 18 weg zeigt. Wie in 4 gezeigt, umfasst die Anreihung 36 von Mikrofonen in bestimmten Ausführungen sechs Mikrofone. Wie in 5 gezeigt, umfasst die Anreihung 36 von Mikrofonen in bestimmten Ausführungen 15 Mikrofone.
  • Wie es auch in 4 und 5 gezeigt ist, ist die Kamera 30 des Geräts 16 durch das Dock 18 belichtet. Das Dock 18 kann eine Blende bilden, um die Kamera 30 durch das Dock 18 zu belichten. In Ausführungen ist die Kamera 30 versetzt von einem Zentrum der Anreihung 36 von Mikrofonen angeordnet. Wegen der versetzten Anordnung der Kamera 30 in Bezug auf die Anreihung 36 von Mikrofonen, kann eine Korrektur des Rohsignals 48 der Klangkarte unter Verwendung des Korrekturprozessors 44 notwendig sein. Die Kamera 30 kann eine Videokamera, eine Standbildkamera, eine Wärmebildkamera oder jeder andere Kameratyp sein, wie er im Stand der Technik zur Aufnahme eines visuellen Datensatzes bekannt ist. In einer beispielhaften Ausführung ist die Kamera 30 eine Videokamera.
  • 6 ist eine Ansicht aus einer erhöhten Perspektive, einer Frontalansicht einer nicht-einschränkenden Ausführung des Systems 10 aus 1. Das Dock 18 ist dazu konfiguriert, lösbar mit dem Gerät 16 verbunden zu werden. Das Gerät 16 hat eine erste Oberfläche 62 und eine zweite Oberfläche (nicht dargestellt) gegenüber der ersten Oberfläche 62. Die erste Oberfläche 62 und die zweite Oberfläche des Geräts 16 können sich bis zu einer Geräteperipherie bzw. einen Rand des Geräts 16 (nicht dargestellt) erstrecken. Das Dock 18 kann dazu konfiguriert sein, das Gerät 16 aufzunehmen und sich über die Geräteperipherie bzw. den Rand des Geräts 16 hinaus zu erstrecken, wie es bspw. bei einem Smartphone der Fall ist. Jedoch ist es denkbar, dass das Dock 18 lediglich teilweise bzw. an bestimmten Teilen das Gerät 16 aufnehmen kann. In bestimmten Ausführungen ist das Gerät 16 weiterhin als mobiles Gerät ausgeführt. Beispiele eines mobilen Geräts umfassen, sind jedoch nicht beschränkt auf, ein Mobiltelefon (bspw. ein Smartphone), einen mobilen bzw. tragbaren Computer (bspw. ein Tablet-Computer oder ein Laptop), ein tragbares Gerät bzw. ein sogenanntes “wearable” (bspw. eine Smartwatch oder ein Headset), einen holografischen Projektor oder jedes andere eine Kamera umfassende Gerät, wie es im Stand der Technik bekannt ist. In einer beispielhaften Ausführung ist das mobile Gerät ein Smartphone oder ein Tablet-Computer.
  • Das Gerät 16 kann seinen eigenen Prozessor umfassen, der zusätzlich zu anderen Berechnungsfunktionen, die dem Gerät 16 selbst zuzuordnen sind, als Überlagerungsprozessor 46 arbeitet. In Ausführungen ist die Kamera 30 (gezeigt in 4 und 5) der zweiten Oberfläche des Geräts 16 zugeordnet, so dass während der Verwendung des Systems 10 die zweite Oberfläche des Geräts 16 und die Kamera 30 auf den Ort 32 in der Nähe der Quelle 12 der akustischen Störung 14 zeigen. Die erste Oberfläche 62 des Geräts 16 kann weiterhin die Anzeige 28 umfassen, die dazu konfiguriert ist, das Kamera/Klangkarten-Überlagerungssignal 58 anzuzeigen. Es ist denkbar, dass die Anzeige 28 dazu konfiguriert sein kann, jedes von dem System 10 erzeugte Signal anzuzeigen.
  • 7 ist eine perspektivische Ansicht, die eine nicht-einschränkende Ausführung des Systems aus 1 zeigt. In Ausführungen umfasst das Dock 18 einen ersten Teil 64 und einen zweiten Teil 66, der benachbart zu dem ersten Teil 64 ist. Der erste Teil 64 ist dazu konfiguriert, lösbar mit dem Gerät 16 verbunden zu werden. Der zweite Teil 66 umfasst die Anreihung 36 von Mikrofonen, den Prozessor 42 zur digitalen Strahlenformung und den Korrekturprozessor 44.
  • Wie voranstehend beschrieben und in 1 gezeigt, kann das System 10 weiterhin den Speicher 26 umfassen, wobei der Speicher 26 dazu konfiguriert ist, das Kamera/Klangkarten-Überlagerungssignal 58 in dem Speicher 26 zu definieren bzw. zu speichern. Jedoch ist es denkbar, dass der Speicher 26 dazu konfiguriert sein kann jedes von dem System 10 erzeugte Signal zu definieren bzw. zu speichern. In bestimmten Ausführungen umfasst das Gerät 16 den Speicher 26. Jedoch ist es denkbar, dass der Speicher 26 mit dem Dock 18 verbunden ist oder getrennt von dem Gerät 16 und dem Dock 18 vorgesehen ist.
  • Wie auch voranstehend beschrieben und in 1 gezeigt, kann das System 10 weiterhin das Aufnahmegerät 24 umfassen, wobei das Aufnahmegerät 24 dazu konfiguriert ist, das Kamera/Klangkarten-Überlagerungssignal 58 auszustrahlen. Jedoch ist es denkbar, dass das Aufnahmegerät 24 dazu konfiguriert sein kann jedes von dem System 10 erzeugte Signal auszustrahlen. In bestimmten Ausführungen, wie in 2 gezeigt, umfasst das Gerät 16 das Aufnahmegerät 24. Jedoch ist es denkbar, dass das Aufnahmegerät 24 mit dem Dock 18 verbunden oder getrennt von dem Gerät 16 und dem Dock 18 ausgeführt ist.
  • Wie auch voranstehend beschrieben und in 1 gezeigt, kann das System 10 weiterhin die Batterie 22 umfassen, wobei die Batterie dazu konfiguriert ist, mindestens eines von dem Gerät 16 oder dem Dock 18 mit Energie zu versorgen. Jedoch ist es denkbar, dass die Batterie 22 dazu konfiguriert sei kann, jede Komponente des Systems 10 mit Energie zu versorgen. In bestimmten Ausführungen, wie in 2 gezeigt, umfasst das Gerät 16 die Batterie 22. Jedoch ist es denkbar, dass die Batterie 22 mit dem Dock verbunden sein kann oder getrennt von dem Gerät 16 und dem Dock 18 ausgeführt sein kann.
  • Das Gerät 16 kann weiterhin eine Datenschnittstelle umfassen und das Dock kann weiterhin einen Datenanschluss bzw. einen Datensteckverbinder umfassen. Die Datenschnittstelle kann dazu konfiguriert sein, den Datenanschluss bzw. den Datensteckverbinder aufzunehmen und die Datenschnittstelle mit dem Datenanschluss bzw. dem Datensteckverbinder elektrisch zu verbinden. Das Gerät 16 und das Dock 18 können dazu konfiguriert sein, miteinander kommunikativ verbunden zu werden. Weiterhin kann die Datenschnittstelle dazu konfiguriert sein, Energie von der Batterie 22 des Geräts 16 zu dem Dock 18 zu übertragen.
  • Mit fortlaufender Bezugnahme auf 17 ist 8 ein Flussdiagramm, das eine nicht-einschränkende Ausführung eines Verfahren zum Erkennen der Quelle 12 der akustischen Störung 14 in dem Fahrzeug unter Verwendung des Systems aus 1 zeigt. In Ausführungen umfasst das Verfahren den Schritt des Verbindens des Docks 18 mit dem Gerät 16. In Ausführungen umfasst das Verfahren den Schritt des Ausrichtens des Docks 18 zu der Quelle 12, so dass die zweite Oberfläche 60 auf die Quelle 12 zeigt. Das Verfahren umfasst weiterhin en Schritt der Aufnahme eines visuellen Datensatzes unter Verwendung der Kamera 30. Der visuelle Datensatz kann von dem Ort 32 in der Nähe der Quelle 12 der akustischen Störung 14 aufgenommen werden. Das Verfahren umfasst weiterhin den Schritt des Erzeugens des Kamerasignals 34 in Reaktion auf den visuellen Datensatz bzw. ein Aufnehmen des visuellen Datensatzes. Das Verfahren umfasst weiterhin den Schritt des Empfanges der akustischen Störquelle 14 unter Verwendung der Anreihung 36 von Mikrofonen. Das Verfahren umfasst weiterhin den Schritt des Erzeugens des Mikrofonsignals 38 in Reaktion auf die akustische Störung 14 bzw. das Empfangen der akustischen Störung 14. Das Verfahren umfasst weiterhin den Schritt des Erzeugens des Rohsignals 48 der Klangkarte in Reaktion auf das Mikrofonsignal 48 bzw. das Erzeugen des Mikrofonsignals 38. Das Verfahren umfasst weiterhin den Schritt der Kombination des Kamerasignals 34 mit dem Rohsignal 48 der Klangkarte. Das Verfahren umfasst weiterhin den Schritt des Erzeugens des Kamera/Klangkarten-Überlagerungssignals 58 in Reaktion auf das Kombinieren des Kamerasignals 34 mit dem Rohsignal 48 der Klangkarte. Das Verfahren umfasst weiterhin den Schritt des Anzeigens des Kamera/Klangkarten-Überlagerungssignals 58 auf der Anzeige 28.
  • In Ausführungen, wenn die Anreihung 36 von Mikrofonen die akustische FOV 50 hat und die Kamera 30 die Kamera FOV 52 hat, umfasst das Verfahren weiterhin den Schritt des Empfangens der akustischen FOV 50 und der Kamera FOV 52. Das Verfahren umfasst weiterhin den Schritt des Ausrichtens der akustischen FOV 50 und der Kamera FOV 52. Das Verfahren umfasst weiterhin den Schritt des Erzeugens des FOV Korrektursignals in Reaktion auf das Ausrichten der akustischen FOV 50 und der Kamera FOV 52. Das Verfahren umfasst weiterhin den Schritt des Anwendens des FOV Korrektursignals auf das Rohsignal 48 der Klangkarte. Das Verfahren umfasst weiterhin den Schritt des Erzeugens des korrigierten Klangkartensignals 56 in Reaktion auf die Anwendung des FOV Korrektursignals auf des Rohsignal 48 der Klangkarte. Das Verfahren umfasst weiterhin den Schritt des Kombinierens des Kamerasignals 34 und des korrigierten Klangkartensignals 56. Das Verfahren umfasst ferner den Schritt des Erzeugens des Kamera/Klangkarten-Überlagerungssignals 58 in Reaktion auf das Kombinieren des Kamerasignals 34 und des korrigierten Klangkartensignals 56.
  • In Ausführungen, wenn das Gerät 16 das Aufnahmegerät 24 umfasst, umfasst das Verfahren weiterhin, den Schritt des Ausstrahlens des Kamera/Klangkarten-Überlagerungssignals 58 durch das Aufnahmegerät 24. In Ausführungsformen, wenn das Gerät 16 den Speicher 26 umfasst, umfasst das Verfahren ferner das Speichern des Kamera/Klangkarten-Überlagerungssignals 58 in dem Speicher 26. In Ausführungsformen, wenn das Prozessormodul 20 mit dem Empfänger, der entfernt von dem Fahrzeug lokalisiert ist, wie bspw. Bodenpersonal, in kommunikativer Verbindung steht, umfasst das Verfahren den Schritt des Sendens des Kamera/Klangkarten-Überlagerungssignals 58 zu dem Empfänger.
  • Während mindestens eine beispielhafte Ausführungsform in der voranstehenden Beschreibung vorgestellt wurde, ist darauf hinzuweisen, dass eine große Anzahl an Variationen existieren. Es ist auch darauf hinzuweisen, dass die beispielhafte Ausführung oder die beispielhaften Ausführungen lediglich Beispiele sind und nicht dazu vorgesehen sind, den Schutzbereich, den Anwendungsbereich oder die Konfiguration der Erfindung in irgendeiner Weise einzuschränken. Vorzugsweise wird die voranstehende Beschreibung dem Fachmann eine geeignete Anleitung zum Umsetzen einer beispielhaften Ausführung der Erfindung bereitstellen. Es versteht sich, dass verschiedene Veränderungen in der Funktion und der Anordnung von Elementen gemacht werden können, die in einer beispielhaften Ausführung beschrieben sind, ohne den in den beigefügten Ansprüchen offenbarten Gegenstand zu verlassen.

Claims (20)

  1. System zum Erkennen einer Quelle einer akustischen Störung in einem Fahrzeug, wobei das System umfasst: ein Gerät, das eine Kamera umfasst, die dazu konfiguriert ist, einen visuellen Datensatz zu empfangen und ein Kamerasignal in Reaktion auf den Empfang des visuellen Datensatzes zu erzeugen; ein Dock, das dazu konfiguriert ist, lösbar mit dem Gerät verbunden zu werden, wobei das Dock eine Anreihung von Mikrofonen zum Empfangen der akustischen Störung und zum Erzeugen eines Mikrofonsignals in Reaktion auf das Empfangen der akustischen Störung umfasst; und ein Prozessormodul, das dazu konfiguriert ist, mit dem Gerät kommunikativ verbunden zu werden, Ein Rohsignal einer Klangkarte in Reaktion auf das Erzeugen des Mikrofonsignals zu erzeugen, das Kamerasignal mit dem Rohsignal der Klangkarte zu kombinieren und in Reaktion auf das Kombinieren des Kamerasignals und des Rohsignals der Klangkarte ein Kamera/Klangkarten-Überlagerungssignal zu erzeugen.
  2. System nach Anspruch 1, wobei das Dock eine erste Oberfläche hat, die dazu konfiguriert ist, das Gerät aufzunehmen und eine zweite Oberfläche, die die Anreihung von Mikrofonen umfasst, wobei die Anreihung von Mikrofonen von dem Dock weg zeigt.
  3. System nach Anspruch 1, wobei die Anreihung von Mikrofonen ein akustisches Sichtfeld (FOV) hat, die Kamera ein Kamera FOV hat und das akustische FOV und das Kamera FOV zumindest teilweise überlappen.
  4. System nach Anspruch 3, wobei das Prozessormodul dazu konfiguriert ist, jeden Teil des Mikrofonsignals, der außerhalb des akustischen FOV liegt, von einem Rohsignal der Klangkarte zu entfernen.
  5. System nach Anspruch 3, wobei das Prozessormodul weiterhin einen Korrekturprozessor umfasst, der dazu konfiguriert ist, das akustische FOV und das Kamera FOV zu empfangen, das akustische FOV und das Kamera FOV auszurichten, in Reaktion auf das Ausrichten des akustischen FOV und des Kamera FOV ein FOV Korrektursignal zu erzeugen, das FOV Korrektursignal auf das Rohsignal der Klangkarte anzuwenden und in Reaktion auf das Anwenden des FOV Korrektursignals auf das Rohsignal der Klangkarte ein korrigiertes Klangkartensignal zu erzeugen.
  6. Das System nach Anspruchs 5, wobei der Korrekturprozessor mit dem Dock verbunden ist.
  7. Das System nach Anspruch 5, wobei das Prozessormodul einen Überlagerungsprozessor umfasst, der dazu konfiguriert ist, das Kamerasignal und das korrigierte Klangkartensignal zu kombinieren und in Reaktion auf die Kombination des Kamerasignals und des korrigierten Klangkartensignals das Kamera/Klangkarten-Überlagerungssignal zu erzeugen.
  8. System nach Anspruch 7, wobei der Überlagerungsprozessor mit dem Gerät verbunden ist.
  9. System nach Anspruch 1, wobei das Prozessormodul einen Prozessor zur digitalen Strahlenformung umfasst, der dazu konfiguriert ist, in Reaktion auf das Erzeugen des Mikrofonsignals das Rohsignal der Klangkarte zu erzeugen.
  10. System nach Anspruch 9, wobei der Prozessor zur digitalen Strahlenformung mit dem Dock verbunden ist.
  11. System nach Anspruch 1, wobei die Anreihung von Mikrofonen ein erstes Mikrofon und ein zweites Mikrofon umfasst, wobei das erste Mikrofon und das zweite Mikrofon jeweils dazu konfiguriert sind, die akustische Störquelle zu empfangen, und wobei das erste Mikrofon dazu konfiguriert ist, in Reaktion auf den Empfang der akustischen Störquelle ein erstes Mikrofonsignal zu erzeugen und das zweite Mikrofon dazu konfiguriert ist, in Reaktion auf den Empfang der akustischen Störquelle ein zweites Mikrofonsignal zu erzeugen.
  12. System nach Anspruch 1, wobei das Gerät eine Datenschnittstelle umfasst und das Dock einen Datensteckverbinder umfasst, wobei die Datenschnittstelle dazu konfiguriert ist, den Datensteckverbinder aufzunehmen und die Datenschnittstelle elektrisch mit dem Datensteckverbinder zu verbinden, um eine Datenverbindung bereitzustellen, und wobei das Gerät und das Dock dazu konfiguriert sind, über die Datenverbindung kommunikativ miteinander verbunden zu werden.
  13. System nach Anspruch 1, wobei das Gerät weiterhin einen Speicher umfasst, der dazu konfiguriert ist, das Kamera/Klangkarten-Überlagerungssignal in dem Speicher zu speichern.
  14. System nach Anspruch 1, wobei das Gerät weiterhin eine Anzeige umfasst, die dazu konfiguriert ist, das Kamera/Klangkarten-Überlagerungssignal anzuzeigen.
  15. System nach Anspruch 1, wobei das Gerät weiterhin als mobiles Gerät ausgestaltet ist.
  16. Verfahren zum Erkennen einer Quelle einer akustischen Störung in einem Fahrzeug unter Verwendung eines Systems, das ein Gerät und ein Dock umfasst, wobei das Gerät eine Kamera und eine Anzeige umfasst und das Dock eine Anreihung von Mikrofonen umfasst, wobei das Verfahren umfasst: Empfangen eines visuellen Datensatzes unter Verwendung der Kamera; Erzeugen eines Kamerasignals in Reaktion auf das Empfangen des visuellen Datensatzes; Empfangen der akustischen Störung unter Verwendung der Anreihung von Mikrofonen; Erzeugen eines Mikrofonsignals in Reaktion auf das Empfangen der akustischen Störung; Erzeugen eines Rohsignals einer Klangkarte in Reaktion auf das Erzeugen des Mikrofonsignals; Kombinieren des Kamerasignals und des Rohsignals der Klangkarte; Erzeugen eines Kamera/Klangkarten-Überlagerungssignals in Reaktion auf das Kombinieren des Kamerasignals und des Rohsignals der Klangkarte, und Anzeigen des Kamera/Klangkarten-Überlagerungssignals auf der Anzeige.
  17. Verfahren nach Anspruch 16, wobei die Anreihung von Mikrofonen ein akustisches Sichtfeld (FOV) und die Kamera ein Kamera FOV hat, wobei das akustische FOV und das Kamera FOV zumindest teilweise überlappen, und wobei das Verfahren weiterhin umfasst: Empfangen des akustischen FOV und des Kamera FOV; Ausrichten des akustischen FOV und des Kamera FOV; Erzeugen eines FOV Korrektursignals in Reaktion auf das Ausrichten des akustischen FOV und des Kamera FOV; Anwenden des FOV Korrektursignals auf das Rohsignal der Klangkarte; und Erzeugen eines korrigierten Klangkartensignals in Reaktion auf das Anwenden des FOV Korrektursignals auf das Rohsignal der Klangkarte.
  18. Verfahren nach Anspruch 17, wobei das Verfahren weiterhin umfasst: Kombinieren des Kamerasignals und des korrigierten Klangkartensignals, und Erzeugen des Kamera/Klangkarten-Überlagerungssignals in Reaktion auf das Kombinieren des Kamerasignals und des korrigierten Klangkartensignals.
  19. Verfahren nach Anspruch 16, wobei das Gerät weiterhin einen Speicher umfasst, und wobei das Verfahren weiterhin das Speichern des Kamera/Klangkarten-Überlagerungssignals in dem Speicher umfasst.
  20. Verfahren nach Anspruch 16, weiterhin umfassend das Verbinden des Geräts mit dem Dock.
DE102017121411.9A 2016-09-30 2017-09-15 System zum Erkennen einer Quelle einer akustischen Störung in einem Fahrzeug Pending DE102017121411A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/281,560 2016-09-30
US15/281,560 US9883302B1 (en) 2016-09-30 2016-09-30 System for identifying a source of an audible nuisance in a vehicle

Publications (1)

Publication Number Publication Date
DE102017121411A1 true DE102017121411A1 (de) 2018-04-05

Family

ID=61005600

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017121411.9A Pending DE102017121411A1 (de) 2016-09-30 2017-09-15 System zum Erkennen einer Quelle einer akustischen Störung in einem Fahrzeug

Country Status (3)

Country Link
US (2) US9883302B1 (de)
CN (1) CN107889040B (de)
DE (1) DE102017121411A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10594987B1 (en) * 2018-05-30 2020-03-17 Amazon Technologies, Inc. Identifying and locating objects by associating video data of the objects with signals identifying wireless devices belonging to the objects
EP3997895A1 (de) * 2019-07-08 2022-05-18 DTS, Inc. Nicht-koinzidentes audiovisuelles erfassungssystem
US20220237660A1 (en) * 2021-01-27 2022-07-28 Baüne Ecosystem Inc. Systems and methods for targeted advertising using a customer mobile computer device or a kiosk

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8229134B2 (en) * 2007-05-24 2012-07-24 University Of Maryland Audio camera using microphone arrays for real time capture of audio images and method for jointly processing the audio images with video images
CN103941223B (zh) * 2013-01-23 2017-11-28 Abb技术有限公司 声源定位系统及其方法
KR20140114238A (ko) * 2013-03-18 2014-09-26 삼성전자주식회사 오디오와 결합된 이미지 표시 방법
KR102127640B1 (ko) * 2013-03-28 2020-06-30 삼성전자주식회사 휴대 단말 및 보청기와 휴대 단말에서 음원의 위치를 제공하는 방법
JP6089948B2 (ja) 2013-05-14 2017-03-08 日産自動車株式会社 車両の異音判定装置および異音判定方法
CN104376849A (zh) * 2013-08-14 2015-02-25 Abb技术有限公司 区分声音的系统和方法及状态监控系统和移动电话机
US20150098577A1 (en) 2013-10-04 2015-04-09 Js Products, Inc. Systems and methods for identifying noises
US20160165341A1 (en) * 2014-12-05 2016-06-09 Stages Pcs, Llc Portable microphone array
US9736580B2 (en) * 2015-03-19 2017-08-15 Intel Corporation Acoustic camera based audio visual scene analysis
US10028053B2 (en) * 2015-05-05 2018-07-17 Wave Sciences, LLC Portable computing device microphone array
US10909384B2 (en) * 2015-07-14 2021-02-02 Panasonic Intellectual Property Management Co., Ltd. Monitoring system and monitoring method

Also Published As

Publication number Publication date
US20190028823A1 (en) 2019-01-24
CN107889040A (zh) 2018-04-06
US10225673B2 (en) 2019-03-05
US9883302B1 (en) 2018-01-30
CN107889040B (zh) 2020-09-15

Similar Documents

Publication Publication Date Title
DE112016000545B4 (de) Kontextabhängiges schalten von mikrofonen
DE102015107677B4 (de) Rundum-Sicht-Kamerasystem- (VPM-) Online-Kalibrierung
DE102014108684B4 (de) Fahrzeug mit Umfeldüberwachungseinrichtung sowie Verfahren zum Betreiben einer solchen Überwachungseinrichtung
DE102018105951B4 (de) Verfahren zum dynamischen anzeigen von bildern auf einer elektronischen anzeigevorrichtung eines fahrzeugs
EP2464098B1 (de) Umfeld-Darstellungsvorrichtung sowie ein Fahrzeug mit einer derartigen Umfeld-Darstellungsvorrichtung und Verfahren zur Darstellung eines Panoramabildes
DE102017121411A1 (de) System zum Erkennen einer Quelle einer akustischen Störung in einem Fahrzeug
DE102015110619A1 (de) Zentralisierte Radarverfahren und -Systeme
DE102015107675A9 (de) System und Verfahren zur Schätzung einer Fahrzeugdynamik unter Verwendung von Merkmalpunkten in Bildern von mehreren Kameras
DE112018003270T5 (de) Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren und programm
DE102015112605A1 (de) System zum bestimmen eines kupplungswinkels
DE102011078539A1 (de) Verfahren und Vorrichtung zur Erweiterung der Ausleuchtung eines Prüfobjekts
EP4116790B1 (de) Steuer- und navigationsvorrichtung für ein autonom bewegtes system und autonom bewegtes system
DE102021100492A1 (de) Anzeigesteuervorrichtung, anzeigesteuerverfahren und programm
DE102010064080A1 (de) Kameraabasiertes Fahrerassistenzsystem für ein Fahrzeug
DE102020111629A1 (de) Videozeileninversion zum Reduzieren des Einflusses von periodischen Interferenzsignalen auf analoge Videoübertragung
DE102014201409A1 (de) Parkplatz - trackinggerät und verfahren desselben
DE102020102348A1 (de) Systeme und verfahren zur live-video-einfriererfassung
DE102008024067B4 (de) Anordnung und Verfahren zur Kalibrierung eines Mikrofonarrays
DE102013213475A1 (de) Baugruppe für ein Fahrassistenzsystem und Verfahren zum Betrieb eines Fahrassistenzsystems
DE102019008427A1 (de) Verfahren zur Koordination von mindestens einer LIDAR-Vorrichtung mit mindestens einer NIR-Sensorvorrichtung sowie Umgebungserfassungsvorrichtung für ein Fahrzeug
DE102020215651A1 (de) Fahrzeugsichtsystem
DE102017006877A1 (de) Vorrichtung und Verfahren zum Erfassen von Flugkörpern mit einem Stereokamerasystem und einem Hochfrequenzscanner
DE102013102207A1 (de) Kamerasystem für ein Fahrzeug
DE102014220586A1 (de) Außenspiegelersatzsystem für eine Zugfahrzeug-Anhänger-Kombination
DE102019210667A1 (de) Umfelderkennung basierend auf akustischen Sensoren