DE112021001686T5 - Audioverarbeitungssystem, Audioverarbeitungsvorrichtung und Audioverarbeitungsverfahren - Google Patents

Audioverarbeitungssystem, Audioverarbeitungsvorrichtung und Audioverarbeitungsverfahren Download PDF

Info

Publication number
DE112021001686T5
DE112021001686T5 DE112021001686.5T DE112021001686T DE112021001686T5 DE 112021001686 T5 DE112021001686 T5 DE 112021001686T5 DE 112021001686 T DE112021001686 T DE 112021001686T DE 112021001686 T5 DE112021001686 T5 DE 112021001686T5
Authority
DE
Germany
Prior art keywords
signal
audio
microphone
adaptive filter
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112021001686.5T
Other languages
English (en)
Inventor
Tomofumi Yamanashi
Yutaka Banba
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PANASONIC AUTOMOTIVE SYSTEMS CO., LTD., YOKOHA, JP
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of DE112021001686T5 publication Critical patent/DE112021001686T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1783Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase handling or detecting of non-standard events or conditions, e.g. changing operating modes under specific operating conditions
    • G10K11/17833Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase handling or detecting of non-standard events or conditions, e.g. changing operating modes under specific operating conditions by using a self-diagnostic function or a malfunction prevention function, e.g. detecting abnormal output levels
    • G10K11/17835Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase handling or detecting of non-standard events or conditions, e.g. changing operating modes under specific operating conditions by using a self-diagnostic function or a malfunction prevention function, e.g. detecting abnormal output levels using detection of abnormal input signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1785Methods, e.g. algorithms; Devices
    • G10K11/17853Methods, e.g. algorithms; Devices of the filter
    • G10K11/17854Methods, e.g. algorithms; Devices of the filter the filter being an adaptive filter
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1781Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions
    • G10K11/17821Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase characterised by the analysis of input or output signals, e.g. frequency range, modes, transfer functions characterised by the analysis of the input signals only
    • G10K11/17827Desired external signals, e.g. pass-through audio such as music or speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1787General system configurations
    • G10K11/17873General system configurations using a reference signal without an error signal, e.g. pure feedforward
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/305Electronic adaptation of stereophonic audio signals to reverberation of the listening space
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2200/00Details of methods or devices for transmitting, conducting or directing sound in general
    • G10K2200/10Beamforming, e.g. time reversal, phase conjugation or similar
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/10Applications
    • G10K2210/108Communication systems, e.g. where useful sound is kept and noise is cancelled
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/10Applications
    • G10K2210/128Vehicles
    • G10K2210/1282Automobiles
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/30Means
    • G10K2210/301Computational
    • G10K2210/3045Multiple acoustic inputs, single acoustic output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/50Miscellaneous
    • G10K2210/505Echo cancellation, e.g. multipath-, ghost- or reverberation-cancellation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L2021/02082Noise filtering the noise being echo, reverberation of the speech
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/003Mems transducers or their use
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones

Landscapes

  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Otolaryngology (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Human Computer Interaction (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

Ein Audioverarbeitungssystem enthält: mindestens ein erstes Mikrofon, das ein erstes Audiosignal erlangt und ein erstes Signal auf Grundlage des ersten Audiosignals ausgibt, wobei das erste Audiosignal mindestens eine aus einer ersten Audiokomponente, erzeugt an einer ersten Position, und einer zweiten Audiokomponente enthält, erzeugt an einer zweiten, von der ersten Position verschiedenen Position; mindestens ein adaptives Filter, in das das erste Signal eingegeben wird, und das ein Durchlasssignal auf Grundlage des ersten Signals ausgibt; eine Bestimmungseinheit, die eine Bestimmung vornimmt, welche aus der ersten Audiokomponente und der zweiten Audiokomponente das erste Audiosignal mehr enthält; und eine Steuereinheit, die einen Filterkoeffizienten des adaptiven Filters auf Grundlage eines Ergebnisses der Bestimmung steuert.

Description

  • Technisches Gebiet
  • Die vorliegende Offenbarung betrifft ein Audioverarbeitungssystem, eine Audioverarbeitungsvorrichtung und ein Audioverarbeitungsverfahren.
  • Technischer Hintergrund
  • In einer fahrzeugmontierten Spracherkennungsvorrichtung und einer Freisprecheinrichtung ist ein Echounterdrücker zum Entfernen von Umgebungsschall und Erkennen des alleinigen Schalls eines Sprechers bekannt. Die Patentschrift 1 offenbart einen Echounterdrücker, der die Anzahl der zu betreibenden adaptiven Filter und die Anzahl der Abgriffe gemäß der Anzahl von Schallquellen umschaltet.
  • Liste der Anführungen
  • Patentliteratur
  • Patentschrift 1: Japanisches Patent Nr. 4889810
  • Zusammenfassung der Erfindung
  • Wenn eine Echounterdrückung unter Verwendung eines adaptiven Filters durchgeführt wird, wird durch eine Schallaufnahmevorrichtung aufgefangener Umgebungsschall als ein Referenzsignal in das adaptive Filter eingegeben. Wenn beispielsweise Schallaufnahmevorrichtungen vorgesehen sind, um Schallquellen eine nach der anderen anzusprechen, die Schall aussenden können, und ein Referenzsignal von einer Schallaufnahmevorrichtung ausgegeben wird, kann in dem Referenzsignal enthaltener Schall als solcher identifiziert werden, der an einer Position einer Schallquelle aufgetreten ist, die durch eine Schallaufnahmevorrichtung angesprochen wird, von der das Referenzsignal eingegeben wurde. Objektschall kann erhalten werden durch ein Subtrahieren des Referenzsignals von einem Signal, das den Objektschall enthält, unter Berücksichtigung der Erzeugungsposition von in dem Referenzsignal enthaltenem Umgebungsschall.
  • Wenn dagegen die Anzahl von Schallaufnahmevorrichtungen kleiner ist als die Anzahl von Schallquellen, die Schall aussenden können, kann ein einzelnes Referenzsignal Schall von einer Vielzahl von Schallquellen enthalten. In diesem Fall kann die Position, wo der in dem Referenzsignal enthaltene Schall erzeugt wird, allein aus dem Referenzsignal nicht identifiziert werden. Daher kann es schwierig sein, den Objektschall durch ein Entfernen von Umgebungsschall zu erhalten. Es ist vorteilhaft, wenn Objektschall durch ein Entfernen von Umgebungsschall sogar erhalten werden kann, wenn die Anzahl von Schallaufnahmevorrichtungen kleiner ist als die Anzahl von Schallquellen, die Schall aussenden können. Weiterhin ist es vorteilhaft, wenn ein Verarbeitungsaufwand zum Erhalten des Objektschalls durch ein Entfernen von Umgebungsschall reduziert sein kann.
  • Die vorliegende Offenbarung betrifft ein Audioverarbeitungssystem, eine Audioverarbeitungsvorrichtung und ein Audioverarbeitungsverfahren, die in der Lage sind, mindestens eine der oben beschriebenen Aufgaben bei der Echounterdrückung unter Verwendung eines adaptiven Filters zu lösen.
  • Ein Audioverarbeitungssystem gemäß einem Aspekt der vorliegenden Offenbarung enthält: mindestens ein erstes Mikrofon, das ein erstes Audiosignal erlangt und ein erstes Signal auf Grundlage des ersten Audiosignals ausgibt, wobei das erste Audiosignal mindestens eine aus einer ersten Audiokomponente, erzeugt an einer ersten Position, und einer zweiten Audiokomponente enthält, erzeugt an einer zweiten, von der ersten Position verschiedenen Position; mindestens ein adaptives Filter, in das das erste Signal eingegeben wird, und das ein Durchlasssignal auf Grundlage des ersten Signals ausgibt; eine Bestimmungseinheit, die eine Bestimmung vornimmt, welche aus der ersten Audiokomponente und der zweiten Audiokomponente das erste Audiosignal mehr enthält; und eine Steuereinheit, die einen Filterkoeffizienten des adaptiven Filters auf Grundlage eines Ergebnisses der Bestimmung steuert.
  • Eine Audioverarbeitungsvorrichtung gemäß einem Aspekt der vorliegenden Offenbarung enthält: mindestens eine Empfangseinheit, die ein erstes Signal auf Grundlage eines ersten Audiosignals empfängt, das mindestens eine aus einer ersten Audiokomponente, erzeugt an einer ersten Position, und einer zweiten Audiokomponente enthält, erzeugt an einer zweiten, von der ersten Position verschiedenen Position; mindestens ein adaptives Filter, in das das erste Signal eingegeben wird, und das ein Durchlasssignal auf Grundlage des ersten Signals ausgibt; eine Bestimmungseinheit, die eine Bestimmung vornimmt, welche aus der ersten Audiokomponente und der zweiten Audiokomponente das erste Audiosignal mehr enthält; und eine Steuereinheit, die einen Filterkoeffizienten des adaptiven Filters auf Grundlage eines Ergebnisses der Bestimmung steuert.
  • Ein Audioverarbeitungsverfahren gemäß einem Aspekt der vorliegenden Offenbarung enthält: Empfangen eines ersten Signals auf Grundlage eines ersten Audiosignals, das mindestens eine aus einer ersten Audiokomponente, erzeugt an einer ersten Position, und einer zweiten Audiokomponente enthält, erzeugt an einer zweiten, von der ersten Position verschiedenen Position; wobei das erste Signal in das mindestens eine adaptive Filter eingegeben wird und das mindestens eine adaptive Filter ein Durchlasssignal auf Grundlage des ersten Signals ausgibt; Vornehmen einer Bestimmung, welche aus der ersten Audiokomponente und der zweiten Audiokomponente das erste Audiosignal mehr enthält; und ein Steuern eines Filterkoeffizienten des adaptiven Filters auf Grundlage eines Ergebnisses der Bestimmung.
  • Anzumerken ist, dass diese umfassenden oder spezifischen Aspekte durch ein System, ein Verfahren, eine integrierte Schaltung, ein Computerprogramm oder ein Aufzeichnungsmedium umgesetzt sein können oder durch eine beliebige Kombination aus einem System, einer Vorrichtung, einem Verfahren, einer integrierten Schaltung, einem Computerprogramm und einem Aufzeichnungsmedium umgesetzt sein können.
  • Gemäß der vorliegenden Offenbarung kann der Objektschall durch ein Entfernen von Umgebungsschall erhalten werden, sogar wenn die Anzahl von Schallaufnahmevorrichtungen kleiner ist als die Anzahl von Schallquellen, die Schall aussenden können. Alternativ kann gemäß der vorliegenden Offenbarung ein Verarbeitungsaufwand zum Erhalten des Objektschalls durch ein Entfernen von Umgebungsschall reduziert sein.
  • Figurenliste
    • 1 stellt ein Beispiel des schematischen Aufbaus eines Audioverarbeitungssystems in einer ersten Ausführungsform dar;
    • 2 ist ein Blockdiagramm, das den Aufbau einer Audioverarbeitungsvorrichtung in der ersten Ausführungsform darstellt;
    • 3A stellt eine zeitliche Wellenform eines Audiosignals (des Audiosignals C) dar, das in der Audioverarbeitungsvorrichtung verwendet wird;
    • 3B stellt eine zeitliche Wellenform eines Audiosignals (des ersten Richtungsabhängigkeitssignals) dar, das in der Audioverarbeitungsvorrichtung verwendet wird;
    • 3C stellt eine zeitliche Wellenform eines Audiosignals (des zweiten Richtungsabhängigkeitssignals) dar, das in der Audioverarbeitungsvorrichtung verwendet wird;
    • 4 stellt ein gemitteltes Frequenzspektrum eines Audiosignals dar, das in der Audioverarbeitungsvorrichtung verwendet wird;
    • 5 ist ein Flussdiagramm, das einen Betriebsablauf der Audioverarbeitungsvorrichtung in der ersten Ausführungsform darstellt;
    • 6 stellt ein Beispiel des schematischen Aufbaus eines Audioverarbeitungssystems in einer zweiten Ausführungsform dar;
    • 7 ist ein Blockdiagramm, das den Aufbau einer Audioverarbeitungsvorrichtung in der zweiten Ausführungsform darstellt;
    • 8 ist ein Flussdiagramm, das einen Betriebsablauf der Audioverarbeitungsvorrichtung in der zweiten Ausführungsform darstellt;
    • 9 stellt ein Beispiel des schematischen Aufbaus eines Audioverarbeitungssystems in einer dritten Ausführungsform dar;
    • 10 ist ein Blockdiagramm, das den Aufbau einer Audioverarbeitungsvorrichtung in der dritten Ausführungsform darstellt;
    • 11 ist ein Flussdiagramm, das einen Betriebsablauf der Audioverarbeitungsvorrichtung in der dritten Ausführungsform darstellt;
    • 12 stellt ein Beispiel des schematischen Aufbaus eines Audioverarbeitungssystems in einer vierten Ausführungsform dar;
    • 13 ist ein Blockdiagramm, das den Aufbau einer Audioverarbeitungsvorrichtung in der vierten Ausführungsform darstellt;
    • 14 ist ein Flussdiagramm, das einen Betriebsablauf der Audioverarbeitungsvorrichtung in der vierten Ausführungsform darstellt;
    • 15A stellt ein Beispiel eines Spektrums eines Audiosignals (ersten Richtungsabhängigkeitssignals) dar, das in einer Audioverarbeitungsvorrichtung verwendet wird;
    • 15B stellt ein Beispiel eines Spektrums eines Audiosignals (zweiten Richtungsabhängigkeitssignals) dar, das in der Audioverarbeitungsvorrichtung verwendet wird;
    • 15C stellt ein Beispiel eines Spektrums eines Audiosignals C dar, das in der Audioverarbeitungsvorrichtung verwendet wird;
    • 15D stellt ein Beispiel eines Spektrums eines Ausgangssignals der Audioverarbeitungsvorrichtung dar;
    • 16 stellt ein Beispiel des schematischen Aufbaus eines Audioverarbeitungssystems in einer fünften Ausführungsform dar;
    • 17 ist ein Blockdiagramm, das den Aufbau einer Audioverarbeitungsvorrichtung in der fünften Ausführungsform darstellt;
    • 18 ist ein Flussdiagramm, das einen Betriebsablauf der Audioverarbeitungsvorrichtung in der fünften Ausführungsform darstellt;
    • 19 stellt ein Beispiel des schematischen Aufbaus eines Audioverarbeitungssystems in einer sechsten Ausführungsform dar;
    • 20 ist ein Blockdiagramm, das den Aufbau einer Audioverarbeitungsvorrichtung in der sechsten Ausführungsform darstellt; und
    • 21 ist ein Flussdiagramm, das einen Betriebsablauf der Audioverarbeitungsvorrichtung in der sechsten Ausführungsform darstellt.
  • Beschreibung von Ausführungsformen
  • Nachstehend sind Ausführungsformen der vorliegenden Offenbarung ggf. unter Bezugnahme auf die Zeichnung genau beschrieben. Jedoch ist zu beachten, dass eine unnötig genaue Beschreibung weggelassen sein kann. Es ist anzumerken, dass die begleitende Zeichnung und die folgende Beschreibung für Fachleute vorgesehen sind, damit sie die vorliegende Offenbarung gründlich verstehen, und den in den Ansprüchen beschriebenen Gegenstand nicht einschränken sollen.
  • (Erste Ausführungsform)
  • 1 stellt ein Beispiel des schematischen Aufbaus eines Audioverarbeitungssystems 5 gemäß einer ersten Ausführungsform dar. Das Audioverarbeitungssystem 5 ist beispielsweise an einem Fahrzeug 10 montiert. Nachfolgend ist ein Beispiel beschrieben, in dem das Audioverarbeitungssystem 5 an dem Fahrzeug 10 montiert ist. Eine Vielzahl von Sitzen ist im Inneren des Fahrzeugs 10 vorgesehen. Die Vielzahl von Sitzen enthält beispielsweise vier Sitze, d.h. einen Fahrersitz, einen Beifahrersitz sowie einen linken und einen rechten Rücksitz. Der rechte Rücksitz ist ein Beispiel einer ersten Position. Der linke Rücksitz ist ein Beispiel einer zweiten Position. Die Anzahl von Sitzen ist nicht hierauf beschränkt. Das Audioverarbeitungssystem 5 enthält ein Mikrofon MC1, ein Mikrofon MC2, ein Mikrofon MC3 und Audioverarbeitungsvorrichtungen 20. Die Ausgaben der Audioverarbeitungsvorrichtungen 20 werden in eine Schallerkennungsengine (nicht dargestellt) eingegeben. Ein Schallerkennungsergebnis von der Schallerkennungsengine wird in eine Elektronikvorrichtung 50 eingegeben.
  • Das Mikrofon MC1 nimmt durch einen Fahrer hm1 geäußerten Schall auf. Mit anderen Worten, das Mikrofon MC1 erlangt ein Audiosignal, das eine durch den Fahrer hm1 geäußerte Audiokomponente enthält. Das Mikrofon MC1 ist beispielsweise auf der rechten Seite einer obenliegenden Konsole angeordnet. Das Mikrofon MC2 nimmt durch einen Insassen hm2 geäußerten Schall auf. Mit anderen Worten, das Mikrofon MC2 erlangt ein Audiosignal, das eine durch den Insassen hm2 geäußerte Audiokomponente enthält. Das Mikrofon MC2 ist beispielsweise auf der rechten Seite der obenliegenden Konsole angeordnet. Das Mikrofon MC3 nimmt durch einen Insassen hm3 geäußerten Schall und durch einen Insassen hm4 geäußerten Schall auf. Mit anderen Worten, das Mikrofon MC3 erlangt Audiosignale, die eine durch den Insassen hm3 geäußerte Audiokomponente und eine durch den Insassen hm4 geäußerte Audiokomponente enthalten. Das Mikrofon MC3 ist beispielsweise nahe der Mitte des Himmels der Rücksitze angeordnet. Das Mikrofon MC1 befindet sich weiter weg vom rechten Sitz der Rücksitze als das Mikrofon MC3. Das Mikrofon MC2 befindet sich weiter weg vom linken Sitz der Rücksitze als das Mikrofon MC3.
  • Die Anordnungspositionen des Mikrofons MC1, des Mikrofons MC2 und des Mikrofons MC3 sind nicht auf das beschriebene Beispiel beschränkt. Beispielsweise kann das Mikrofon MC1 auf der rechten Vorderfläche eines Armaturenbretts angeordnet sein. Das Mikrofon MC2 kann auf der linken Vorderfläche des Armaturenbretts angeordnet sein.
  • Jedes Mikrofon kann ein Richtmikrofon oder ein omnidirektionales Mikrofon sein. Jedes Mikrofon kann ein MEMS-Mikrofon (Small Micro Electro Mechanical System, kleines mikroelektromechanisches System) oder ein Elektretkondensatormikrofon (Electret Condenser Microphone, ECM) sein. Jedes Mikrofon kann ein Mikrofon sein, das in der Lage ist, eine Strahlformung durchzuführen. Zum Beispiel kann jedes Mikrofon eine Mikrofonanordnung sein, die eine Richtwirkung in einer Richtung zu jedem Sitz aufweist, und die Schall in einem richtungsabhängigen Verfahren aufnehmen kann.
  • In der Ausführungsform enthält das Audioverarbeitungssystem 5 eine Vielzahl von Audioverarbeitungsvorrichtungen 20, die die jeweiligen Mikrofone ansprechen. Genauer enthält das Audioverarbeitungssystem 5 eine Audioverarbeitungsvorrichtung 21, eine Audioverarbeitungsvorrichtung 22 und eine Audioverarbeitungsvorrichtung 23. Die Audioverarbeitungsvorrichtung 21 spricht das Mikrofon MC1 an. Die Audioverarbeitungsvorrichtung 22 spricht das Mikrofon MC2 an. Die Audioverarbeitungsvorrichtung 23 spricht das Mikrofon MC3 an. Nachstehend können die Audioverarbeitungsvorrichtung 21, die Audioverarbeitungsvorrichtung 22 und die Audioverarbeitungsvorrichtung 23 zusammenfassend als die Audioverarbeitungsvorrichtungen 20 bezeichnet sein.
  • Obwohl in dem in 1 dargestellten Aufbau die Audioverarbeitungsvorrichtung 21, die Audioverarbeitungsvorrichtung 22 und die Audioverarbeitungsvorrichtung 23 jeweils als durch unterschiedliche Hardwareelemente aufgebaut beschrieben sind, kann eine einzelne Audioverarbeitungsvorrichtung 20 die Funktionen der Audioverarbeitungsvorrichtung 21, der Audioverarbeitungsvorrichtung 22 und der Audioverarbeitungsvorrichtung 23 verwirklichen. Alternativ können einige aus der Audioverarbeitungsvorrichtung 21, der Audioverarbeitungsvorrichtung 22 und der Audioverarbeitungsvorrichtung 23 durch gemeinsame Hardware aufgebaut sein und können die anderen durch unterschiedliche Hardwareelemente aufgebaut sein.
  • In der Ausführungsform ist jede der Audioverarbeitungsvorrichtungen 20 in einem jeweiligen Sitz in der Nähe des jeweiligen entsprechenden Mikrofons angeordnet. Zum Beispiel ist die Audioverarbeitungsvorrichtung 21 im Fahrersitz angeordnet. Die Audioverarbeitungsvorrichtung 22 ist im Beifahrersitz angeordnet. Die Audioverarbeitungsvorrichtung 23 ist in einem Rücksitz angeordnet. Jede der Audioverarbeitungsvorrichtungen 20 kann in dem Armaturenbrett angeordnet sein.
  • 2 ist ein Blockdiagramm, das den Aufbau des Audiosystems 5 und den Aufbau der Audioverarbeitungsvorrichtung 21 darstellt. Wie in 2 dargestellt, enthält das Audiosystem 5 zusätzlich zu der Audioverarbeitungsvorrichtung 21, der Audioverarbeitungsvorrichtung 22 und der Audioverarbeitungsvorrichtung 23 ferner eine Schallerkennungsengine 40 und die Elektronikvorrichtung 50. Die Ausgänge der Audioverarbeitungsvorrichtungen 20 werden in die Schallerkennungsengine 40 eingegeben. Die Schallerkennungsengine 40 erkennt den in einem Ausgangssignal von mindestens einer Audioverarbeitungsvorrichtung 20 enthaltenen Schall und gibt ein Schallerkennungsergebnis aus. Die Schallerkennungsengine 40 erzeugt ein Schallerkennungsergebnis und ein Signal auf Grundlage des Schallerkennungsergebnisses. Das Signal auf Grundlage des Schallerkennungsergebnisses ist beispielsweise ein Betriebssignal der Elektronikvorrichtung 50. Ein Schallerkennungsergebnis von der Schallerkennungsengine 40 wird in die Elektronikvorrichtung 50 eingegeben. Die Schallerkennungsengine 40 kann eine Vorrichtung sein, die von der Audioverarbeitungsvorrichtung 20 getrennt ist. Die Schallerkennungsengine 40 ist beispielsweise innerhalb eines Armaturenbretts angeordnet. Die Schallerkennungsengine 40 kann innerhalb eines Sitzes untergebracht und angeordnet sein. Alternativ kann die Schallerkennungsengine 40 eine integrierte Vorrichtung sein, die in die Audioverarbeitungsvorrichtung 20 integriert ist.
  • Ein von der Schallerkennungsengine 40 ausgegebenes Signal wird in die Elektronikvorrichtung 50 eingegeben. Die Elektronikvorrichtung 50 führt beispielsweise einen Vorgang des Ausgebens eines Betriebssignals durch. Die Elektronikvorrichtung 50 ist beispielsweise an dem Armaturenbrett des Fahrzeugs 10 angeordnet. Die Elektronikvorrichtung 50 ist beispielsweise eine Fahrzeugnavigationsvorrichtung. Die Elektronikvorrichtung 50 kann ein Armatureninstrument, ein Fernseher oder eine Mobilfunk-Endeinrichtung sein.
  • Obwohl 1 einen Fall darstellt, in dem sich vier Personen in dem Fahrzeug befinden, ist die Anzahl der Personen, die sich in dem Fahrzeug befinden, nicht darauf beschränkt. Die Anzahl der Insassen muss nur gleich oder kleiner als die maximale Personenbeförderungskapazität des Fahrzeugs sein. Wenn beispielsweise das Fahrzeug die maximale Personenbeförderungskapazität von sechs aufweist, kann die Anzahl von Insassen sechs betragen oder kann fünf oder weniger betragen.
  • Alle aus der Audioverarbeitungsvorrichtung 21, der Audioverarbeitungsvorrichtung 22 und der Audioverarbeitungsvorrichtung 23 weisen ähnliche Aufbauten und Funktionen auf, mit Ausnahme eines Teils des Aufbaus einer Filtereinheit, die weiter unten beschrieben ist. Hier ist die Audioverarbeitungsvorrichtung 21 beschrieben. Die Audioverarbeitungsvorrichtung 21 legt durch den Fahrer hm1 geäußerten Schall als eine Objektkomponente fest. Hier bedeutet ein Festlegen als eine Objektkomponente ein Einstellen als ein zu erlangendes Audiosignal. Die Audioverarbeitungsvorrichtung 21 gibt als ein Ausgangssignal ein Audiosignal aus, das durch ein Unterdrücken einer Übersprechkomponente eines durch das Mikrofon MC1 aufgenommenen Audiosignals erhalten ist. Hier ist die Übersprechkomponente eine Störgeräuschkomponente, die einen Schall eines anderen Insassen enthält als des Insassen, der den als die Objektkomponente festgelegten Schall äußert.
  • Wie in 2 dargestellt, enthält die Audioverarbeitungsvorrichtung 21 eine Schalleingabeeinheit 29, eine Richtungsabhängigkeitssteuerungseinheit 30, eine Filtereinheit F1, eine Steuereinheit 28 und eine Addiereinheit 27. Die Filtereinheit F1 enthält eine Vielzahl von adaptiven Filtern. Die Steuereinheit 28 steuert die Filterkoeffizienten der Vielzahl von adaptiven Filtern.
  • Jedes aus dem Mikrofon MC1, dem Mikrofon MC2 und dem Mikrofon MC3 gibt ein Signal auf Grundlage eines Audiosignals des aufgenommenen Schalls an die Schalleingabeeinheit 29 aus. Die Audiosignale von durch das Mikrofon MC1, das Mikrofon MC2 und das Mikrofon MC3 aufgenommenem Schall werden in die Schalleingabeeinheit 29 eingegeben.
  • Das Mikrofon MC1 gibt ein Audiosignal A an die Schalleingabeeinheit 29 aus. Das Audiosignal A enthält Schall des Fahrers hm1 und Störgeräusche, einschließlich Schall eines anderen Insassen als des Fahrers hml. Hier ist in der Audioverarbeitungsvorrichtung 21 der Schall des Fahrers hm1 eine Objektkomponente, und das Störgeräusch, das den Schall eines anderen Insassen als des Fahrers hm1 enthält, ist eine Übersprechkomponente. Das Mikrofon MC1 entspricht einem zweiten Mikrofon. Der durch das Mikrofon MC1 aufgenommene Schall entspricht einem zweiten Audiosignal. Der Schall eines anderen Insassen als des Fahrers hm1 enthält mindestens einen aus Schall des Insassen hm3 und Schall des Insassen hm4. Das Audiosignal A entspricht einem zweiten Signal.
  • Das Mikrofon MC2 gibt ein Audiosignal B an die Schalleingabeeinheit 29 aus. Das Audiosignal B enthält Schall des Fahrers hm2 und Störgeräusche, einschließlich Schall eines anderen Insassen als des Fahrers hm2. Das Mikrofon MC2 entspricht einem dritten Mikrofon. Der durch das Mikrofon MC2 aufgenommene Schall entspricht einem dritten Audiosignal. Der Schall eines anderen Insassen als des Fahrers hm2 enthält mindestens einen aus Schall des Insassen hm3 und Schall des Insassen hm4. Das Audiosignal B entspricht einem dritten Signal.
  • Das Mikrofon MC3 gibt ein Audiosignal C an die Schalleingabeeinheit 29 aus. Das Audiosignal C enthält Schall des Insassen hm3, Schall des Insassen hm4 und Störgeräusche, einschließlich Schall eines anderen Insassen als des Insassen hm3 und des Insassen hm4. Das Mikrofon MC3 entspricht einem ersten Mikrofon. Durch das Mikrofon MC3 aufgenommener Schall entspricht einem ersten Audiosignal. Schall des Insassen hm3 entspricht einer ersten Audiokomponente, und Schall des Insassen hm4 entspricht einer zweiten Audiokomponente. Das Audiosignal C entspricht einem ersten Signal.
  • Die Schalleingabeeinheit 29 gibt das Audiosignal A, das Audiosignal B und das Audiosignal C aus. Die Schalleingabeeinheit 29 entspricht einer Empfangseinheit.
  • Obwohl in der Ausführungsform die Audioverarbeitungsvorrichtung 21 eine Schalleingabeeinheit 29 enthält, in die Audiosignale von allen Mikrofonen eingegeben werden, kann die Audioverarbeitungsvorrichtung 21 die Schalleingabeeinheit 29 enthalten, in die ein entsprechendes Audiosignal für jedes Mikrofon eingegeben wird. Zum Beispiel kann ein Audiosignal von durch das Mikrofon MC1 aufgenommenem Schall in eine dem Mikrofon MC1 entsprechende Schalleingabeeinheit eingegeben werden. Ein Audiosignal von durch das Mikrofon MC2 aufgenommenem Schall kann in eine weitere, dem Mikrofon MC2 entsprechende Schalleingabeeinheit eingegeben werden. Ein Audiosignal von durch das Mikrofon MC3 aufgenommenem Schall kann in eine weitere, dem Mikrofon MC3 entsprechende Schalleingabeeinheit eingegeben werden.
  • Das Audiosignal A, das Audiosignal B und das Audiosignal C, die von der Schalleingabeeinheit 29 ausgegeben werden, werden in die Richtungsabhängigkeitssteuerungseinheit 30 eingegeben. Die Richtungsabhängigkeitssteuerungseinheit 30 führt eine Richtungsabhängigkeitssteuerungsverarbeitung unter Verwendung des Audiosignals A und des Audiosignals B durch. Bei der Richtungsabhängigkeitssteuerungsverarbeitung wird ein Audiosignal, das mehr Schall in einer Objektrichtung enthält, beispielsweise auf Grundlage eines Audiosignals erzeugt. Die Richtungsabhängigkeitssteuerungsverarbeitung ist beispielsweise eine Strahlformung. Dann gibt die Richtungsabhängigkeitssteuerungseinheit 30 ein erstes Richtungsabhängigkeitssignal aus, erhalten durch ein Durchführen der Richtungsabhängigkeitssteuerungsverarbeitung an dem Audiosignal A. Zum Beispiel erhält die Richtungsabhängigkeitssteuerungseinheit 30 das erste Richtungsabhängigkeitssignal durch ein Durchführen der Richtungsabhängigkeitssteuerungsverarbeitung an dem Audiosignal A derart, dass das Audiosignal A mehr Schall in einer Richtung von dem Mikrofon MC1 zum Fahrersitz hin enthält. Weiterhin gibt die Richtungsabhängigkeitssteuerungseinheit 30 ein zweites Richtungsabhängigkeitssignal aus, erhalten durch ein Durchführen der Richtungsabhängigkeitssteuerungsverarbeitung an dem Audiosignal B. Zum Beispiel erhält die Richtungsabhängigkeitssteuerungseinheit 30 das zweite Richtungsabhängigkeitssignal durch ein Durchführen der Richtungsabhängigkeitssteuerungsverarbeitung an dem Audiosignal B derart, dass das Audiosignal B mehr Schall in einer Richtung von dem Mikrofon MC2 zum Beifahrersitz hin enthält.
  • Weiterhin enthält die Richtungsabhängigkeitssteuerungseinheit 30 eine Bestimmungseinheit 35. Die Bestimmungseinheit 35 bestimmt, ob eine Audiokomponente in das Mikrofon MC3 eingegeben wurde. Zum Beispiel bestimmt die Bestimmungseinheit 35, dass ein Audiosignal in das Mikrofon MC3 eingegeben wurde, wenn das Audiosignal C eine größere Intensität aufweist als mindestens eine aus der Intensität des ersten Richtungsabhängigkeitssignals und der Intensität des zweiten Richtungsabhängigkeitssignals, und bestimmt, dass kein Audiosignal in das Mikrofon MC3 eingegeben wurde, wenn dies nicht der Fall ist.
  • Weiterhin bestimmt die Bestimmungseinheit 35, welchen aus Schall des Insassen hm3 und Schall des Insassen hm4 das Audiosignal C mehr enthält. In der Ausführungsform bestimmt die Bestimmungseinheit 35, welchen aus Schall des Insassen hm3 und Schall des Insassen hm4 das Audiosignal C mehr enthält, auf Grundlage des ersten Richtungsabhängigkeitssignals und des zweiten Richtungsabhängigkeitssignals. Mit anderen Worten, die Bestimmungseinheit 35 bestimmt, welchen aus Schall des Insassen hm3 und Schall des Insassen hm4 das Audiosignal C mehr enthält, auf Grundlage des Audiosignals A und des Audiosignals B. Wenn beispielsweise der Insasse hm3 eine Äußerung abgibt und der Insasse hm4 keine Äußerung abgibt, enthält das Audiosignal C Schall des Insassen hm3 und enthält keinen Schall des Insassen hm4. Es ist jedoch schwierig, nur durch das Audiosignal C zu bestimmen, welcher aus Schall des Insassen hm3 und Schall des Insassen hm4 enthalten ist. Somit bestimmt die Bestimmungseinheit 35 nach dem folgenden Verfahren, welchen aus Schall des Insassen hm3 und Schall des Insassen hm4 das Audiosignal C mehr enthält. Hier enthält ein Fall von „das Audiosignal C enthält mehr Schall des Insassen hm3“ auch einen Fall, wo das Audiosignal C Schall des Insassen hm3 enthält und keinen Schall des Insassen hm4 enthält. Zum Beispiel vergleicht die Bestimmungseinheit 35 die Intensität des ersten Richtungsabhängigkeitssignals mit derjenigen des zweiten Richtungsabhängigkeitssignals. Wenn dann das erste Richtungsabhängigkeitssignal eine größere Intensität aufweist als die Intensität des zweiten Richtungsabhängigkeitssignals, bestimmt die Bestimmungseinheit 35, dass das Audiosignal C mehr Schall des Insassen hm3 enthält. Alternativ bestimmt, wenn das zweite Richtungsabhängigkeitssignal eine größere Intensität aufweist als die Intensität des ersten Richtungsabhängigkeitssignals, die Bestimmungseinheit 35, dass das Audiosignal C mehr Schall des Insassen hm4 enthält. Die Bestimmungseinheit 35 kann bestimmen, welchen Schall das Audiosignal C mehr enthält, auf Grundlage der Intensität des ersten Richtungsabhängigkeitssignals und der Intensität des zweiten Richtungsabhängigkeitssignals zu dem Zeitpunkt, wenn das Audiosignal C maximiert ist. Die Intensität eines Signals kann auch als die Größe eines Signals oder der Pegel eines Signals bezeichnet werden.
  • Obwohl in der Ausführungsform die Bestimmungseinheit 35 der Richtungsabhängigkeitssteuerungseinheit 30 bestimmt, ob eine Audiokomponente in das Mikrofon MC3 eingegeben wurde, und welchen aus Schall des Insassen hm3 und Schall des Insassen hm4 das Audiosignal C mehr enthält, kann die Audioverarbeitungsvorrichtung 21 die Bestimmungseinheit 35 getrennt von der Richtungsabhängigkeitssteuerungseinheit 30 enthalten. In diesem Fall ist die Bestimmungseinheit 35 beispielsweise zwischen der Schalleingabeeinheit 29 und der Richtungsabhängigkeitssteuerungseinheit 30 angeschlossen. Zum Beispiel ist die Funktion der Bestimmungseinheit 35 durch einen Prozessor verwirklicht, der ein in einem Speicher gespeichertes Programm ausführt. Die Funktion der Bestimmungseinheit 35 kann durch Hardware verwirklicht sein. Alternativ kann die Audioverarbeitungsvorrichtung 21 nur die Bestimmungseinheit 35 enthalten und braucht die Richtungsabhängigkeitssteuerungseinheit 30 nicht zu enthalten. Zum Beispiel kann die Bestimmungseinheit 35 bestimmen, dass ein Audiosignal in das Mikrofon MC3 eingegeben wurde, wenn das Audiosignal C eine größere Intensität aufweist als mindestens eine aus der Intensität des Audiosignals A und der Intensität des Audiosignals B, und bestimmen, dass kein Audiosignal in das Mikrofon MC3 eingegeben wurde, wenn dies nicht der Fall ist. Weiterhin kann die Bestimmungseinheit 35 beispielsweise auf Grundlage des Audiosignals A und des Audiosignals B bestimmen, welchen aus Schall des Insassen hm3 und Schall des Insassen hm4 das Audiosignal C mehr enthält.
  • Im Folgenden ist beschrieben, warum durch ein Vergleichen der Intensität des ersten Richtungsabhängigkeitssignals mit derjenigen des zweiten Richtungsabhängigkeitssignals bestimmt werden kann, Schall welches Insassen das Audiosignal C mehr enthält. Da der durch den Insassen hm3 auf dem rechten Sitz der Rücksitze geäußerte Schall vorwärts gerichtet ist, nehmen auch das Mikrofon MC1 und das Mikrofon MC2 den Schall auf. Der Abstand zwischen dem rechten Sitz der Rücksitze und dem Mikrofon MC2 ist größer als der Abstand zwischen dem rechten Sitz der Rücksitze und dem Mikrofon MC1. Daher wird der Schall des Insassen hm3 mehr abgeschwächt, bis das Mikrofon MC2 den Schall aufnimmt. Weiterhin, wenn beispielsweise die Richtungsabhängigkeitssteuerungseinheit 30 die Richtungsabhängigkeitssteuerungsverarbeitung an dem Audiosignal A durchführt, wird eine Verarbeitung des Einschließens von mehr Schall in einer Richtung vom Mikrofon MC1 zum Fahrersitz durchgeführt. Eine Eintreffrichtung von Schall des Insassen hm3 zum Mikrofon MC1 ist näher einer Richtung vom Mikrofon MC1 zum Fahrersitz hin als eine Eintreffrichtung von Schall des Insassen hm4 zum Mikrofon MC1. Somit weist, wenn der Insasse hm3 eine Äußerung abgibt, das erste Richtungsabhängigkeitssignal eine größere Intensität auf als diejenige des zweiten Richtungsabhängigkeitssignals.
  • Dasselbe gilt für den Schall des Insassen hm4. Das heißt, da der Abstand zwischen dem linken Sitz der Rücksitze und dem Mikrofon MC1 größer ist als der Abstand zwischen dem linken Sitz der Rücksitze und dem Mikrofon MC2, wird der Schall des Insassen hm4 stärker abgeschwächt, bis das Mikrofon MC1 den Schall aufnimmt. Eine Eintreffrichtung von Schall des Insassen hm4 zum Mikrofon MC2 ist näher einer Richtung vom Mikrofon MC2 zum Fahrersitz hin als eine Eintreffrichtung von Schall des Insassen hm3 zum Mikrofon MC2. Somit weist, wenn der Insasse hm4 eine Äußerung abgibt, das zweite Richtungsabhängigkeitssignal eine größere Intensität auf als diejenige des ersten Richtungsabhängigkeitssignals.
  • Das Bestimmen, Schall welches Insassen das Audiosignal C mehr enthält, ist nachstehend genauer mit Bezugnahme auf 3 und 4 beschrieben. 3A, 3B und 3C stellen jeweils zeitliche Wellenformen des Audiosignals C, des ersten Richtungsabhängigkeitssignals und des zweiten Richtungsabhängigkeitssignals dar, die von der Richtungsabhängigkeitssteuerungseinheit 30 ausgegeben sind. Die vertikalen Achsen stellen die Zeit dar, und die horizontalen Achsen stellen die Amplitude dar. Zwei Spitzen einer zeitlichen Wellenform in 3A sind durch gestrichelte Linien umschlossen. Weiterhin sind im Wesentlichen dieselben Positionen wie diejenigen der in 3A durch die gestrichelten Linien umschlossenen Spitzen in 3B und 3C ebenfalls durch gestrichelte Linien umschlossen. Durch einen Vergleich der durch die gestrichelten Linien umschlossenen Bereiche miteinander ist zu sehen, dass Spitzen auch in 3B und 3C an ähnlichen Positionen auftreten wie denjenigen der in 3A auftretenden Spitzen, und dass in 3C auftretende Spitzen größer sind als in 3B auftretende Spitzen. Daher ist zu sehen, dass das zweiten Richtungsabhängigkeitssignal mehr von dem Audiosignal C abgeleitete Komponenten enthält als das erste Richtungsabhängigkeitssignal.
  • 4 ist erhalten durch ein Mitteln der Frequenzspektren der Wellenformen in 3B und 3C. In 4 gibt eine durchgezogene Linie ein Frequenzspektrum der Intensität des ersten Richtungsabhängigkeitssignals an und gibt eine gestrichelte Linie ein Frequenzspektrum der Intensität des zweiten Richtungsabhängigkeitssignals an. Wenn in dem Beispiel in 4 ein Wert eines quadratischen Mittelwerts eine Intensität innerhalb eines vorbestimmten Zeitbereichs berechnet wird, ist das zweite Richtungsabhängigkeitssignal annähernd 3,5 dB größer als das erste Richtungsabhängigkeitssignal. In diesem Beispiel wird bestimmt, dass das Audiosignal C mehr Schall des Insassen hm4 enthält.
  • Ein Verfahren zum Bestimmen, welchen aus Schall des Insassen hm3 und Schall des Insassen hm4 das Audiosignal C mehr enthält, ist nicht auf das oben beschriebene Verfahren beschränkt. Zum Beispiel kann das Fahrzeug 10 über Besetzungsinformationen darüber verfügen, welcher Sitz einen Insassen aufweist. Die Bestimmungseinheit 35 kann die Bestimmung auf Grundlage der von dem Fahrzeug 10 empfangenen Besetzungsinformationen vornehmen. Wenn sie beispielsweise vom Fahrzeug 5 Besetzungsinformationen empfängt, die angeben, dass der rechte Sitz der Rücksitze einen Insassen aufweist und ein linker Sitz der Rücksitze keinen Insassen aufweist, kann die Bestimmungseinheit 35 bestimmen, dass das Audiosignal C mehr Schall des Insassen hm3 enthält.
  • Alternativ kann das Fahrzeug 10 eine Kamera und eine Bildanalyseeinheit enthalten. Die Kamera nimmt ein Bild jedes Insassen auf. Die Bildanalyseeinheit analysiert das durch die Kamera aufgenommene Bild. Die Bestimmungseinheit 35 kann eine Bestimmung auf Grundlage eines Bildanalyseergebnisses von der Bildanalyseeinheit vornehmen. Wenn sie beispielsweise von der Bildanalyseeinheit ein Bildanalyseergebnis empfängt, das angibt, dass in einem Bild der Mund des Insassen hm3 offen ist und der Mund des Insassen hm4 geschlossen ist, kann die Bestimmungseinheit 35 bestimmen, dass das Audiosignal C mehr Schall des Insassen hm3 enthält.
  • Alternativ kann die Bestimmungseinheit 35 eine Bestimmung nach dem letzten Bestimmungsergebnis vornehmen. Wenn beispielsweise bestimmt ist, dass das Audiosignal C mehr Schall des Insassen hm3 enthält, kann fortlaufend bestimmt werden, dass das Audiosignal C mehr Schall des Insassen hm3 enthält, bis das Audiosignal C eine bestimmte Intensität oder weniger aufweist. Dies deshalb, weil, wenn eine Äußerung weitergeht, sich höchstwahrscheinlich eine Äußerung desselben Insassen fortsetzt.
  • Die Bestimmungseinheit 35 gibt an die Steuereinheit 28 ein Bestimmungsergebnis, ob eine Audiokomponente in das Mikrofon MC3 eingegeben wurde, und ein Bestimmungsergebnis aus, welchen aus Schall des Insassen hm3 und Schall des Insassen hm4 das Audiosignal C mehr enthält. Die Bestimmungseinheit 35 gibt das Bestimmungsergebnis an die Steuereinheit 28 beispielsweise als ein Flag aus. Das Flag gibt einen Wert „0“ oder „1“ an. Hier gibt „0“ an, dass keine Audiokomponente in das Mikrofon MC3 eingegeben wurde, und „1“ gibt an, dass eine Audiokomponente in das Mikrofon MC3 eingegeben wurde. Alternativ gibt „0“ an, dass das Audiosignal C mehr Schall des Insassen hm3 enthält, und „1“ gibt an, dass das Audiosignal C mehr Schall des Insassen hm4 enthält. Wenn beispielsweise das Audiosignal C mehr Schall des Insassen hm3 enthält, gibt die Bestimmungseinheit 35 als Bestimmungsergebnis ein Flag „1, 0“ an die Steuereinheit 28 aus. Unter den beiden Flags in diesem Beispiel gibt das erste Flag ein Bestimmungsergebnis an, ob eine Audiokomponente in das Mikrofon MC3 eingegeben wurde, und das zweite Flag gibt ein Bestimmungsergebnis an, Schall welches Insassen das Audiosignal mehr enthält. Der Bestimmungseinheit 35 kann es ermöglicht sein, einen Fall, wo das Audiosignal C mehr Schall des Insassen hm3 enthält, einen Fall, wo das Audiosignal C mehr Schall des Insassen hm4 enthält, und einen Fall zu bestimmen, wo das Audiosignal C gleichermaßen Schall des Insassen hm3 und Schall des Insassen hm4 enthält. Die Bestimmungseinheit 35 kann gleichzeitig ein Bestimmungsergebnis, ob eine Audiokomponente in das Mikrofon MC3 eingegeben wurde, und ein Bestimmungsergebnis ausgeben, welchen aus Schall des Insassen hm3 und Schall des Insassen hm4 das Audiosignal C mehr enthält. Alternativ kann die Bestimmungseinheit 35 ein Bestimmungsergebnis, ob eine Audiokomponente eingegeben wurde oder nicht, zu der Zeit der Durchführung der Bestimmung ausgeben, ob eine Audiokomponente in das Mikrofon MC3 eingegeben wurde. Als Nächstes kann die Bestimmungseinheit 35 ein Bestimmungsergebnis darüber, Schall welches Insassen das Audiosignal mehr enthält, zu der Zeit der Durchführung der Bestimmung ausgeben, Schall welches Insassen das Audiosignal mehr enthält.
  • Weiterhin gibt die Richtungsabhängigkeitssteuerungseinheit 30 das erste Richtungsabhängigkeitssignal an die Addiereinheit 27 aus und gibt das zweite Richtungsabhängigkeitssignal und das Audiosignal C an die Filtereinheit F1 aus.
  • Die Filtereinheit F1 enthält ein adaptives Filter F1A, ein adaptives Filter F1B und ein adaptives Filter F1C. Das adaptive Filter weist eine Funktion zum Ändern von Eigenschaften in einem Vorgang der Signalverarbeitung auf. Die Filtereinheit F1 wird für eine Verarbeitung zum Unterdrücken einer Übersprechkomponente verwendet, die von Schall des Fahrers hm1 verschieden ist und in durch das Mikrofon MC1 aufgenommenem Schall enthalten ist. Obwohl in der vorliegenden Ausführungsform die Filtereinheit F1 drei adaptive Filter enthält, wird die Anzahl von adaptiven Filtern auf Grundlage der Anzahl eingegebener Audiosignale und eines Verarbeitungsaufwands der Übersprechunterdrückungsverarbeitung in geeigneter Weise festgelegt. Die Verarbeitung zum Unterdrücken des Übersprechens ist weiter unten genau beschrieben.
  • Das zweite Richtungsabhängigkeitssignal wird als Referenzsignal in das adaptive Filter F1A eingegeben. Das adaptive Filter F1A gibt ein Durchlasssignal P1A auf Grundlage eines Filterkoeffizienten C1A und des zweiten Richtungsabhängigkeitssignals aus. Wenn bestimmt ist, dass das Audiosignal C mehr Schall des Insassen hm3 enthält, wird das Audiosignal C als Referenzsignal in das adaptive Filter F1B eingegeben. Das adaptive Filter F1B gibt ein Durchlasssignal P1B auf Grundlage eines Filterkoeffizienten C1B und des Audiosignals C aus. Wenn dagegen bestimmt ist, dass das Audiosignal C mehr Schall des Insassen hm4 enthält, wird das Audiosignal C als Referenzsignal in das adaptive Filter F1C eingegeben. Wenn die Bestimmungseinheit 35 einen Fall, wo das Audiosignal C mehr Schall des Insassen hm3 enthält, einen Fall, wo das Audiosignal C mehr Schall des Insassen hm4 enthält, und einen Fall bestimmen kann, wo das Audiosignal C gleichermaßen Schall des Insassen hm3 und des Insassen hm4 enthält, kann die Filtereinheit F1 ein adaptives Filter F1D enthalten. Wenn bestimmt ist, dass das Audiosignal C gleichermaßen Schall des Insassen hm3 und Schall des Insassen hm4 enthält, wird das Audiosignal C als Referenzsignal in das adaptive Filter F1D eingegeben. Das adaptive Filter F1C gibt ein Durchlasssignal P1C auf Grundlage eines Filterkoeffizienten C1C und des Audiosignals C aus. Die Filtereinheit F1 addiert das Durchlasssignal P1A und das Durchlasssignal P1B oder das Durchlasssignal P1C und gibt sie aus. Wenn die Filtereinheit F1 das adaptive Filter F1D enthält, gibt das adaptive Filter F1D ein Durchlasssignal P1D auf Grundlage eines Filterkoeffizienten C1D und des Audiosignals C aus. Die Filtereinheit F1 addiert das Durchlasssignal P1A und ein beliebiges aus dem Durchlasssignal P1B, dem Durchlasssignal P1C und dem Durchlasssignal P1D und gibt sie aus. In der Ausführungsform sind das adaptive Filter F1A, das adaptive Filter F1B und das adaptive Filter F1C durch einen Prozessor verwirklicht, der ein Programm ausführt. Das adaptive Filter F1A, das adaptive Filter F1B und das adaptive Filter F1C können verschiedene Hardwareaufbauten aufweisen, die physisch voneinander getrennt sind.
  • Nachstehend ist ein Überblick über die Funktionsweise des adaptiven Filters gegeben. Das adaptive Filter wird zum Unterdrücken einer Übersprechkomponente verwendet. Wenn beispielsweise eine kleinste quadratische Abweichung (LMS) als ein Aktualisierungsalgorithmus des Filterkoeffizienten verwendet wird, minimiert das adaptive Filter eine Kostenfunktion, die durch einen quadratischen Mittelwert eines Fehlersignals definiert ist. Das Fehlersignal ist hier die Differenz zwischen einem Ausgangssignal und einer Objektkomponente.
  • Hier ist ein FIR-Filter (Finite Impulse Response Filter, dt. Filter mit endlicher Impulsantwort) beispielhaft als das adaptive Filter dargestellt. Es können auch andere Arten von adaptiven Filtern verwendet sein. Beispielsweise kann ein IIR-Filter (Infinite Impulse Response Filter, dt. Filter mit unendlicher Impulsantwort) verwendet sein.
  • Wenn die Audioverarbeitungsvorrichtung 21 ein FIR-Filter als das adaptive Filter verwendet, wird das Fehlersignal, das die Differenz zwischen einem Ausgangssignal der Audioverarbeitungsvorrichtung 21 und einer Zielkomponente ist, durch den nachstehenden Ausdruck (1) ausgedrückt.
  • e ( n ) = d ( n ) i = 1 i 1 w i x ( n i )
    Figure DE112021001686T5_0001
  • Hier stellt n die Zeit dar, e(n) stellt ein Fehlersignal dar, d(n) stellt eine Objektkomponente dar, wi stellt einen Filterkoeffizienten dar, x(n) stellt ein Referenzsignal dar, und 1 stellt eine Abgriffslänge dar. Wenn die Abgriffslänge 1 erhöht wird, kann das adaptive Filter die akustischen Eigenschaften eines Audiosignals getreu wiedergeben. Wenn kein Nachhall vorhanden ist, kann die Abgriffslänge 1 auf 1 eingestellt werden. Beispielsweise wird die Abgriffslänge 1 auf einen bestimmten Wert eingestellt. Wenn beispielsweise die Objektkomponente Schall des Fahrers hm1 ist, ist das Referenzsignal x(n) das zweite Richtungsabhängigkeitssignal und das Audiosignal C.
  • Die Steuereinheit 28 steuert den Filterkoeffizienten des adaptiven Filters auf Grundlage eines Bestimmungsergebnisses der Bestimmungseinheit 35. In der Ausführungsform bestimmt die Steuereinheit 28, in welches aus einem adaptiven Filter FB und einem adaptiven Filter FC das Audiosignal C einzugeben ist, auf Grundlage eines Flags, das als ein von der Bestimmungseinheit 35 ausgegebenes Bestimmungsergebnis dient. Ein Filterkoeffizient CB des adaptiven Filters FB wird so aktualisiert, dass ein Fehlersignal minimiert wird, wenn das Audiosignal C mehr Schall des Insassen hm3 enthält. Dagegen wird ein Filterkoeffizient CC des adaptiven Filters FB so aktualisiert, dass ein Fehlersignal minimiert wird, wenn das Audiosignal C mehr Schall des Insassen hm4 enthält. Daher kann ermöglicht sein, dass ein Fehlersignal durch ein unterschiedliches Verwenden von adaptiven Filtern reduziert wird, abhängig davon, welchen Schall das Audiosignal C mehr enthält.
  • Wenn sie beispielsweise ein Flag „0“ von der Bestimmungseinheit 35 empfängt, bestimmt die Steuereinheit 28, dass das Audiosignal C mehr Schall des Insassen hm3 enthält. Dann steuert die Steuereinheit 28 die Filtereinheit F1 so, dass das Audiosignal C in das adaptive Filter FB eingegeben wird.
  • Die Addiereinheit 27 erzeugt ein Ausgangssignal, indem sie ein Subtraktionssignal von einem von der Schalleingabeeinheit 29 ausgegebenen Objekt-Audiosignal subtrahiert. In der Ausführungsform wird das Subtraktionssignal erhalten durch ein Addieren eines Durchlasssignals PA und eines Durchlasssignals PB oder eines Durchlasssignals PC, die von der Filtereinheit F1 ausgegeben werden. Die Addiereinheit 27 gibt ein Ausgangssignal an die Steuereinheit 28 aus.
  • Die Steuereinheit 28 gibt das von der Addiereinheit 27 ausgegebene Ausgangssignal aus. Das Ausgangssignal der Steuereinheit 28 wird in die Schallerkennungsengine 40 eingegeben. Alternativ kann das Ausgangssignal direkt von der Steuereinheit 28 in die Elektronikvorrichtung 50 eingegeben werden. Wenn das Ausgangssignal direkt von der Steuereinheit 28 in die Elektronikvorrichtung 50 eingegeben wird, können die Steuereinheit 28 und die Elektronikvorrichtung 50 drahtgebunden oder drahtlos verbunden sein. Beispielsweise kann die Elektronikvorrichtung 50 eine Mobilfunk-Endeinrichtung sein, und das Ausgangssignal kann direkt von der Steuereinheit 28 über ein drahtloses Kommunikationsnetzwerk in die Mobilfunk-Endeinrichtung eingegeben werden. Das in die Mobilfunk-Endeinrichtung eingegebene Ausgangssignal kann als Schall über einen Lautsprecher der Mobilfunk-Endeinrichtung ausgegeben werden.
  • Weiterhin aktualisiert die Steuereinheit 28 den Filterkoeffizienten jedes adaptiven Filters mit Bezugnahme auf das von der Addiereinheit 27 ausgegebene Ausgangssignal und das Flag, das als das von der Bestimmungseinheit 35 ausgegebene Bestimmungsergebnis dient.
  • Als Erstes bestimmt die Steuereinheit 28 auf Grundlage des Bestimmungsergebnisses ein adaptives Filter, dessen Filterkoeffizient zu aktualisieren ist. Genauer legt die Steuereinheit 28 ein adaptives Filter, in das das Audiosignal C eingegeben ist, unter dem adaptiven Filter F1A, dem adaptiven Filter F1B und dem adaptiven Filter F1C als ein Objekt fest, dessen Filterkoeffizient zu aktualisieren ist. Weiterhin legt die Steuereinheit 28 ein adaptives Filter, in das das Audiosignal C nicht eingegeben wurde, unter dem adaptiven Filter F1B und dem adaptiven Filter F1C nicht als ein Objekt fest, dessen Filterkoeffizient zu aktualisieren ist. Wenn sie beispielsweise ein Flag „0“ von der Bestimmungseinheit 35 empfängt, bestimmt die Steuereinheit 28, dass das Audiosignal C mehr Schall des Insassen hm3 enthält. Mit anderen Worten, die Steuereinheit 28 bestimmt, dass das Audiosignal C in das adaptive Filter F1B eingegeben wird. Dann legt die Steuereinheit 28 das adaptive Filter FB als ein Objekt fest, dessen Filterkoeffizient zu aktualisieren ist, und legt das adaptive Filter F1C nicht als ein Objekt fest, dessen Filterkoeffizient zu aktualisieren ist.
  • Dann aktualisiert die Steuereinheit 28 den Filterkoeffizienten eines adaptiven Filters, dessen Filterkoeffizient als zu aktualisieren festgelegt wurde, derart, dass der Wert des Fehlersignals im Ausdruck (1) gegen null geht.
  • Nachstehend ist die Aktualisierung eines Filterkoeffizienten in einem Fall beschrieben, in dem das LMS als ein Aktualisierungsalgorithmus verwendet wird. Wenn der Filterkoeffizient w(n) zu der Zeit n zu dem Filterkoeffizienten w(n + 1) zu einer Zeit n + 1 aktualisiert wird, ist der Zusammenhang zwischen w(n + 1) und w(n) durch den nachstehenden Ausdruck (2) ausgedrückt.
  • w ( n + 1 ) = w ( n ) α x ( n ) e ( n )
    Figure DE112021001686T5_0002
  • Hier stellt α einen Korrekturkoeffizienten eines Filterkoeffizienten dar. Der Term ax(n)e(n) entspricht einem Aktualisierungsbetrag.
  • Es ist anzumerken, dass der Algorithmus zur Zeit der Aktualisierung eines Filterkoeffizienten nicht auf LMS beschränkt ist und auch andere Algorithmen verwendet werden können. Beispielsweise kann ein Algorithmus, wie etwa eine unabhängige Komponentenanalyse (Independent Component Analysis, ICA) oder eine normalisierte kleinste quadratische Abweichung (Normalized Least Mean Square, NLMS), verwendet werden.
  • Bei der Aktualisierung des Filterkoeffizienten stellt die Steuereinheit 28 die Intensität eines eingegebenen Referenzsignals für ein adaptives Filter, dessen Filterkoeffizient nicht als zu aktualisieren festgelegt wurde, auf null ein. Wenn sie beispielsweise das Flag „0“ von der Bestimmungseinheit 35 empfängt, stellt die Steuereinheit 28 das zweite Richtungsabhängigkeitssignal, das in das adaptive Filter F1A als Referenzsignal eingegeben wird, und das Audiosignal C, das in das adaptive Filter F1B als Referenzsignal eingegeben wird, so ein, dass sie mit den Intensitäten zu der Zeit eingegeben werden, als das zweite Richtungsabhängigkeitssignal und das Audiosignal C aus der Richtungsabhängigkeitssteuerungseinheit 30 ausgegeben wurden. Dagegen stellt die Steuereinheit 28 die Intensität des in das adaptive Filter F1C als Referenzsignal eingegebenen Audiosignals C auf null ein. Hier enthält das „Einstellen der Intensität eines in das adaptive Filter eingegebenen Referenzsignals“ das Unterdrücken der Intensität eines in das adaptive Filter eingegebenen Referenzsignals auf einen Wert nahe null. Darüber hinaus enthält das „Einstellen der Intensität eines in das adaptive Filter eingegebenen Referenzsignals auf null“ ein Durchführen einer derartigen Einstellung, dass kein Referenzsignal in das adaptive Filter eingegeben wird. Die adaptive Filterung braucht nicht durchgeführt zu werden bei einem adaptiven Filter, in dem die Intensität eines eingegebenen Referenzsignals auf null eingestellt wurde. Dies kann einen Verarbeitungsaufwand der Übersprechunterdrückungsverarbeitung unter Verwendung eines adaptiven Filters reduzieren.
  • Dann aktualisiert die Steuereinheit 28 einen Filterkoeffizienten nur eines adaptives Filters, dessen Filterkoeffizient als zu aktualisieren festgelegt wurde, und aktualisiert nicht einen Filterkoeffizienten eines adaptiven Filters, dessen Filterkoeffizient nicht als zu aktualisieren festgelegt wurde. Dies kann einen Verarbeitungsaufwand der Übersprechunterdrückungsverarbeitung unter Verwendung eines adaptiven Filters reduzieren.
  • Zum Beispiel sei ein Fall, wo der Fahrersitz als ein Objektsitz festgelegt ist, und ein Fall betrachtet, wo der Fahrer hml, der Insasse hm2 und der Insasse hm4 keine Äußerung abgeben und der Insasse hm3 eine Äußerung abgibt. In diesem Fall tritt die Äußerung eines anderen Insassen als des Fahrers hm1 in ein Audiosignal von durch das Mikrofon MC1 aufgenommenem Schall über. Mit anderen Worten, das Audiosignal A enthält eine Übersprechkomponente. Die Audioverarbeitungsvorrichtung 21 kann ein adaptives Filter aktualisieren, um die Übersprechkomponente zu unterdrücken und ein Fehlersignal zu minimieren. In diesem Fall wird das Fehlersignal im Idealfall zu einem stummen Signal, da bei dem Fahrersitz keine Äußerung vorliegt. Darüber hinaus tritt in dem oben beschriebenen Fall, wenn der Fahrer hm1 eine Äußerung abgibt, die Äußerung durch den Fahrer hm1 in ein anderes Mikrofon als das Mikrofon MC1 über. Auch in diesem Fall wird die Äußerung des Fahrers hm1 nicht durch die Verarbeitung durch die Audioverarbeitungsvorrichtung 21 unterdrückt. Der Grund hierfür ist, dass die Äußerung des Fahrers hml, die in dem Audiosignal A enthalten ist, zeitlich früher als die Äußerung des Fahrer hm1 liegt, die in einem anderen Audiosignal enthalten ist. Dies liegt an der Kausalität. Daher kann die Audioverarbeitungsvorrichtung 21 die Übersprechkomponente, die in dem Audiosignal A enthalten ist, durch ein Aktualisieren eines adaptiven Filters derart reduzieren, dass ein Fehlersignal minimiert wird, unabhängig davon, ob ein Audiosignal einer Objektkomponente enthalten ist oder nicht.
  • In der Ausführungsform sind die Funktionen der Schalleingabeeinheit 29, der Richtungsabhängigkeitssteuerungseinheit 30, der Filtereinheit F1, der Steuereinheit 28 und der Addiereinheit 27 durch einen Prozessor umgesetzt, der ein in einem Speicher enthaltenes Programm ausführt. Alternativ können die Schalleingabeeinheit 29, die Richtungsabhängigkeitssteuerungseinheit 30, die Filtereinheit F1, die Steuereinheit 28 und die Addiereinheit 27 durch unterschiedliche Hardwareelemente ausgelegt sein.
  • Vorstehend ist zwar die Audioverarbeitungsvorrichtung 21 beschrieben; die Audioverarbeitungsvorrichtung 22, die Audioverarbeitungsvorrichtung 23 und eine Audioverarbeitungsvorrichtung 24 weisen jedoch ebenfalls im Wesentlichen ähnliche Anordnungen auf, mit Ausnahme der Filtereinheit. Die Audioverarbeitungsvorrichtung 22 legt durch den Insassen hm2 geäußerten Schall als eine Objektkomponente fest. Die Audioverarbeitungsvorrichtung 22 gibt als ein Ausgangssignal ein Audiosignal aus, das durch ein Unterdrücken einer Übersprechkomponente eines durch das Mikrofon MC2 aufgenommenen Audiosignals erhalten ist. Daher unterscheidet sich die Audioverarbeitungsvorrichtung 22 von der Audioverarbeitungsvorrichtung 21 darin, dass die Audioverarbeitungsvorrichtung 22 eine Filtereinheit enthält, in die das erste Richtungsabhängigkeitssignal und das Audiosignal C eingegeben werden. In ähnlicher Weise legt die Audioverarbeitungsvorrichtung 23 durch den Insassen hm3 oder den Insassen hm4 geäußerten Schall als eine Objektkomponente fest. Die Audioverarbeitungsvorrichtung 23 gibt als ein Ausgangssignal ein Audiosignal aus, das durch ein Unterdrücken einer Übersprechkomponente eines durch das Mikrofon MC3 aufgenommenen Audiosignals erhalten ist. Daher unterscheidet sich die Audioverarbeitungsvorrichtung 23 von der Audioverarbeitungsvorrichtung 21 darin, dass die Audioverarbeitungsvorrichtung 23 eine Filtereinheit enthält, in die das Audiosignal A, das Audiosignal B und das Audiosignal C eingegeben werden.
  • 5 ist ein Flussdiagramm, das einen Betriebsablauf der Audioverarbeitungsvorrichtung 21 darstellt. Zuerst werden das Audiosignal A, das Audiosignal B und das Audiosignal C in die Schalleingabeeinheit 29 eingegeben (S1). Als Nächstes führt die Richtungsabhängigkeitssteuerungseinheit 30 eine Richtungsabhängigkeitssteuerungsverarbeitung unter Verwendung des Audiosignals A und des Audiosignals B durch und erzeugt das erste Richtungsabhängigkeitssignal und das zweite Richtungsabhängigkeitssignal (S2). Dann bestimmt die Bestimmungseinheit 35, ob eine Audiokomponente in das Mikrofon MC3 eingegeben wurde (S3). Die Bestimmungseinheit 35 gibt das Bestimmungsergebnis als ein Flag an die Steuereinheit 28 aus. Wenn die Bestimmungseinheit 35 bestimmt, dass die Audiokomponente nicht in das Mikrofon MC3 eingegeben wurde (S3: Nein), bewirkt die Steuereinheit 28, dass die Intensität des in die Filtereinheit F1 eingegebenen Audiosignals C null ist, und ändert nicht die Intensität des zweiten Richtungsabhängigkeitssignals. Dann erzeugt die Filtereinheit F1 ein Subtraktionssignal wie folgt (S4). Das adaptive Filter F1A lässt das zweite Richtungsabhängigkeitssignal durch und gibt das Durchlasssignal P1A aus. Das adaptive Filter F1B lässt das Audiosignal C durch und gibt das Durchlasssignal P1B aus. Das adaptive Filter F1C lässt das Audiosignal C durch und gibt das Durchlasssignal P1C aus. Die Filtereinheit F1 addiert das Durchlasssignal P1A, das Durchlasssignal P1B und das Durchlasssignal P1C und gibt diese Signale als ein Subtraktionssignal aus. Die Addiereinheit 27 subtrahiert das Subtraktionssignal von dem ersten Richtungsabhängigkeitssignal, erzeugt ein Ausgangssignal und gibt es aus (S5). Das Ausgangssignal wird in die Steuereinheit 28 eingegeben und von der Steuereinheit 28 ausgegeben. Als Nächstes aktualisiert die Steuereinheit 28 den Filterkoeffizienten des adaptiven Filters F1A auf Grundlage des Ausgangssignals auf solche Weise, dass die in dem Ausgangssignal enthaltene Objektkomponente maximiert wird (S6). Dann führt die Audioverarbeitungsvorrichtung 21 den Schritt S1 erneut durch.
  • Wenn die Bestimmungseinheit 35 bestimmt, dass ein Audiosignal in das Mikrofon MC3 eigegeben wurde (S3: Ja), bestimmt die Bestimmungseinheit 35, durch welchen aus dem Insassen hm3 und dem Insassen hm4 die in das Mikrofon MC3 eigegebene Audiokomponente verursacht ist (S7). Mit anderen Worten, die Bestimmungseinheit 35 bestimmt, welchen aus dem Schall des Insassen hm3 und dem Schall des Insassen hm4 das Audiosignal C mehr enthält. Die Bestimmungseinheit 35 gibt dieses Bestimmungsergebnis als ein Flag an die Steuereinheit 28 aus. Wenn das Audiosignal C mehr Schall des Insassen hm3 enthält (S7: hm3), erzeugt die Filtereinheit F1 ein Subtraktionssignal wie folgt (S8). Die Steuereinheit 28 steuert die Filtereinheit F1 so, dass das Audiosignal C in das adaptive Filter F1B eingegeben wird. Dagegen steuert die Steuereinheit 28 die Filtereinheit F1 so, dass das Audiosignal C in das adaptive Filter F1C mit einer Intensität null eingegeben wird. Mit anderen Worten, die Steuereinheit 28 ändert nicht die Intensität des in das adaptive Filter F1A eingegebenen zweiten Richtungsabhängigkeitssignals und die Intensität des in das adaptive Filter F1B eingegebenen Audiosignals C, ändert aber die Intensität des in das adaptive Filter F1C eingegebenen Audiosignals C auf null. Dann erzeugt die Filtereinheit F1 ein Subtraktionssignal durch einen ähnlichen Vorgang wie denjenigen in Schritt S4. Ähnlich wie in Schritt S5 subtrahiert die Addiereinheit 27 das Subtraktionssignal von dem ersten Richtungsabhängigkeitssignal, erzeugt ein Ausgangssignal und gibt es aus (S9). Als Nächstes aktualisiert die Steuereinheit 28 den Filterkoeffizienten des adaptiven Filters, in das ein Audiosignal eingegeben ist, auf Grundlage des Ausgangssignals auf solche Weise, dass die in dem Ausgangssignal enthaltene Objektkomponente maximiert wird (S10). Genauer werden die Filterkoeffizienten des adaptiven Filters F1A und des adaptiven Filters F1B aktualisiert. Dann führt die Audioverarbeitungsvorrichtung 21 den Schritt S1 erneut durch.
  • Wenn in Schritt S7 bestimmt ist, dass das Audiosignal C mehr Schall des Insassen hm4 enthält (S7: hm4), erzeugt die Filtereinheit F1 ein Subtraktionssignal wie folgt (S11). Die Steuereinheit 28 steuert die Filtereinheit F1 so, dass das Audiosignal C in das adaptive Filter F1C eingegeben wird. Dagegen steuert die Steuereinheit 28 die Filtereinheit F1 so, dass das Audiosignal C in das adaptive Filter F1B mit einer Intensität null eingegeben wird. Mit anderen Worten, die Steuereinheit 28 ändert nicht die Intensität des in das adaptive Filter F1A eingegebenen zweiten Richtungsabhängigkeitssignals und die Intensität des in das adaptive Filter F1C eingegebenen Audiosignals C, ändert aber die Intensität des in das adaptive Filter F1B eingegebenen Audiosignals C auf null. Dann erzeugt die Filtereinheit F1 ein Subtraktionssignal durch einen ähnlichen Vorgang wie denjenigen in Schritt S4. Ähnlich wie in Schritt S5 subtrahiert die Addiereinheit 27 das Subtraktionssignal von dem ersten Richtungsabhängigkeitssignal, erzeugt ein Ausgangssignal und gibt es aus (S9). Als Nächstes aktualisiert die Steuereinheit 28 den Filterkoeffizienten des adaptiven Filters, in das ein Audiosignal eingegeben wird, auf Grundlage des Ausgangssignals auf solche Weise, dass die in dem Ausgangssignal enthaltene Objektkomponente maximiert wird (S10). Genauer werden die Filterkoeffizienten des adaptiven Filters F1A und des adaptiven Filters F1C aktualisiert. Dann führt die Audioverarbeitungsvorrichtung 21 den Schritt S1 erneut durch.
  • In der Ausführungsform wird der Filterkoeffizient nicht aktualisiert für ein adaptives Filter, in das ein Audiosignal mit einer Intensität null eingegeben wird. Dies kann einen Verarbeitungsaufwand der Steuereinheit 28 reduzieren, verglichen mit demjenigen in einem Fall, wo die Filterkoeffizienten aller adaptiven Filter ständig aktualisiert werden. Dagegen kann die Steuereinheit 28 die Filterkoeffizienten aller adaptiven Filter ständig aktualisieren. Die Steuereinheit 28 kann ständig dieselbe Verarbeitung durch ein ständiges Aktualisieren der Filterkoeffizienten aller adaptiven Filter durchführen, sodass die Verarbeitung vereinfacht ist. Weiterhin kann der Filterkoeffizient eines bestimmten adaptiven Filters durch ein ständiges Aktualisieren der Filterkoeffizienten aller adaptiven Filter genau aktualisiert werden, beispielsweise sogar unmittelbar nach der Änderung von einem Zustand, in dem ein Audiosignal mit einer Intensität null eingegeben wird, zu einem Zustand, in dem ein Audiosignal mit einer Intensität verschieden von null eingegeben wird.
  • Wie oben beschrieben, bestimmt das Audioverarbeitungssystem 5 in der ersten Ausführungsform Schall eines bestimmten Sprechers mit hoher Genauigkeit durch ein Erlangen einer Vielzahl von Audiosignalen mit einer Vielzahl von Mikrofonen und ein Subtrahieren eines Subtraktionssignals, das unter Verwendung eines adaptiven Filters aus einem bestimmten Audiosignal durch Verwendung eines anderen Audiosignals als Referenzsignal erzeugt ist. In der ersten Ausführungsform kann ein Mikrofon eine Vielzahl von Schallelementen aufnehmen, die an verschiedenen Positionen erzeugt werden. Genauer nimmt das Mikrofon MC3 Schall des Insassen hm3 und Schall des Insassen hm4 auf den Rücksitzen auf. Dann wird bestimmt, welches aus einer Vielzahl von Schallelementen ein Audiosignal auf Grundlage aufgenommenem Schalls enthält, und ein adaptives Filter, in das ein Audiosignal eingegeben wird, wird abhängig davon geändert, welcher Schall enthalten ist. Dies ermöglicht es, dass ein Audiosignal einer Objektkomponente genau bestimmt wird, sogar wenn ein Mikrofon eine Vielzahl von Schallelementen aufnimmt. Daher können, da es nicht erforderlich ist, jeweils ein Mikrofon für jeden Sitz vorzusehen, Kosten reduziert werden. Weiterhin kann, wenn eine Objektkomponente unter Verwendung eines adaptiven Filters bestimmt wird, die Anzahl von für die Verarbeitung verwendeten Referenzsignalen reduziert sein, verglichen mit derjenigen in einem Fall, wo Signale, die von für alle Sitze vorgesehenen Mikrofonen ausgegeben sind, als Referenzsignale verwendet werden. Dies kann einen Verarbeitungsaufwand zum Unterdrücken einer Übersprechkomponente reduzieren. Weiterhin braucht der Filterkoeffizient für ein adaptives Filter nicht aktualisiert zu werden, in das ein Audiosignal mit einer Intensität null eingegeben wird. Dies kann einen Verarbeitungsaufwand weiter reduzieren, verglichen mit demjenigen in einem Fall, wo die Filterkoeffizienten für alle adaptiven Filter ständig aktualisiert werden.
  • (Zweite Ausführungsform)
  • Ein Audioverarbeitungssystem 5A gemäß einer zweiten Ausführungsform unterscheidet sich von dem Audioverarbeitungssystem 5 gemäß der ersten Ausführungsform darin, dass das Audioverarbeitungssystem 5A eine Audioverarbeitungsvorrichtung 20A anstelle der Audioverarbeitungsvorrichtung 20 enthält und das Audioverarbeitungssystem 5A ein Mikrofon MC4 enthält. Eine Audioverarbeitungsvorrichtung 20A gemäß der zweiten Ausführungsform unterscheidet sich von der Audioverarbeitungsvorrichtung 20 gemäß der ersten Ausführungsform darin, dass die Audioverarbeitungsvorrichtung 20A eine Anomalieerfassungseinheit enthält und ein Audiosignal D verwendet.
  • Die Audioverarbeitungsvorrichtung 20A gemäß der zweiten Ausführungsform erfasst das Vorhandensein oder Nichtvorhandensein von Anomalie in jedem Mikrofon. Die Audioverarbeitungsvorrichtung 20A führt eine Richtungsabhängigkeitssteuerungsverarbeitung und eine Unterdrückungsverarbeitung einer Übersprechkomponente unter Verwendung eines von einem Mikrofon, in dem keine Anomalie erfasst wurde, ausgegebenen Audiosignals. Nachstehend ist die Audioverarbeitungsvorrichtung 20A unter Bezugnahme auf 6, 7 und 8 beschrieben. Dieselben Anordnungen und Betriebsvorgänge wie diejenigen, die bei der ersten Ausführungsform beschrieben sind, sind durch dieselben Bezugszeichen bezeichnet, und ihre Beschreibung ist weggelassen oder vereinfacht.
  • Nachstehend sind Einzelheiten des Audioverarbeitungssystems 5A gemäß der zweiten Ausführungsform mit Bezugnahme auf 6 beschrieben. 6 stellt ein Beispiel des schematischen Aufbaus des Audioverarbeitungssystems 5A gemäß der zweiten Ausführungsform dar. Das Audioverarbeitungssystem 5 enthält das Mikrofon MC1, das Mikrofon MC2, das Mikrofon MC3, das Mikrofon MC4 und die Audioverarbeitungsvorrichtung 20A. In der Ausführungsform nimmt das Mikrofon MC3 durch den Insassen hm3 geäußerten Schall auf. Mit anderen Worten, das Mikrofon MC3 erlangt ein Audiosignal, das eine durch den Insassen hm3 geäußerte Audiokomponente enthält. Das Mikrofon MC3 ist beispielsweise auf der rechten Seite nahe der Mitte des Himmels der Rücksitze angeordnet. In der Ausführungsform nimmt das Mikrofon MC4 durch den Insassen hm4 geäußerten Schall auf. Mit anderen Worten, das Mikrofon MC4 erlangt ein Audiosignal, das eine durch den Insassen hm4 geäußerte Audiokomponente enthält. Das Mikrofon MC4 ist beispielsweise auf der linken Seite nahe der Mitte des Himmels der Rücksitze angeordnet. Das Mikrofon MC1 befindet sich weiter weg vom rechten Sitz der Rücksitze als das Mikrofon MC3. Das Mikrofon MC2 befindet sich weiter weg vom linken Sitz der Rücksitze als das Mikrofon MC4. Das Mikrofon MC4 befindet sich näher am linken Sitz der Rücksitze als das Mikrofon MC3.
  • In der Ausführungsform enthält das Audioverarbeitungssystem 5A eine Vielzahl von Audioverarbeitungsvorrichtungen 20A, die die jeweiligen Mikrofone ansprechen. Genauer enthält das Audioverarbeitungssystem 5A eine Audioverarbeitungsvorrichtung 21A, eine Audioverarbeitungsvorrichtung 22A, eine Audioverarbeitungsvorrichtung 23A und eine Audioverarbeitungsvorrichtung 24A. Die Audioverarbeitungsvorrichtung 21A spricht das Mikrofon MC1 an. Die Audioverarbeitungsvorrichtung 22A spricht das Mikrofon MC2 an. Die Audioverarbeitungsvorrichtung 23A spricht das Mikrofon MC3 an. Die Audioverarbeitungsvorrichtung 24A spricht das Mikrofon MC4 an. Nachstehend können die Audioverarbeitungsvorrichtung 21A, die Audioverarbeitungsvorrichtung 22A und die Audioverarbeitungsvorrichtung 23A zusammenfassend als die Audioverarbeitungsvorrichtungen 20A bezeichnet sein.
  • Obwohl in dem in 6 dargestellten Aufbau die Audioverarbeitungsvorrichtung 21A, die Audioverarbeitungsvorrichtung 22A, die Audioverarbeitungsvorrichtung 23A und die Audioverarbeitungsvorrichtung 24A als durch unterschiedliche Hardwareelemente verwirklicht beschrieben sind, kann eine einzelne Audioverarbeitungsvorrichtung 20A die Funktionen der Audioverarbeitungsvorrichtung 21A, der Audioverarbeitungsvorrichtung 22A, der Audioverarbeitungsvorrichtung 23A und der Audioverarbeitungsvorrichtung 24A verwirklichen. Alternativ können einige aus der Audioverarbeitungsvorrichtung 21A, der Audioverarbeitungsvorrichtung 22A, der Audioverarbeitungsvorrichtung 23A und der Audioverarbeitungsvorrichtung 24A durch gemeinsame Hardware aufgebaut sein, und die anderen können durch unterschiedliche Hardwareelemente aufgebaut sein.
  • In der Ausführungsform ist jede der Audioverarbeitungsvorrichtungen 20A in einem jeweiligen Sitz in der Nähe des jeweiligen entsprechenden Mikrofons angeordnet. Zum Beispiel ist die Audioverarbeitungsvorrichtung 21A im Fahrersitz angeordnet. Die Audioverarbeitungsvorrichtung 22A ist im Beifahrersitz angeordnet. Die Audioverarbeitungsvorrichtung 23A ist im rechten Sitz der Rücksitze angeordnet. Die Audioverarbeitungsvorrichtung 24A ist im linken Sitz der Rücksitze angeordnet. Jede der Audioverarbeitungsvorrichtungen 20A kann in dem Armaturenbrett angeordnet sein.
  • 7 ist ein Blockdiagramm, das den Aufbau der Audioverarbeitungsvorrichtung 21A darstellt. Alle aus der Audioverarbeitungsvorrichtung 21A, der Audioverarbeitungsvorrichtung 22A, der Audioverarbeitungsvorrichtung 23A und der Audioverarbeitungsvorrichtung 24A weisen ähnliche Aufbauten und Funktionen auf, mit Ausnahme eines Teils des Aufbaus einer Filtereinheit, die weiter unten beschrieben ist. Nachstehend ist die Audioverarbeitungsvorrichtung 21A beschrieben. Die Audioverarbeitungsvorrichtung 21A legt durch den Fahrer hm1 geäußerten Schall als ein Objekt fest. Die Audioverarbeitungsvorrichtung 21A gibt als ein Ausgangssignal ein Audiosignal aus, das durch ein Unterdrücken einer Übersprechkomponente eines durch das Mikrofon MC1 aufgenommenen Audiosignals erhalten ist.
  • Wie in 7 dargestellt, enthält die Audioverarbeitungsvorrichtung 21A eine Schalleingabeeinheit 29A, die Anomalieerfassungseinheit 31, eine Richtungsabhängigkeitssteuerungseinheit 30A, eine Filtereinheit F2, eine Steuereinheit 28A und eine Addiereinheit 27A. Die Filtereinheit F2 enthält eine Vielzahl von adaptiven Filtern. Die Steuereinheit 28A steuert die Filterkoeffizienten der adaptiven Filter der Filtereinheit F2.
  • Die Audiosignale von durch das Mikrofon MC1, das Mikrofon MC2, das Mikrofon MC3 und das Mikrofon MC4 aufgenommenem Schall werden in die Schalleingabeeinheit 29A eingegeben. Mit anderen Worten, jedes aus dem Mikrofon MC1, dem Mikrofon MC2, dem Mikrofon MC3 und dem Mikrofon MC4 gibt ein Signal auf Grundlage eines Audiosignals des aufgenommenen Schalls an die Schalleingabeeinheit 29 aus. Da das Mikrofon MC1 und das Mikrofon MC2 ähnlich denjenigen in der ersten Ausführungsform sind, ist eine genaue Beschreibung davon weggelassen.
  • Das Mikrofon MC3 gibt ein Audiosignal C an die Schalleingabeeinheit 29A aus. Das Audiosignal C enthält Schall des Insassen hm3 und Störgeräusche, einschließlich Schall eines anderen Insassen als des Insassen hm3. Das Mikrofon MC3 entspricht einem ersten Mikrofon. Weiterhin entspricht das Mikrofon MC3 einem vierten Mikrofon. Durch das Mikrofon MC3 aufgenommener Schall entspricht einem ersten Audiosignal. Weiterhin entspricht durch das Mikrofon MC3 aufgenommener Schall einem vierten Audiosignal. Der Schall des Insassen hm3 entspricht der ersten Audiokomponente. Das Audiosignal C entspricht einem ersten Signal. Weiterhin entspricht das Audiosignal C einem vierten Signal.
  • Das Mikrofon MC4 gibt ein Audiosignal D an die Schalleingabeeinheit 29A aus. Das Audiosignal D enthält Schall des Insassen hm4 und Störgeräusche, einschließlich Schall eines anderen Insassen als des Insassen hm4. Das Mikrofon MC4 entspricht dem ersten Mikrofon. Weiterhin entspricht das Mikrofon MC4 einem fünften Mikrofon. Durch das Mikrofon MC4 aufgenommener Schall entspricht dem ersten Audiosignal. Weiterhin entspricht durch das Mikrofon MC4 aufgenommener Schall einem fünften Audiosignal. Der Schall des Insassen hm4 entspricht der zweiten Audiokomponente. Das Audiosignal D entspricht dem ersten Signal. Weiterhin entspricht das Audiosignal D einem fünften Signal.
  • Die Schalleingabeeinheit 29A gibt das Audiosignal A, das Audiosignal B, das Audiosignal C und das Audiosignal D aus. Die Schalleingabeeinheit 29A entspricht einer Empfangseinheit.
  • Obwohl in der Ausführungsform die Audioverarbeitungsvorrichtung 21A eine Schalleingabeeinheit 29A enthält, in die Audiosignale von allen Mikrofonen eingegeben werden, kann die Audioverarbeitungsvorrichtung 21A die Schalleingabeeinheit 29A enthalten, in die ein entsprechendes Audiosignal für jedes Mikrofon eingegeben wird. Zum Beispiel kann ein Audiosignal von durch das Mikrofon MC1 aufgenommenem Schall in eine dem Mikrofon MC1 entsprechende Schalleingabeeinheit eingegeben werden. Ein Audiosignal von durch das Mikrofon MC2 aufgenommenem Schall kann in eine weitere, dem Mikrofon MC2 entsprechende Schalleingabeeinheit eingegeben werden. Ein Audiosignal von durch das Mikrofon MC3 aufgenommenem Schall kann in eine weitere, dem Mikrofon MC3 entsprechende Schalleingabeeinheit eingegeben werden. Ein Audiosignal von durch das Mikrofon MC4 aufgenommenem Schall kann in eine weitere, dem Mikrofon MC4 entsprechende Schalleingabeeinheit eingegeben werden.
  • Das Audiosignal A, das Audiosignal B, das Audiosignal C und das Audiosignal D, die von der Schalleingabeeinheit 29A ausgegeben werden, werden in die Anomalieerfassungseinheit 31 eingegeben. Die Anomalieerfassungseinheit 31 erfasst das Vorhandensein oder Nichtvorhandensein von Anomalie im Mikrofon MC3 und im Mikrofon MC4 und sendet Anomalieinformationen über die Anomalie des Mikrofons MC3 und des Mikrofons MC4 an die Steuereinheit 28A. Hier umfasst die Anomalie eines Mikrofons einen Ausfall des Mikrofons, einen Verbindungsausfall zwischen dem Mikrofon und einer anderen Vorrichtung und eine Batterieentladung des Mikrofons. Der Verbindungsausfall zwischen dem Mikrofon und einer anderen Vorrichtung umfasst eine Unterbrechung eines Kabels, das das Mikrofon und die andere Vorrichtung elektrisch verbindet. Der Anomalieerfassungseinheit 31 kann es ermöglicht sein, das Vorhandensein oder Nichtvorhandensein von Anomalie im Mikrofon MC1 und im Mikrofon MC2 zu erfassen, und sie kann Anomalieinformationen über die Anomalie des Mikrofons MC1 und des Mikrofons MC2 an die Steuereinheit 28A senden. Zum Beispiel erfasst die Anomalieerfassungseinheit 31 das Vorhandensein oder Nichtvorhandensein von Anomalie eines Mikrofons, das ein Audiosignal betrifft, auf Grundlage des Audiosignals. Wenn beispielsweise ein Audiosignal eine kleinere Intensität als ein Schwellenwert aufweist, bestimmt die Anomalieerfassungseinheit 31, dass ein Mikrofon, das das Audiosignal betrifft, Anomalie aufweist. Wenn ein Zeitraum, in dem ein Audiosignal eine kleinere Intensität als ein Schwellenwert aufweist, eine bestimmte Länge oder mehr aufweist, oder wenn eine Häufigkeit, mit der ein Audiosignal eine kleinere Intensität als ein Schwellenwert aufweist, ein bestimmtes Niveau oder mehr in einem bestimmten Zeitraum aufweist, kann die Anomalieerfassungseinheit 31 bestimmen, dass ein Mikrofon, das das Audiosignal betrifft, Anomalie aufweist. Die Anomalieerfassungseinheit 31 gibt ein Bestimmungsergebnis über das Vorhandensein oder Nichtvorhandensein von Anomalie in jedem Mikrofon an die Steuereinheit 28A beispielsweise als ein Flag aus. Das Flag ist ein Beispiel der Anomalieinformationen. Das Flag gibt für jedes Audiosignal einen Wert „0“ oder „1“ an. Hier bedeutet „1“, dass bestimmt wurde, dass ein entsprechendes Mikrofon Anomalie aufweist, und „0“ bedeutet, dass nicht bestimmt wurde, dass ein entsprechendes Mikrofon Anomalie aufweist. Wenn sie beispielsweise bestimmt, dass die Mikrofone MC1, MC2 und MC4 keine Anomalie aufweisen, und bestimmt, dass das Mikrofon MC3 Anomalie aufweist, gibt die Anomalieerfassungseinheit 31 als Bestimmungsergebnis ein Flag „0, 0, 1, 0“ an die Steuereinheit 28 aus. Nach dem Erfassen von Anomalie jedes Mikrofons gibt die Anomalieerfassungseinheit 31 das Audiosignal A, das Audiosignal B, das Audiosignal C und das Audiosignal D an die Richtungsabhängigkeitssteuerungseinheit 30A aus.
  • Obwohl in der Ausführungsform die Audioverarbeitungsvorrichtung 21A eine Anomalieerfassungseinheit 31 enthält, in die alle Audiosignale eingegeben werden, kann die Audioverarbeitungsvorrichtung 21A die Anomalieerfassungseinheit 31 für jedes Audiosignal enthalten, in die ein entsprechendes Audiosignal eingegeben wird. Zum Beispiel kann die Audioverarbeitungsvorrichtung 21A getrennt eine Anomalieerfassungseinheit, in die das Audiosignal A eingegeben wird, eine Anomalieerfassungseinheit, in die das Audiosignal B eingegeben wird, eine Anomalieerfassungseinheit, in die das Audiosignal C eingegeben wird, und eine Anomalieerfassungseinheit enthalten, in die das Audiosignal D eingegeben wird.
  • Das Audiosignal A, das Audiosignal B, das Audiosignal C und das Audiosignal D, die von der Anomalieerfassungseinheit 31 ausgegeben werden, werden in die Richtungsabhängigkeitssteuerungseinheit 30A eingegeben. Die Richtungsabhängigkeitssteuerungseinheit 30 führt die Richtungsabhängigkeitssteuerungsverarbeitung unter Verwendung eines Audiosignals durch, das von einem Mikrofon ausgegeben ist, mit Ausnahme eines Mikrofons, in dem durch die Anomalieerfassungseinheit 31 Anomalie erfasst wurde, und eines Mikrofons auf derselben Seite wie das Mikrofon. Die Richtungsabhängigkeitssteuerungsverarbeitung ist beispielsweise eine Strahlformung. Hier bedeutet „auf derselben Seite“, dass Mikrofone dieselben sind, indem sie sich entweder auf der Vordersitzseite oder auf der Rücksitzseite befinden. In der Ausführungsform befinden sich das Mikrofon MC1 und das Mikrofon MC2 auf derselben Seite und befinden sich das Mikrofon MC3 und das Mikrofon MC4 auf derselben Seite. Wenn beispielsweise Anomalie des Mikrofons MC3 erfasst wird, führt die Richtungsabhängigkeitssteuerungseinheit 30A eine Richtungsabhängigkeitssteuerungsverarbeitung unter Verwendung des Audiosignals A und des Audiosignals B durch. Dann gibt die Richtungsabhängigkeitssteuerungseinheit 30A zwei Richtungsabhängigkeitssignale aus, erhalten durch ein Durchführen der Richtungsabhängigkeitssteuerungsverarbeitung unter Verwendung von zwei Audiosignalen. Zum Beispiel gibt die Richtungsabhängigkeitssteuerungseinheit 30A ein erstes Richtungsabhängigkeitssignal aus, erhalten durch ein Durchführen der Richtungsabhängigkeitssteuerungsverarbeitung an dem Audiosignal A. Weiterhin gibt die Richtungsabhängigkeitssteuerungseinheit 30A ein zweites Richtungsabhängigkeitssignal aus, erhalten durch ein Durchführen der Richtungsabhängigkeitssteuerungsverarbeitung an dem Audiosignal B. Wenn beispielsweise keine Anomalie in irgendeinem der Mikrofone erfasst wird, führt die Richtungsabhängigkeitssteuerungseinheit 30A eine Richtungsabhängigkeitssteuerungsverarbeitung unter Verwendung aller Audiosignale durch und gibt die erhaltenen Richtungsabhängigkeitssignale aus. Zum Beispiel gibt die Richtungsabhängigkeitssteuerungseinheit 30A zusätzlich zu dem ersten Richtungsabhängigkeitssignal und dem zweiten Richtungsabhängigkeitssignal ein drittes Richtungsabhängigkeitssignal und ein viertes Richtungsabhängigkeitssignal aus. Das dritte Richtungsabhängigkeitssignal wird erhalten durch ein Durchführen der Richtungsabhängigkeitssteuerungsverarbeitung an dem Audiosignal C. Das vierte Richtungsabhängigkeitssignal wird erhalten durch ein Durchführen der Richtungsabhängigkeitssteuerungsverarbeitung an dem Audiosignal D. Wenn die Anomalieerfassungseinheit 31 beispielsweise Anomalie des Mikrofons MC2 erfassen kann und Anomalie im Mikrofon MC2 erfasst, gibt die Richtungsabhängigkeitssteuerungseinheit 30A das dritte Richtungsabhängigkeitssignal und das vierte Richtungsabhängigkeitssignal aus. Das dritte Richtungsabhängigkeitssignal wird erhalten durch ein Durchführen der Richtungsabhängigkeitssteuerungsverarbeitung an dem Audiosignal C. Das vierte Richtungsabhängigkeitssignal wird erhalten durch ein Durchführen der Richtungsabhängigkeitssteuerungsverarbeitung an dem Audiosignal D.
  • Weiterhin bestimmt die Richtungsabhängigkeitssteuerungseinheit 30A, ob eine Audiokomponente in ein Mikrofon auf derselben Seite wie das Mikrofon eingegeben wurde, in dem die Anomalie erfasst wurde. Wenn beispielsweise bestimmt ist, dass das Mikrofon MC3 Anomalie aufweist, bestimmt die Richtungsabhängigkeitssteuerungseinheit 30A, dass ein Audiosignal in das Mikrofon MC4 eingegeben worden ist, wenn das von dem Mikrofon MC4, das ein Mikrofon auf derselben Seite wie das Mikrofon MC3 ist, ausgegebene Audiosignal D eine größere Intensität aufweist als diejenige von mindestens einer aus der Intensität des ersten Richtungsabhängigkeitssignals und der Intensität des zweiten Richtungsabhängigkeitssignals, und bestimmt, dass kein Audiosignal in das Mikrofon MC4 eingegeben worden ist, wenn dies nicht der Fall ist.
  • Weiterhin enthält die Richtungsabhängigkeitssteuerungseinheit 30A eine Bestimmungseinheit 35A. Die Bestimmungseinheit 35A bestimmt, Schall welches Insassen ein Audiosignal, das von dem Mikrofon auf derselben Seite ausgegeben ist wie das Mikrofon, in dem die Anomalie erfasst wurde, mehr enthält, auf Grundlage eines Audiosignals, das von einem Mikrofon ausgegeben ist, in dem keine Anomalie erfasst wurde. Der Grund zum Vornehmen einer solche Bestimmung ist nachstehend beschrieben. Zum Beispiel wird eine Übersprechkomponente, die Schall des Insassen hm3 enthält, von der Objektkomponente unter Verwendung des von dem Mikrofon MC3 ausgegebenen Audiosignals C entfernt. Wenn jedoch bestimmt ist, dass das Mikrofon MC3 Anomalie aufweist, weist auch das Audiosignal C Anomalie auf, sodass es schwierig ist, die Übersprechkomponente, die Schall des Insassen hm3 enthält, unter Verwendung des Audiosignals C zu entfernen. In diesem Fall tritt der Schall des Insassen hm3 auch in das Mikrofon MC4 über. Somit ist ein Entfernen der Übersprechkomponente, die Schall des Insassen hm3 enthält, unter Verwendung des von dem Mikrofon MC4 ausgegebenen Audiosignals D vorstellbar. Sowohl Schall des Insassen hm3 als auch Schall des Insassen hm4 können in das Mikrofon MC4 übertreten. Somit wird bestimmt, welchen aus Schall des Insassen hm3 und Schall des Insassen hm4 das Audiosignal D mehr enthält. Wenn das Audiosignal D mehr Schall des Insassen hm3 enthält, kann die Übersprechkomponente, die Schall des Insassen hm3 enthält, unter Verwendung des Audiosignals D entfernt werden.
  • Wenn beispielsweise bestimmt ist, dass das Mikrofon MC3 Anomalie aufweist, bestimmt die Bestimmungseinheit 35A, welchen aus Schall des Insassen hm3 und Schall des Insassen hm4 das Audiosignal D mehr enthält, auf Grundlage des ersten Richtungsabhängigkeitssignals und des zweiten Richtungsabhängigkeitssignals. Mit anderen Worten, die Bestimmungseinheit 35A bestimmt, welchen aus Schall des Insassen hm3 und Schall des Insassen hm4 das Audiosignal C mehr enthält, auf Grundlage des Audiosignals A und des Audiosignals B. Ein genaues Bestimmungsverfahren ist ähnlich dem in der ersten Ausführungsform beschriebenen.
  • Die Bestimmungseinheit 35A gibt an die Steuereinheit 28A ein Ergebnis der Bestimmung aus, welchen aus Schall des Insassen hm3 und Schall des Insassen hm4 das Audiosignal C oder das Audiosignal D mehr enthält. Die Bestimmungseinheit 35A gibt das Bestimmungsergebnis an die Steuereinheit 28A beispielsweise als ein Flag aus. Das Flag gibt einen Wert „0“ oder „1“ an. Hier gibt „0“ an, dass das Audiosignal mehr Schall des Insassen hm3 enthält, und „1“ gibt an, dass das Audiosignal mehr Schall des Insassen hm4 enthält. Wenn beispielsweise bestimmt ist, dass die Mikrofone MC1, MC2 und MC4 keine Anomalie aufweisen, und bestimmt ist, dass das Mikrofone MC3 Anomalie aufweist, sendet die Richtungsabhängigkeitssteuerungseinheit 30A ein Flag als Bestimmungsergebnis hinsichtlich des Audiosignals D. Wenn beispielsweise bestimmt ist, dass das Audiosignal D mehr Schall des Insassen hm3 enthält, gibt die Richtungsabhängigkeitssteuerungseinheit 30A ein Flag „0“ als Bestimmungsergebnis an die Steuereinheit 28A aus.
  • Wenn beispielsweise Anomalie des Mikrofons MC3 erfasst ist, gibt die Richtungsabhängigkeitssteuerungseinheit 30A das erste Richtungsabhängigkeitssignal an die Addiereinheit 27A aus und gibt das zweite Richtungsabhängigkeitssignal, das Audiosignal C und das Audiosignal D an die Filtereinheit F2 aus.
  • Obwohl in der Ausführungsform die Bestimmungseinheit 35A der Richtungsabhängigkeitssteuerungseinheit 30A bestimmt, ob eine Audiokomponente in ein Mikrofon auf derselben Seite wie ein Mikrofon eingegeben wurde, in dem Anomalie erfasst wurde, und bestimmt, Schall welches Insassen ein Audiosignal mehr enthält, das von dem Mikrofon auf derselben Seite ausgegeben ist wie das Mikrofon, in dem Anomalie erfasst wurde, kann die Audioverarbeitungsvorrichtung 21A die Bestimmungseinheit 35A getrennt von der Richtungsabhängigkeitssteuerungseinheit 30A enthalten. In diesem Fall ist die Bestimmungseinheit 35A beispielsweise zwischen der Anomalieerfassungseinheit 31 und der Richtungsabhängigkeitssteuerungseinheit 30A angeschlossen. Alternativ kann die Audioverarbeitungsvorrichtung 21A nur die Bestimmungseinheit 35A enthalten und braucht die Richtungsabhängigkeitssteuerungseinheit 30A nicht zu enthalten. Da die Bestimmungseinheit 35A einen Aufbau und eine Funktion ähnlich denjenigen aufweist, die in der ersten Ausführungsform beschrieben sind, ist eine genaue Beschreibung davon weggelassen.
  • Die Filtereinheit F2 enthält ein adaptives Filter F2A, ein adaptives Filter F2B, ein adaptives Filter F2C, ein adaptives Filter F2D und ein adaptives Filter F2E. Die Filtereinheit F2 wird für eine Verarbeitung zum Unterdrücken einer Übersprechkomponente verwendet, die von Schall des Fahrers hm1 verschieden ist und in durch das Mikrofon MC1 aufgenommenem Schall enthalten ist. Obwohl in der Ausführungsform die Filtereinheit F2 fünf adaptive Filter enthält, wird die Anzahl von adaptiven Filtern auf Grundlage der Anzahl eingegebener Audiosignale und eines Verarbeitungsaufwands der Übersprechunterdrückungsverarbeitung in geeigneter Weise festgelegt. Die Verarbeitung der Übersprechunterdrückung ist weiter unten genau beschrieben.
  • Das zweite Richtungsabhängigkeitssignal wird als Referenzsignal in das adaptive Filter F2A eingegeben. Das adaptive Filter F2A gibt ein Durchlasssignal P2A auf Grundlage eines Filterkoeffizienten C2A und des zweiten Richtungsabhängigkeitssignals aus. Wenn bestimmt ist, dass das Mikrofon MC4 Anomalie aufweist, und bestimmt ist, dass das Audiosignal C mehr Schall des Insassen hm3 enthält, wird das Audiosignal C als Referenzsignal in das adaptive Filter F2B eingegeben. Das adaptive Filter F2B gibt ein Durchlasssignal P2B auf Grundlage eines Filterkoeffizienten C2B und des Audiosignals C aus. Sogar wenn nicht bestimmt ist, dass das Mikrofon MC4 Anomalie aufweist, kann das Audiosignal C als Referenzsignal in das adaptive Filter F2B eingegeben werden. Wenn dagegen bestimmt ist, dass das Mikrofon MC4 Anomalie aufweist, und bestimmt ist, dass das Audiosignal C mehr Schall des Insassen hm4 enthält, wird das Audiosignal C als Referenzsignal in das adaptive Filter F2C eingegeben. Das adaptive Filter F2C gibt ein Durchlasssignal 2C auf Grundlage eines Filterkoeffizienten C2C und des Audiosignals C aus. Ähnlich wird, wenn bestimmt ist, dass das Mikrofon MC3 Anomalie aufweist, und bestimmt ist, dass das Audiosignal D mehr Schall des Insassen hm3 enthält, das Audiosignal D als Referenzsignal in das adaptive Filter F2D eingegeben. Das adaptive Filter F2D gibt ein Durchlasssignal P2D auf Grundlage eines Filterkoeffizienten C2D und des Audiosignals D aus. Sogar wenn nicht bestimmt ist, dass das Mikrofon MC3 Anomalie aufweist, kann das Audiosignal D als Referenzsignal in das adaptive Filter F2D eingegeben werden. Wenn dagegen bestimmt ist, dass das Mikrofon MC3 Anomalie aufweist, und bestimmt ist, dass das Audiosignal D mehr Schall des Insassen hm4 enthält, wird das Audiosignal D als Referenzsignal in das adaptive Filter F2E eingegeben. Das adaptive Filter F2E gibt ein Durchlasssignal P2E auf Grundlage eines Filterkoeffizienten C2E und des Audiosignals D aus. Die Filtereinheit F1 addiert das Durchgangssignal P2A, das Durchgangssignal P2B oder ein Durchgangssignal P2C und das Durchgangssignal P2D oder das Durchgangssignal P2E und gibt sie aus. In der Ausführungsform sind das adaptive Filter F2A, das adaptive Filter F2B, das adaptive Filter F2C, das adaptive Filter F2D und das adaptive Filter F2E durch einen Prozessor verwirklicht, der ein Programm ausführt. Das adaptive Filter F2A, das adaptive Filter F2B, das adaptive Filter F1C, das adaptive Filter F2D und das adaptive Filter F1E können verschiedene Hardwareanordnungen aufweisen, die physisch voneinander getrennt sind.
  • In der Ausführungsform ist die Filtereinheit F2 so beschrieben, dass sie zwei adaptive Filter, in die das Audiosignal C eingegeben werden kann, und zwei adaptive Filter enthält, in die das Audiosignal D eingegeben werden kann. Die Filtereinheit kann zwei adaptive Filter enthalten, in die das zweite Richtungsabhängigkeitssignal eingegeben werden kann. Zum Beispiel kann es der Anomalieerfassungseinheit 31 ermöglicht sein, Anomalie des Mikrofons MC2 zu erfassen. Die Filtereinheit F2 kann getrennt ein adaptives Filter F2A1 und ein adaptives Filter F2A2 enthalten. Wenn die Anomalie des Mikrofons MC2 erfasst ist, wird das zweite Richtungsabhängigkeitssignal in das adaptive Filter F2A1 eingegeben. Wenn die Anomalie des Mikrofons MC2 nicht erfasst ist, wird das zweite Richtungsabhängigkeitssignal in das adaptive Filter F2A2 eingegeben.
  • Die Steuereinheit 28A steuert den Filterkoeffizienten eines adaptiven Filters auf Grundlage eines Bestimmungsergebnisses der Anomalieerfassungseinheit 31 und eines Bestimmungsergebnisses der Bestimmungseinheit 35A. In der Ausführungsform bestimmt die Steuereinheit 28A, in welches aus dem adaptiven Filter F2B und dem adaptiven Filter F2C das Audiosignal C einzugeben ist, auf Grundlage eines Flags, das als von der Anomalieerfassungseinheit 31 ausgegebenes Bestimmungsergebnis dient, und eines Flags, das als ein von der Bestimmungseinheit 35A ausgegebenes Bestimmungsergebnis dient. Weiterhin bestimmt in der Ausführungsform die Steuereinheit 28A, in welches aus dem adaptiven Filter F2D und dem adaptiven Filter F2E das Audiosignal D einzugeben ist, auf Grundlage eines Flags, das als von der Anomalieerfassungseinheit 31 ausgegebenes Bestimmungsergebnis dient, und eines Flags, das als von der Bestimmungseinheit 35A ausgegebenes Bestimmungsergebnis dient. Der Filterkoeffizient C2B des adaptiven Filters F2B wird so aktualisiert, dass ein Fehlersignal minimiert wird, wenn das Audiosignal C mehr Schall des Insassen hm3 enthält. Weiterhin wird ein Filterkoeffizient C2C des adaptiven Filters F2C so aktualisiert, dass ein Fehlersignal minimiert wird, wenn das Audiosignal C mehr Schall des Insassen hm4 enthält. Der Filterkoeffizient C2D des adaptiven Filters F2D wird so aktualisiert, dass ein Fehlersignal minimiert wird, wenn das Audiosignal D mehr Schall des Insassen hm3 enthält. Weiterhin wird der Filterkoeffizient C2E des adaptiven Filters F2E so aktualisiert, dass ein Fehlersignal minimiert wird, wenn das Audiosignal D mehr Schall des Insassen hm4 enthält. Daher kann es ermöglicht sein, dass ein Fehlersignal durch ein unterschiedliches Verwenden von adaptiven Filtern reduziert wird, abhängig davon, welchen Schall das Audiosignal C mehr enthält, oder welchen Schall das Audiosignal D mehr enthält. Wenn die Filtereinheit F2 zwei adaptive Filter enthält, in die das zweite Richtungsabhängigkeitssignal eingegeben werden kann, kann die Steuereinheit 28A bestimmen, in welches adaptives Filter das zweite Richtungsabhängigkeitssignal eingegeben wird.
  • Wenn sie beispielsweise ein Flag „0, 0, 1, 0“ von der Anomalieerfassungseinheit 31 empfängt und ein Flag „0“ von der Bestimmungseinheit 35A empfängt, bestimmt die Steuereinheit 28A, dass das Mikrofon MC3 Anomalie aufweist und das Audiosignal D mehr Schall des Insassen hm3 enthält. Dann steuert die Steuereinheit 28A die Filtereinheit F2 so, dass das Audiosignal D in das adaptive Filter F2D eingegeben wird.
  • Die Addiereinheit 27A erzeugt ein Ausgangssignal, indem sie ein Subtraktionssignal von dem von der Schalleingabeeinheit 29 ausgegebenen Objekt-Audiosignal subtrahiert. In der Ausführungsform wird das Subtraktionssignal erhalten durch ein Addieren eines Durchlasssignals P2A, des Durchlasssignals P2B oder des Durchlasssignals P2C und des Durchlasssignals P2D oder des Durchlasssignals P2E, die von der Filtereinheit F2 ausgegeben werden. Die Addiereinheit 27A gibt ein Ausgangssignal an die Steuereinheit 28A aus.
  • Die Steuereinheit 28A gibt das von der Addiereinheit 27A ausgegebene Ausgangssignal aus. Die Verwendung das Ausgangssignals ist derjenigen in der ersten Ausführungsform ähnlich.
  • Weiterhin aktualisiert die Steuereinheit 28A den Filterkoeffizienten jedes adaptiven Filters mit Bezugnahme auf ein von der Addiereinheit 27A ausgegebenes Ausgangssignal, eines Flags, das als von der Anomalieerfassungseinheit 31 ausgegebenes Bestimmungsergebnis dient, und eines Flags, das als von der Bestimmungseinheit 35A der Richtungsabhängigkeitssteuerungseinheit 30A ausgegebenes Bestimmungsergebnis dient.
  • Als Erstes bestimmt die Steuereinheit 28A auf Grundlage des Bestimmungsergebnisses ein adaptives Filter, dessen Filterkoeffizient zu aktualisieren ist. Genauer legt die Steuereinheit 28A ein adaptives Filter, in das das Audiosignal C eingegeben wird, unter dem adaptiven Filter F2A, dem adaptiven Filter F2B, dem adaptiven Filter F2C, dem adaptiven Filter F2D und dem adaptiven Filter F2E als ein Objekt fest, dessen Filterkoeffizient zu aktualisieren ist. Weiterhin legt die Steuereinheit 28A ein adaptives Filter, in das kein Audiosignal eingegeben wurde, unter dem adaptiven Filter F2B, dem adaptiven Filter F2C, dem adaptiven Filter F2D und dem adaptiven Filter F2E nicht als ein Objekt fest, dessen Filterkoeffizient zu aktualisieren ist. Wenn sie beispielsweise ein Flag „0, 0, 1, 0“ von der Anomalieerfassungseinheit 31 empfängt und ein Flag „0“ von der Bestimmungseinheit 35A empfängt, bestimmt die Steuereinheit 28A, dass das Mikrofon MC3 Anomalie aufweist und das Audiosignal D mehr Schall des Insassen hm3 enthält. Mit anderen Worten, die Steuereinheit 28A bestimmt, dass das Audiosignal C entweder in das adaptive Filter F2B oder das adaptive Filter F2C nicht einzugeben ist, dass das Audiosignal D in das adaptive Filter F2D einzugeben ist, und dass das Audiosignal D nicht in das adaptive Filter F2E einzugeben ist. Dann legt die Steuereinheit 28A das adaptive Filter F2D als ein Objekt fest, dessen Filterkoeffizient zu aktualisieren ist, und legt das adaptive Filter F2B, das adaptive Filter F2C und das adaptive Filter F2E nicht als Objekte fest, deren Filterkoeffizienten zu aktualisieren sind.
  • Dann aktualisiert die Steuereinheit 28A den Filterkoeffizienten eines adaptiven Filters, dessen Filterkoeffizient als zu aktualisieren festgelegt wurde, derart, dass der Wert des Fehlersignals im Ausdruck (1) gegen null geht. Ein genaues Verfahren zum Aktualisieren eines Filterkoeffizienten ist ähnlich dem in der ersten Ausführungsform beschriebenen.
  • Die Steuereinheit 28A aktualisiert einen Filterkoeffizienten nur für ein adaptives Filter, dessen Filterkoeffizient als zu aktualisieren festgelegt wurde, und aktualisiert nicht einen Filterkoeffizienten eines adaptiven Filters, dessen Filterkoeffizient nicht als zu aktualisieren festgelegt wurde. Dies kann einen Verarbeitungsaufwand der Übersprechunterdrückungsverarbeitung unter Verwendung eines adaptiven Filters reduzieren.
  • In der Ausführungsform sind die Funktionen der Schalleingabeeinheit 29, der Anomalieerfassungseinheit 31, der Richtungsabhängigkeitssteuerungseinheit 30A, der Filtereinheit F2, der Steuereinheit 28A und der Addiereinheit 27A durch einen Prozessor umgesetzt, der ein in einem Speicher enthaltenes Programm ausführt. Alternativ können die Schalleingabeeinheit 29, die Anomalieerfassungseinheit 31, die Richtungsabhängigkeitssteuerungseinheit 30A, die Filtereinheit F2, die Steuereinheit 28A und die Addiereinheit 27A durch unterschiedliche Hardwareelemente ausgelegt sein.
  • Obwohl die Audioverarbeitungsvorrichtung 21A beschrieben ist, weisen die Audioverarbeitungsvorrichtung 22A, die Audioverarbeitungsvorrichtung 23A und eine Audioverarbeitungsvorrichtung 24A ebenfalls im Wesentlichen ähnliche Anordnungen auf, mit Ausnahme der Filtereinheit. Die Audioverarbeitungsvorrichtung 22A legt durch den Insassen hm2 geäußerten Schall als eine Objektkomponente fest. Die Audioverarbeitungsvorrichtung 22A gibt als ein Ausgangssignal ein Audiosignal aus, das durch ein Unterdrücken einer Übersprechkomponente eines durch das Mikrofon MC2 aufgenommenen Audiosignals erhalten ist. Daher unterscheidet sich die Audioverarbeitungsvorrichtung 22 von der Audioverarbeitungsvorrichtung 21A darin, dass die Audioverarbeitungsvorrichtung 22 eine Filtereinheit enthält, in die das erste Richtungsabhängigkeitssignal, das Audiosignal C und das Audiosignal D eingegeben werden. Dasselbe gilt für die Audioverarbeitungsvorrichtung 23A und die Audioverarbeitungsvorrichtung 24A.
  • 8 ist ein Flussdiagramm, das einen Betriebsablauf der Audioverarbeitungsvorrichtung 21A darstellt. Als erstes werden das Audiosignal A, das Audiosignal B, das Audiosignal C und das Audiosignal D in die Schalleingabeeinheit 29A eingegeben (S101). Als Nächstes bestimmt die Anomalieerfassungseinheit 31 das Vorhandensein oder Nichtvorhandensein von Anomalie jedes Mikrofons auf Grundlage jedes Audiosignals (S102). Die Anomalieerfassungseinheit 31 gibt das Bestimmungsergebnis als ein Flag an die Steuereinheit 28A aus. Wenn keine Anomalie in irgendeinem Mikrofon erfasst ist (S102: Nein), führt die Richtungsabhängigkeitssteuerungseinheit 30A eine Richtungsabhängigkeitssteuerungsverarbeitung unter Verwendung aller Audiosignale durch (S103). Die Richtungsabhängigkeitssteuerungseinheit 30A gibt ein Richtungsabhängigkeitssignal an die Filtereinheit F2 aus. Die Filtereinheit F2 erzeugt ein Subtraktionssignal wie folgt (S104). Das adaptive Filter F2A lässt das zweite Richtungsabhängigkeitssignal durch und gibt das Durchlasssignal P2A aus. Das adaptive Filter F2B lässt das dritte Richtungsabhängigkeitssignal durch und gibt das Durchlasssignal P2B aus. Das adaptive Filter F2D lässt das vierte Richtungsabhängigkeitssignal durch und gibt das Durchlasssignal P2D aus. Die Filtereinheit F2 addiert das Durchlasssignal P2A, das Durchlasssignal P2B und das Durchlasssignal P2D und gibt diese Signale als ein Subtraktionssignal aus. Die Addiereinheit 27A subtrahiert das Subtraktionssignal von dem ersten Richtungsabhängigkeitssignal, erzeugt ein Ausgangssignal und gibt es aus (S105). Das Ausgangssignal wird in die Steuereinheit 28A eingegeben und von der Steuereinheit 28A ausgegeben. Als Nächstes aktualisiert die Steuereinheit 28A die Filterkoeffizienten des adaptiven Filters F2A, des adaptiven Filters F2B und des adaptiven Filters F2D auf Grundlage eines Ausgangssignals auf solche Weise, dass eine in dem Ausgangssignal enthaltene Objektkomponente maximiert wird, mit Bezugnahme auf ein Flag, das als ein von der Anomalieerfassungseinheit 31 ausgegebenes Bestimmungsergebnis dient, und ein Flag, das als ein von der Richtungsabhängigkeitssteuerungseinheit 30A ausgegebenes Bestimmungsergebnis dient (S106). Dann führt die Audioverarbeitungsvorrichtung 21A erneut Schritt S1 durch.
  • Wenn in Schritt S102 Anomalie in einem beliebigen der Mikrofone erfasst wird (S102: Ja), bestimmt die Anomalieerfassungseinheit 31, ob das Mikrofon, in dem die Anomalie erfasst wurde, ein Mikrofon in einem Objektsitz ist (S107). Hier ist der Objektsitz ein Sitz, bei dem Schall erlangt wird, der als Objektkomponente dient. In der Audioverarbeitungsvorrichtung 21A ist der Objektsitz der Fahrersitz, und das Mikrofon im Objektsitz ist das Mikrofon MC1. Die Anomalieerfassungseinheit 31 gibt das Bestimmungsergebnis als ein Flag an die Steuereinheit 28A aus. Wenn das Mikrofon, in dem die Anomalie erfasst ist, das Mikrofon im Objektsitz ist, stellt die Steuereinheit 28A die Intensität des von der Schalleingabeeinheit 29A empfangenen Audiosignals A auf null ein und gibt das Audiosignal A als ein Ausgangssignal aus (S108). In diesem Fall aktualisiert die Steuereinheit 28A nicht die Filterkoeffizienten des adaptiven Filters F2A, des adaptiven Filters F2B, des adaptiven Filters F2C, des adaptiven Filters F2D und des adaptiven Filters F2E. Dann führt die Audioverarbeitungsvorrichtung 21A erneut Schritt S101 durch.
  • Wenn in Schritt S107 das Mikrofon, in dem die Anomalie erfasst wurde, nicht das Mikrofon im Objektsitz ist (S107: Nein), bestimmt die Anomalieerfassungseinheit 31, ob das Mikrofon, in dem die Anomalie erfasst wurde, ein Mikrofon auf derselben Seite wie der Objektsitz ist (S109). Wenn das Mikrofon, in dem die Anomalie erfasst wurde, nicht das Mikrofon auf derselben Seite wie der Objektsitz ist (S109: Nein), gibt die Anomalieerfassungseinheit 31 das Bestimmungsergebnis als ein Flag an die Steuereinheit 28A aus. Die Richtungsabhängigkeitssteuerungseinheit 30A führt eine Richtungsabhängigkeitssteuerungsverarbeitung unter Verwendung des Audiosignals A und des Audiosignals B durch und erzeugt das erste Richtungsabhängigkeitssignal und das zweite Richtungsabhängigkeitssignal (S110). Dann bestimmt die Bestimmungseinheit 35A, welche Audiokomponente in das Mikrofon eingegeben wurde, das sich auf derselben Seite befindet wie das Mikrofon, in dem die Anomalie erfasst wurde, und in welchem keine Anomalie erfasst wurde (S111). Wenn beispielsweise die Anomalie in dem Mikrofon MC3 erfasst wurde, bestimmt die Bestimmungseinheit 35A, welcher aus Schall des Insassen hm3 und Schall des Insassen hm4 in das Mikrofon MC4 eingegeben wurde. Mit anderen Worten, die Bestimmungseinheit 35A bestimmt, welchen aus Schall des Insassen hm3 und Schall des Insassen hm4 das Audiosignal D mehr enthält. Die Bestimmungseinheit 35A gibt dieses Bestimmungsergebnis als ein Flag an die Steuereinheit 28A aus. Nachstehend ist eine Beschreibung unter der Annahme gegeben, dass Anomalie in dem Mikrofon MC3 erfasst wurde. Wenn das Audiosignal D mehr Schall des Insassen hm3 enthält (S111: hm3), erzeugt die Filtereinheit F2 ein Subtraktionssignal wie folgt (S112). Das adaptive Filter F2A lässt das zweite Richtungsabhängigkeitssignal durch und gibt das Durchlasssignal P2A aus. Die Steuereinheit 28A steuert die Filtereinheit F2 so, dass das Audiosignal C in das adaptive Filter F2B mit einer Intensität null eingegeben wird. Weiterhin steuert die Steuereinheit 28 die Filtereinheit F2 so, dass das Audiosignal C in das adaptive Filter F2C mit einer Intensität null eingegeben wird. Dagegen steuert die Steuereinheit 28A die Filtereinheit F2 so, dass das Audiosignal D in das adaptive Filter F2D eingegeben wird. Weiterhin steuert die Steuereinheit 28A die Filtereinheit F2 so, dass das Audiosignal D in das adaptive Filter F2E mit einer Intensität null eingegeben wird. Mit anderen Worten, die Steuereinheit 28A ändert nicht die Intensität des in das adaptive Filter F2A eingegebenen zweiten Richtungsabhängigkeitssignals und die Intensität des in das adaptive Filter F2D eingegebenen Audiosignals D, aber ändert die Intensitäten des in das adaptive Filter F2B eingegebenen Audiosignals C, des in das adaptive Filter F2C eingegebenen Audiosignals C und des in das adaptive Filter F2E eingegebenen Audiosignals D auf null. Dann erzeugt die Filtereinheit F2 ein Subtraktionssignal durch einen ähnlichen Vorgang wie denjenigen in Schritt S104. Ähnlich wie in Schritt S5 subtrahiert die Addiereinheit 27A das Subtraktionssignal von dem ersten Richtungsabhängigkeitssignal, erzeugt ein Ausgangssignal und gibt es aus (S113). Als Nächstes aktualisiert die Steuereinheit 28A den Filterkoeffizienten des adaptiven Filters, in das ein Audiosignal eingegeben wird, auf Grundlage des Ausgangssignals auf solche Weise, dass die in dem Ausgangssignal enthaltene Objektkomponente maximiert wird (S114). Genauer werden die Filterkoeffizienten des adaptiven Filters F2A und des adaptiven Filters F2D aktualisiert. Dann führt die Audioverarbeitungsvorrichtung 21 erneut Schritt S101 durch.
  • Wenn in Schritt S111 bestimmt ist, dass das Audiosignal D mehr Schall des Insassen hm4 enthält (S111: hm4), erzeugt die Filtereinheit F2 ein Subtraktionssignal wie folgt (S115). Das adaptive Filter F2A lässt das zweite Richtungsabhängigkeitssignal durch und gibt das Durchlasssignal P2A aus. Die Steuereinheit 28A steuert die Filtereinheit F2 so, dass das Audiosignal C in das adaptive Filter F2B mit einer Intensität null eingegeben wird. Weiterhin steuert die Steuereinheit 28A die Filtereinheit F2 so, dass das Audiosignal C in das adaptive Filter F2C mit einer Intensität null eingegeben wird. Dagegen steuert die Steuereinheit 28A die Filtereinheit F2 so, dass das Audiosignal D in das adaptive Filter F2D mit einer Intensität null eingegeben wird. Weiterhin steuert die Steuereinheit 28A die Filtereinheit F2 so, dass das Audiosignal D in das adaptive Filter F2E eingegeben wird. Mit anderen Worten, die Steuereinheit 28 ändert nicht die Intensität des in das adaptive Filter F2A eingegebenen zweiten Richtungsabhängigkeitssignals und die Intensität des in das adaptive Filter F2E eingegebenen Audiosignals D, aber ändert die Intensitäten des in das adaptive Filter F2B eingegebenen Audiosignals C, des in das adaptive Filter F2C eingegebenen Audiosignals C und des in das adaptive Filter F2D eingegebenen Audiosignals D auf null. Dann erzeugt die Filtereinheit F2 ein Subtraktionssignal durch einen ähnlichen Vorgang wie denjenigen in Schritt S4. Ähnlich wie in Schritt S5 subtrahiert die Addiereinheit 27A das Subtraktionssignal von dem ersten Richtungsabhängigkeitssignal, erzeugt ein Ausgangssignal und gibt es aus (S116). Als Nächstes aktualisiert die Steuereinheit 28A den Filterkoeffizienten des adaptiven Filters, in das ein Audiosignal eingegeben wird, auf Grundlage des Ausgangssignals derart, dass die in dem Ausgangssignal enthaltene Objektkomponente maximiert wird (S117). Genauer werden die Filterkoeffizienten des adaptiven Filters F2A und des adaptiven Filters F2E aktualisiert. Dann führt die Audioverarbeitungsvorrichtung 21 erneut Schritt S101 durch.
  • Anzumerken ist, dass, wenn die Filtereinheit F2 zwei adaptive Filter enthält, in die das zweite Richtungsabhängigkeitssignal eingegeben werden kann, die bisherigen Schritte wie folgt teilweise geändert werden. Wenn beispielsweise die Anomalieerfassungseinheit 31 Anomalie des Mikrofons MC2 erfassen kann und die Filtereinheit F2 getrennt das adaptive Filter F2A1, in das das zweite Richtungsabhängigkeitssignal eingegeben wird, wenn die Anomalie des Mikrofons MC2 erfasst ist, und das adaptive Filter F2A2 enthält, in das das zweite Richtungsabhängigkeitssignal eingegeben wird, wenn die Anomalie des Mikrofons MC2 nicht erfasst ist, ist das adaptive Filter F2A, in das in den bisherigen Schritten das zweite Richtungsabhängigkeitssignal eingegeben wird, nur als das adaptive Filter F2A2 zu lesen. Die nachstehend beschriebene Schritte werden durchgeführt, wenn die Anomalieerfassungseinheit 31 Anomalie des Mikrofons MC2 erfassen kann und die Filtereinheit F2 getrennt das adaptive Filter F2A1, in das das zweite Richtungsabhängigkeitssignal eingegeben wird, wenn die Anomalie des Mikrofons MC2 erfasst ist, und das adaptive Filter F2A2 enthält, in das das zweite Richtungsabhängigkeitssignal eingegeben wird, wenn die Anomalie des Mikrofons MC2 nicht erfasst ist.
  • Wenn in Schritt S109 das Mikrofon, in dem die Anomalie erfasst wurde, das Mikrofon auf derselben Seite wie der Objektsitz ist, gibt die Anomalieerfassungseinheit 31 das Bestimmungsergebnis als ein Flag an die Steuereinheit 28A aus. In diesem Beispiel ist die Anomalie in dem Mikrofon MC2 erfasst. Die Richtungsabhängigkeitssteuerungseinheit 30A führt die Richtungsabhängigkeitssteuerungsverarbeitung unter Verwendung des Audiosignals C und des Audiosignals D durch und erzeugt das dritte Richtungsabhängigkeitssignal und das vierte Richtungsabhängigkeitssignal (S118). Dann bestimmt die Bestimmungseinheit 35A, welche Audiokomponente in das Mikrofon eingegeben wurde, das sich auf derselben Seite befindet wie das Mikrofon, in dem die Anomalie erfasst wurde, und in welchem keine Anomalie erfasst wurde (S119). Wenn beispielsweise die Anomalie in dem Mikrofon MC2 erfasst wurde, bestimmt die Bestimmungseinheit 35A, welcher aus Schall des Fahrers hm1 und Schall des Insassen hm2 in das Mikrofon MC1 eingegeben wurde. Mit anderen Worten, die Bestimmungseinheit 35A bestimmt, welchen aus Schall des Fahrers hm1 und Schall des Insassen hm2 das Audiosignal A mehr enthält. Die Bestimmungseinheit 35A gibt dieses Bestimmungsergebnis als ein Flag an die Steuereinheit 28A aus.
  • Wenn das Audiosignal A mehr Schall des Insassen hm2 enthält, stellt die Steuereinheit 28A die Intensität des Audiosignals A auf null und gibt das Audiosignal A als Ausgangssignal aus (S108). In diesem Fall aktualisiert die Steuereinheit 28A nicht die Filterkoeffizienten des adaptiven Filters F2A1, des adaptiven Filters F2A2, des adaptiven Filters F2B, des adaptiven Filters F2C, des adaptiven Filters F2D und des adaptiven Filters F2E. Dann führt die Audioverarbeitungsvorrichtung 21A erneut Schritt S101 durch.
  • Wenn das Audiosignal A mehr Schall des Fahrers hm1 enthält, erzeugt die Filtereinheit F2 ein Subtraktionssignal wie folgt (S120). Die Steuereinheit 28A steuert die Filtereinheit F2 so, dass das Audiosignal B in das adaptive Filter F2A1 mit einer Intensität null eingegeben wird. Dagegen steuert die Steuereinheit 28A die Filtereinheit F2 so, dass das dritte Richtungsabhängigkeitssignal in das adaptive Filter F2B eingegeben wird. Weiterhin steuert die Steuereinheit 28A die Filtereinheit F2 so, dass das vierte Richtungsabhängigkeitssignal in das adaptive Filter F2D eingegeben wird. Mit anderen Worten, die Steuereinheit 28A ändert nicht die Intensität des in das adaptive Filter F2B eingegebenen dritten Richtungsabhängigkeitssignals und die Intensität des in das adaptive Filter F2D eingegebenen vierten Richtungsabhängigkeitssignals, aber ändert die Intensität des in das adaptive Filter F2A1 eingegebenen Audiosignals B auf null. Das adaptive Filter F2B lässt das dritte Richtungsabhängigkeitssignal durch und gibt das Durchlasssignal P2B aus. Das adaptive Filter F2D lässt das vierte Richtungsabhängigkeitssignal durch und gibt das Durchlasssignal P2D aus. Die Filtereinheit F2 addiert das Durchgangssignal P2B und das Durchgangssignal P2D und gibt diese Signale als ein Subtraktionssignal aus. Die Additionseinheit 27A subtrahiert das Subtraktionssignal von dem Audiosignal A, erzeugt ein Ausgangssignal und gibt es aus (S121). Das Ausgangssignal wird in die Steuereinheit 28A eingegeben und von der Steuereinheit 28A ausgegeben. Als Nächstes aktualisiert die Steuereinheit 28A die Filterkoeffizienten des adaptiven Filters F2B und des adaptiven Filters F2D auf Grundlage des Ausgangssignals auf solche Weise, dass eine in dem Ausgangssignal enthaltene Objektkomponente maximiert wird, mit Bezugnahme auf ein Flag, das als ein von der Anomalieerfassungseinheit 31 ausgegebenes Bestimmungsergebnis dient, und ein Flag, das als ein von der Bestimmungseinheit 35A ausgegebenes Bestimmungsergebnis dient (S122). Dann führt die Audioverarbeitungsvorrichtung 21A erneut Schritt S101 durch.
  • Anzumerken ist, dass, obwohl ein Beispiel beschrieben ist, in dem die Anomalieerfassungseinheit 31 die Anomalie des Mikrofons MC1 und des Mikrofons MC2 erfassen kann, es der Anomalieerfassungseinheit 31 ermöglicht sein kann, die Anomalie nur des Mikrofons MC3 und des Mikrofons MC4 zu erfassen. In diesem Fall sind die Schritte S107, S108, S109 und S118 bis S122 in dem Flussdiagramm von 8 weggelassen.
  • In der Ausführungsform wird der Filterkoeffizient nicht für ein adaptives Filter aktualisiert, in das ein Audiosignal mit einer Intensität null eingegeben wird. Dies kann einen Verarbeitungsaufwand der Steuereinheit 28A reduzieren, verglichen mit demjenigen in einem Fall, wo die Filterkoeffizienten aller adaptiven Filter ständig aktualisiert werden. Dagegen kann die Steuereinheit 28A die Filterkoeffizienten aller adaptiven Filter ständig aktualisieren. Die Steuereinheit 28A kann ständig dieselbe Verarbeitung durch ein ständiges Aktualisieren der Filterkoeffizienten aller adaptiven Filter durchführen, sodass die Verarbeitung vereinfacht ist. Weiterhin kann beispielsweise der Filterkoeffizient eines bestimmten adaptiven Filters durch ein ständiges Aktualisieren der Filterkoeffizienten aller adaptiven Filter genau aktualisiert werden, sogar unmittelbar nach der Änderung von einem Zustand, in dem ein Audiosignal mit einer Intensität null eingegeben wird, zu einem Zustand, in dem ein Audiosignal mit einer Intensität verschieden von null eingegeben wird.
  • Wie oben beschrieben, bestimmt das Audioverarbeitungssystem 5A in der zweiten Ausführungsform Schall eines bestimmten Sprechers mit hoher Genauigkeit durch ein Erlangen einer Vielzahl von Audiosignalen mit einer Vielzahl von Mikrofonen und ein Subtrahieren eines Subtraktionssignals, das unter Verwendung eines adaptiven Filters aus einem bestimmten Audiosignal durch Verwendung eines anderen Audiosignals als Referenzsignal erzeugt ist. Weiterhin kann in der zweiten Ausführungsform, sogar wenn in einigen Mikrofonen Anomalie erfasst wird, eine Übersprechkomponente auf Grundlage von in ein anderes Mikrofon übertretendem Schall unterdrückt werden. Dies ermöglicht es, Schall eines bestimmten Sprechers mit hoher Genauigkeit zu erhalten, sogar wenn ein Mikrofon Anomalie aufweist. Weiterhin wird in der zweiten Ausführungsform, wenn eine Objektkomponente unter Verwendung eines adaptiven Filters erhalten wird, ein von einem Mikrofon, in dem Anomalie erfasst ist, ausgegebenes Audiosignal nicht als Referenzsignal benutzt. Dies kann einen Verarbeitungsaufwand zum Unterdrücken einer Übersprechkomponente reduzieren. Weiterhin braucht der Filterkoeffizient für ein adaptives Filter nicht aktualisiert zu werden, in das ein Audiosignal mit einer Intensität null eingegeben wird. Dies kann weiter einen Verarbeitungsaufwand reduzieren, verglichen mit demjenigen in einem Fall, wo die Filterkoeffizienten für alle adaptiven Filter ständig aktualisiert werden.
  • (Dritte Ausführungsform)
  • Ein Audioverarbeitungssystem 5B gemäß einer dritten Ausführungsform unterscheidet sich von dem Audioverarbeitungssystem 5A gemäß der zweiten Ausführungsform darin, dass das Audioverarbeitungssystem 5B eine Audioverarbeitungsvorrichtung 20B anstelle der Audioverarbeitungsvorrichtung 20A enthält und das Audioverarbeitungssystem 5B die Richtungsabhängigkeitssteuerungseinheit 30A nicht enthält.
  • Die Audioverarbeitungsvorrichtung 20B gemäß der dritten Ausführungsform erfasst das Vorhandensein oder Nichtvorhandensein von Anomalie in jedem Mikrofon. Die Audioverarbeitungsvorrichtung 20B führt eine Verarbeitung zum Unterdrücken einer Übersprechkomponente unter Verwendung eines Audiosignals durch, das von einem Mikrofon ausgegeben ist, in dem keine Anomalie erfasst ist. Nachstehend ist die Audioverarbeitungsvorrichtung 20B unter Bezugnahme auf 9, 10 und 11 beschrieben. Dieselben Anordnungen und Betriebsvorgänge wie diejenigen, die bei der ersten Ausführungsform und der zweiten Ausführungsform beschrieben sind, sind durch dieselben Bezugszeichen bezeichnet, und ihre Beschreibung ist weggelassen oder vereinfacht.
  • Nachstehend sind Einzelheiten des Audioverarbeitungssystems 5B gemäß der zweiten Ausführungsform mit Bezugnahme auf 9 beschrieben. 9 stellt ein Beispiel des schematischen Aufbaus des Audioverarbeitungssystems 5B gemäß der dritten Ausführungsform dar. Das Audioverarbeitungssystem 5B enthält das Mikrofon MC1, das Mikrofon MC2, das Mikrofon MC3, das Mikrofon MC4 und die Audioverarbeitungsvorrichtung 20B. In der Ausführungsform ist das Mikrofon MC1 beispielsweise an einem Hilfsgriff auf der rechten Seite des Fahrersitzes angeordnet. In der Ausführungsform ist das Mikrofon MC2 beispielsweise an einem Hilfsgriff auf der linken Seite des Beifahrersitzes angeordnet. In der Ausführungsform ist das Mikrofon MC3 beispielsweise an einem Hilfsgriff auf der rechten Seite eines Rücksitzes angeordnet. In der Ausführungsform ist das Mikrofon MC4 beispielsweise an einem Hilfsgriff auf der linken Seite eines Rücksitzes angeordnet. Das Mikrofon MC1 befindet sich weiter weg vom rechten Sitz der Rücksitze als das Mikrofon MC3. Das Mikrofon MC2 befindet sich weiter weg vom linken Sitz der Rücksitze als das Mikrofon MC4. Das Mikrofon MC4 befindet sich näher am linken Sitz der Rücksitze als das Mikrofon MC3.
  • In der Ausführungsform enthält das Audioverarbeitungssystem 5B eine Vielzahl von Audioverarbeitungsvorrichtungen 20B, die die jeweiligen Mikrofone ansprechen. Genauer enthält das Audioverarbeitungssystem 5B eine Audioverarbeitungsvorrichtung 21B, eine Audioverarbeitungsvorrichtung 22B, eine Audioverarbeitungsvorrichtung 23B und eine Audioverarbeitungsvorrichtung 24B. Die Audioverarbeitungsvorrichtung 21B spricht das Mikrofon MC1 an. Die Audioverarbeitungsvorrichtung 22B spricht das Mikrofon MC2 an. Die Audioverarbeitungsvorrichtung 23B spricht das Mikrofon MC3 an. Die Audioverarbeitungsvorrichtung 24B spricht das Mikrofon MC4 an. Nachstehend können die Audioverarbeitungsvorrichtung 21B, die Audioverarbeitungsvorrichtung 22B, die Audioverarbeitungsvorrichtung 23B und die Audioverarbeitungsvorrichtung 24B zusammenfassend als die Audioverarbeitungsvorrichtungen 20B bezeichnet sein.
  • Obwohl in dem in 9 dargestellten Aufbau die Audioverarbeitungsvorrichtung 21B, die Audioverarbeitungsvorrichtung 22B, die Audioverarbeitungsvorrichtung 23B und die Audioverarbeitungsvorrichtung 24B als durch unterschiedliche Hardwareelemente aufgebaut beschrieben sind, kann eine einzelne Audioverarbeitungsvorrichtung 20B die Funktionen der Audioverarbeitungsvorrichtung 21B, der Audioverarbeitungsvorrichtung 22B, der Audioverarbeitungsvorrichtung 23B und der Audioverarbeitungsvorrichtung 24B umsetzen. Alternativ können einige aus der Audioverarbeitungsvorrichtung 21B, der Audioverarbeitungsvorrichtung 22B, der Audioverarbeitungsvorrichtung 23B und der Audioverarbeitungsvorrichtung 24B durch gemeinsame Hardwareelemente aufgebaut sein und die anderen können durch unterschiedliche Hardwareelemente aufgebaut sein.
  • Auch ist in der Ausführungsform jede der Audioverarbeitungsvorrichtungen 20B in einem jeweiligen Sitz in der Nähe des jeweiligen entsprechenden Mikrofons angeordnet.
  • 10 ist ein Blockdiagramm, das den Aufbau der Audioverarbeitungsvorrichtung 21B darstellt. Alle aus der Audioverarbeitungsvorrichtung 21B, der Audioverarbeitungsvorrichtung 22B, der Audioverarbeitungsvorrichtung 23B und der Audioverarbeitungsvorrichtung 24B weisen ähnliche Aufbauten und Funktionen auf, mit Ausnahme eines Teils des Aufbaus einer Filtereinheit, die weiter unten beschrieben ist. Nachstehend ist die Audioverarbeitungsvorrichtung 21B beschrieben. Die Audioverarbeitungsvorrichtung 21B stellt den durch den Fahrer hm1 geäußerten Schall als ein Objekt ein. Die Audioverarbeitungsvorrichtung 21B gibt als ein Ausgangssignal ein Audiosignal aus, das durch ein Unterdrücken einer Übersprechkomponente eines durch das Mikrofon MC1 aufgenommenen Audiosignals erhalten ist.
  • Wie in 10 dargestellt, enthält die Audioverarbeitungsvorrichtung 21B eine Schalleingabeeinheit 29B, eine Anomalieerfassungseinheit 31B, eine Filtereinheit F3, eine Steuereinheit 28B und eine Addiereinheit 27B. Die Filtereinheit F3 enthält eine Vielzahl von adaptiven Filtern. Die Steuereinheit 28 steuert die Filterkoeffizienten der adaptiven Filter der Filtereinheit F3.
  • Da das Mikrofon MC1, das Mikrofon MC2, das Mikrofon MC3, das Mikrofon MC4 und die Schalleingabeeinheit 29B ähnlich denjenigen in der zweiten Ausführungsform sind, ist ihre Beschreibung weggelassen.
  • In der Ausführungsform enthält die Anomalieerfassungseinheit 31B eine Bestimmungseinheit 35B. Die Bestimmungseinheit 35B weist eine Funktion zum Bestimmen auf, Schall welches Insassen ein von dem Mikrofon auf derselben Seite wie das Mikrofon, in dem Anomalie erfasst wurde, ausgegebenes Audiosignal mehr enthält, auf Grundlage eines von einem Mikrofon, in dem keine Anomalie erfasst wurde, ausgegebenen Audiosignals.
  • Wenn beispielsweise bestimmt ist, dass das Mikrofon MC3 Anomalie aufweist, bestimmt die Bestimmungseinheit 35B, welchen aus Schall des Insassen hm3 und Schall des Insassen hm4 das Audiosignal D mehr enthält, auf Grundlage des Audiosignals A und des Audiosignals B. Ein genaues Bestimmungsverfahren ist ähnlich dem in der ersten Ausführungsform und der zweiten Ausführungsform beschriebenen. Da die Bestimmungseinheit 35B einen ähnlichen Aufbau und eine ähnliche Funktion aufweist wie die in der ersten Ausführungsform beschriebenen, ist eine genaue Beschreibung davon weggelassen.
  • Die Anomalieerfassungseinheit 31B gibt das Bestimmungsergebnis des Vorhandenseins oder Nichtvorhandenseins von Anomalie in jedem Mikrofon an die Steuereinheit 28B aus. Die Bestimmungseinheit 35B gibt an die Steuereinheit 28B ein Bestimmungsergebnis aus, welchen aus Schall des Insassen hm3 und Schall des Insassen hm4 das Audiosignal C oder das Audiosignal D mehr enthält. Die Bestimmungseinheit 35B gibt das Bestimmungsergebnis beispielsweise als ein Flag an die Steuereinheit 28B aus. Das Flag gibt einen Wert „0“ oder „1“ an. Hier bedeutet „1“, dass bestimmt wurde, dass ein entsprechendes Mikrofon Anomalie aufweist, und „0“ bedeutet, dass nicht bestimmt wurde, dass ein entsprechendes Mikrofon Anomalie aufweist. Alternativ gibt „0“ an, dass das Audiosignal mehr Schall des Insassen hm3 enthält, und „1“ gibt an, dass das Audiosignal mehr Schall des Insassen hm4 enthält. Wenn sie beispielsweise bestimmt, dass die Mikrofone MC1, MC2 und MC4 keine Anomalie aufweisen, bestimmt, dass das Mikrofon MC3 Anomalie aufweist, und bestimmt, dass das Audiosignal D mehr Schall des Insassen hm3 enthält, gibt die Bestimmungseinheit 35B als Bestimmungsergebnis ein Flag „0, 0, 1, 0, 0“ an die Steuereinheit 28B aus. Unter den fünf Flags in diesem Beispiel geben die ersten vier Flags Ergebnisse der Bestimmungen über das Vorhandensein oder Nichtvorhandensein von Anomalie eines Mikrofons an, und das letzte gibt ein Bestimmungsergebnis an, Schall welches Insassen das Audiosignal mehr enthält. Die Anomalieerfassungseinheit 31B kann das Bestimmungsergebnis über das Vorhandensein oder Nichtvorhandensein von Anomalie eines Mikrofons zu derselben Zeit ausgeben wie die Bestimmungseinheit 35B ein Bestimmungsergebnis ausgibt, Schall welches Insassen das Audiosignal mehr enthält. Alternativ kann die Anomalieerfassungseinheit 31B das Bestimmungsergebnis über das Vorhandensein oder Nichtvorhandensein von Anomalie eines Mikrofons als ein Flag bei der Durchführung der Bestimmung über das Vorhandensein oder Nichtvorhandensein von Anomalie ausgeben. Als Nächstes kann die Bestimmungseinheit 35B ein Bestimmungsergebnis, Schall welches Insassen das Audiosignal mehr enthält, zu der Zeit der Durchführung der Bestimmung darüber, Schall welches Insassen das Audiosignal mehr enthält, als ein Flag ausgeben.
  • Nach dem Erfassen von Anomalie jedes Mikrofons gibt die Anomalieerfassungseinheit 31B das Audiosignal A, das Audiosignal B, das Audiosignal C und das Audiosignal D an die Filtereinheit F3 aus.
  • Die Filtereinheit F3 enthält ein adaptives Filter F3A, ein adaptives Filter F3B, ein adaptives Filter F3C, ein adaptives Filter F3D und ein adaptives Filter F3E. Die Filtereinheit F3 wird für eine Verarbeitung zum Unterdrücken einer Übersprechkomponente verwendet, die von Schall des Fahrers hm1 verschieden ist und in durch das Mikrofon MC1 aufgenommenem Schall enthalten ist. Die Filtereinheit F3 in der Ausführungsform ist der Filtereinheit F2 in der zweiten Ausführungsform ähnlich, außer dass das Audiosignal B anstelle des zweiten Richtungsabhängigkeitssignals in ein adaptives Filter F3A eingegeben wird, und somit ist eine genaue Beschreibung davon weggelassen. Das adaptive Filter F3A gibt ein Durchlasssignal P3A auf Grundlage eines Filterkoeffizienten C3A und des Audiosignals B aus. Ein adaptives Filter F3B gibt ein Durchlasssignal P3B auf Grundlage eines Filterkoeffizienten C3B und des Audiosignals C aus. Ein adaptives Filter F3C gibt ein Durchlasssignal P3C auf Grundlage eines Filterkoeffizienten C3C und des Audiosignals C aus. Ein adaptives Filter F3D gibt ein Durchlasssignal P3D auf Grundlage eines Filterkoeffizienten C3D und des Audiosignals D aus. Das adaptive Filter F3E gibt ein Durchlasssignal P3E auf Grundlage eines Filterkoeffizienten C3E und des Audiosignals D aus. Auch kann in der Ausführungsform die Filtereinheit F3 zwei adaptive Filter enthalten, in die das Audiosignal B eingegeben werden kann. Zum Beispiel kann es der Anomalieerfassungseinheit 31B ermöglicht sein, die Anomalie des Mikrofons MC2 zu erfassen. Die Filtereinheit F2 kann getrennt das adaptive Filter F2A1 und das adaptive Filter F2A2 enthalten. Wenn die Anomalie des Mikrofons MC2 erfasst wird, wird das Audiosignal B in das adaptive Filter F2A1 eingegeben. Wenn die Anomalie des Mikrofons MC2 nicht erfasst wird, wird das Audiosignal B in das adaptive Filter F2A2 eingegeben.
  • Die Steuereinheit 28B steuert den Filterkoeffizienten des adaptiven Filters auf Grundlage eines Bestimmungsergebnisses der Anomalieerfassungseinheit 31B. In der Ausführungsform bestimmt die Steuereinheit 28B, in welches aus dem adaptiven Filter F3B und dem adaptiven Filter F3C das Audiosignal C einzugeben ist, auf Grundlage eines Flags, das als von der Anomalieerfassungseinheit 31B und der Bestimmungseinheit 35B ausgegebene Bestimmungsergebnisse dient. Weiterhin bestimmt in der Ausführungsform die Steuereinheit 28B, in welches aus dem adaptiven Filter F3D und dem adaptiven Filter F3E das Audiosignal D einzugeben ist, auf Grundlage eines Flags, das als von der Anomalieerfassungseinheit 31B und der Bestimmungseinheit 35B ausgegebene Bestimmungsergebnisse dient. Da die Steuerung eines Filterkoeffizienten der durch die Steuereinheit 28A in der zweiten Ausführungsform durchgeführten ähnlich ist, ist eine genaue Beschreibung davon weggelassen.
  • Die Addiereinheit 27B erzeugt ein Ausgangssignal, indem sie ein Subtraktionssignal von dem von der Schalleingabeeinheit 29 ausgegebenen Objekt-Audiosignal subtrahiert. In der Ausführungsform wird das Subtraktionssignal erhalten durch ein Addieren des Durchlasssignals P3A, des Durchlasssignals P3B oder des Durchlasssignals P3C und des Durchlasssignals P3D oder des Durchlasssignals P3E, die von der Filtereinheit F3 ausgegeben werden. Die Addiereinheit 27B gibt ein Ausgangssignal an die Steuereinheit 28B aus.
  • Die Steuereinheit 28B gibt das von der Addiereinheit 27B ausgegebene Ausgangssignal aus. Die Verwendung des Ausgangssignals ist derjenigen in der ersten Ausführungsform ähnlich.
  • Weiterhin aktualisiert die Steuereinheit 28B den Filterkoeffizienten jedes adaptiven Filters mit Bezugnahme auf ein von der Addiereinheit 27B ausgegebenen Ausgangssignal, ein Flag, das als von der Anomalieerfassungseinheit 31 ausgegebenes Bestimmungsergebnis dient, und ein Flag, das als von der Bestimmungseinheit 35B ausgegebenes Bestimmungsergebnis dient. Da die Aktualisierung eines Filterkoeffizienten der durch die Steuereinheit 28A in der zweiten Ausführungsform durchgeführten ähnlich ist, ist eine genaue Beschreibung davon weggelassen.
  • In der Ausführungsform sind die Funktionen der Schalleingabeeinheit 29, der Anomalieerfassungseinheit 31B, der Filtereinheit F3, der Steuereinheit 28B und der Addiereinheit 27B durch einen Prozessor umgesetzt, der ein in einem Speicher enthaltenes Programm ausführt. Alternativ können die Schalleingabeeinheit 29, die Anomalieerfassungseinheit 31B, die Filtereinheit F3, die Steuereinheit 28B und die Addiereinheit 27B durch unterschiedliche Hardwareelemente aufgebaut sein.
  • Obwohl die Audioverarbeitungsvorrichtung 21B beschrieben ist, weisen die Audioverarbeitungsvorrichtung 22B, die Audioverarbeitungsvorrichtung 23B und eine Audioverarbeitungsvorrichtung 24B ebenfalls im Wesentlichen ähnliche Anordnungen auf, mit Ausnahme der Filtereinheit. Die Audioverarbeitungsvorrichtung 22B legt durch den Insassen hm2 geäußerten Schall als eine Objektkomponente fest. Die Audioverarbeitungsvorrichtung 22B gibt als ein Ausgangssignal ein Audiosignal aus, das durch ein Unterdrücken einer Übersprechkomponente eines durch das Mikrofon MC2 aufgenommenen Audiosignals erhalten ist. Daher unterscheidet sich die Audioverarbeitungsvorrichtung 22B von der Audioverarbeitungsvorrichtung 21B darin, dass die Audioverarbeitungsvorrichtung 22B eine Filtereinheit enthält, in die das Audiosignal A, das Audiosignal C und das Audiosignal D eingegeben werden. Dasselbe gilt für die Audioverarbeitungsvorrichtung 23B und die Audioverarbeitungsvorrichtung 24B.
  • 11 ist ein Flussdiagramm, das einen Betriebsablauf der Audioverarbeitungsvorrichtung 21B darstellt. Als erstes werden das Audiosignal A, das Audiosignal B, das Audiosignal C und das Audiosignal D in die Schalleingabeeinheit 29 eingegeben (S201). Als Nächstes bestimmt die Anomalieerfassungseinheit 31B das Vorhandensein oder Nichtvorhandensein von Anomalie jedes Mikrofons auf Grundlage jedes Audiosignals (S202). Die Anomalieerfassungseinheit 31B kann dabei das Bestimmungsergebnis als ein Flag an die Steuereinheit 28B ausgeben. Wenn keine Anomalie in einem beliebigen der Mikrofone erfasst wird, gibt die Anomalieerfassungseinheit 31B alle Audiosignale an die Filtereinheit F3 aus. Die Filtereinheit F3 erzeugt ein Subtraktionssignal wie folgt (S203). Das adaptive Filter F3A lässt das Audiosignal B durch und gibt das Durchlasssignal P3A aus. Das adaptive Filter F3B lässt das Audiosignal C durch und gibt das Durchlasssignal P3B aus. Das adaptive Filter F3D lässt das Audiosignal C durch und gibt das Durchlasssignal P3D aus. Die Filtereinheit F3 addiert das Durchlasssignal P3A, das Durchlasssignal P3B und das Durchlasssignal P3D und gibt diese Signale als ein Subtraktionssignal aus. Die Additionseinheit 27B subtrahiert das Subtraktionssignal von dem Audiosignal A, erzeugt ein Ausgangssignal und gibt es aus (S204). Das Ausgangssignal wird in die Steuereinheit 28B eingegeben und von der Steuereinheit 28B ausgegeben. Als Nächstes aktualisiert die Steuereinheit 28B die Filterkoeffizienten des adaptiven Filters F3A, des adaptiven Filters F3B und des adaptiven Filters F3D auf Grundlage des Ausgangssignals auf solche Weise, dass eine in dem Ausgangssignal enthaltene Objektkomponente maximiert wird, mit Bezugnahme auf ein Flag, das als ein von der Anomalieerfassungseinheit 31B ausgegebenes Bestimmungsergebnis dient (S205). Dann führt die Audioverarbeitungsvorrichtung 21B erneut Schritt S201 durch.
  • Wenn in Schritt S202 Anomalie in einem beliebigen der Mikrofone erfasst wird (S202: Ja), bestimmt die Anomalieerfassungseinheit 31B, ob das Mikrofon, in dem die Anomalie erfasst wurde, ein Mikrofon in einem Objektsitz ist (S206). Dabei kann die Anomalieerfassungseinheit 31B das Bestimmungsergebnis als ein Flag an die Steuereinheit 28B ausgeben. Wenn das Mikrofon, in dem die Anomalie erfasst ist, das Mikrofon im Objektsitz ist (S206: Ja), stellt die Steuereinheit 28B die Intensität des von der Schalleingabeeinheit 29 empfangenen Audiosignals A auf null ein und gibt das Audiosignal A als Ausgangssignal aus (S207). In diesem Fall aktualisiert die Steuereinheit 28B nicht die Filterkoeffizienten des adaptiven Filters F3A, des adaptiven Filters F3B, des adaptiven Filters F3C, des adaptiven Filters F3D und des adaptiven Filters F3E. Dann führt die Audioverarbeitungsvorrichtung 21B erneut Schritt S201 durch.
  • Wenn in Schritt S206 das Mikrofon, in dem die Anomalie erfasst wurde, nicht das Mikrofon im Objektsitz ist (S206: Nein), bestimmt die Anomalieerfassungseinheit 31B, ob das Mikrofon, in dem die Anomalie erfasst wurde, ein Mikrofon auf derselben Seite wie der Objektsitz ist (S208). Wenn das Mikrofon, in dem die Anomalie erfasst wurde, nicht das Mikrofon auf derselben Seite wie der Objektsitz ist (S208: Nein), kann die Anomalieerfassungseinheit 31B dabei das Bestimmungsergebnis als ein Flag an die Steuereinheit 28B ausgeben. Die Bestimmungseinheit 35B bestimmt, welche Audiokomponente in das Mikrofon eingegeben wurde, das sich auf derselben Seite wie das Mikrofon, in dem die Anomalie erfasst wurde, befindet, und in welchem keine Anomalie erfasst wurde (S209). Nachstehend ist eine Beschreibung unter der Annahme gegeben, dass Anomalie in dem Mikrofon MC3 erfasst wurde. Da das Folgende ähnlich demjenigen in der zweiten Ausführungsform ist, ist eine genaue Beschreibung davon weggelassen. Wenn bestimmt ist, dass das Audiosignal D mehr Schall des Insassen hm3 enthält, erzeugt die Filtereinheit F3 ein Subtraktionssignal unter Verwendung des adaptiven Filters F3A und des adaptiven Filters F3D (S210). Ähnlich wie in Schritt S4 subtrahiert die Addiereinheit 27B das Subtraktionssignal von dem Audiosignal A, erzeugt ein Ausgangssignal und gibt es aus (S211). Als Nächstes aktualisiert die Steuereinheit 28B auf Grundlage des Ausgangssignals den Filterkoeffizienten des adaptiven Filters, in das ein Audiosignal eingegeben wird, auf solche Weise, dass die in dem Ausgangssignal enthaltene Objektkomponente maximiert wird (S212). Dann führt die Audioverarbeitungsvorrichtung 21 erneut Schritt S201 durch.
  • Wenn in Schritt S209 bestimmt ist, dass das Audiosignal D mehr Schall des Insassen hm4 enthält (S209: hm3), erzeugt die Filtereinheit F3 ein Subtraktionssignal unter Verwendung des adaptiven Filters F3A und des adaptiven Filters F3E (S213). Ähnlich wie in Schritt S4 subtrahiert die Addiereinheit 27B das Subtraktionssignal von dem Audiosignal A, erzeugt ein Ausgangssignal und gibt es aus (S214). Als Nächstes aktualisiert die Steuereinheit 28A auf Grundlage des Ausgangssignals den Filterkoeffizienten des adaptiven Filters, in das ein Audiosignal eingegeben wird, auf solche Weise, dass die in dem Ausgangssignal enthaltene Objektkomponente maximiert wird (S215). Dann führt die Audioverarbeitungsvorrichtung 21 erneut Schritt S201 durch.
  • Anzumerken ist, dass, wenn die Filtereinheit F3 zwei adaptive Filter enthält, in die das Audiosignal B eingegeben werden kann, die bisherigen Schritte wie folgt teilweise geändert werden. Wenn beispielsweise die Anomalieerfassungseinheit 31B Anomalie des Mikrofons MC2 erfassen kann und die Filtereinheit F3 getrennt ein adaptives Filter F3A1, in das das Audiosignal B eingegeben wird, wenn die Anomalie des Mikrofons MC2 erfasst ist, und ein adaptives Filter F3A2 enthält, in das das Audiosignal B eingegeben wird, wenn die Anomalie des Mikrofons MC2 nicht erfasst ist, braucht das adaptive Filter F3A, in das in den bisherigen Schritten das zweite Richtungsabhängigkeitssignal eingegeben wird, nur als das adaptive Filter F3A2 gelesen zu werden. Nachstehend beschriebene Schritte werden durchgeführt, wenn die Anomalieerfassungseinheit 31B Anomalie des Mikrofons MC2 erfassen kann und die Filtereinheit F3 getrennt das adaptive Filter F3A1, in das das Audiosignal B eingegeben wird, wenn die Anomalie des Mikrofons MC2 erfasst ist, und das adaptive Filter F3A2 enthält, in das das Audiosignal B eingegeben wird, wenn die Anomalie des Mikrofons MC2 nicht erfasst ist.
  • Wenn in Schritt S208 das Mikrofon, in dem die Anomalie erfasst wurde, nicht das Mikrofon auf derselben Seite wie der Objektsitz ist, gibt die Anomalieerfassungseinheit 31B das Bestimmungsergebnis als ein Flag an die Steuereinheit 28B aus. In diesem Beispiel ist die Anomalie des Mikrofons MC2 erfasst. Dann bestimmt die Bestimmungseinheit 35B, welche Audiokomponente in das Mikrofon eingegeben wurde, das sich auf derselben Seite wie das Mikrofon, in dem die Anomalie erfasst wurde, befindet, und in welchem keine Anomalie erfasst wurde (S216). Wenn beispielsweise die Anomalie im Mikrofon MC2 erfasst ist, bestimmt die Bestimmungseinheit 35B, welcher aus Schall des Fahrers hm1 und Schall des Insassen hm2 in das Mikrofon MC1 eingegeben wurde. Mit anderen Worten, die Bestimmungseinheit 35B bestimmt, welchen aus Schall des Fahrers hm1 und Schall des Insassen hm2 das Audiosignal A mehr enthält. Die Bestimmungseinheit 35B gibt dieses Bestimmungsergebnis als ein Flag an die Steuereinheit 28B aus.
  • Wenn das Audiosignal A mehr Schall des Insassen hm2 enthält, stellt die Steuereinheit 28B die Intensität des Audiosignals A auf null ein und gibt das Audiosignal A als Ausgangssignal aus (S207). In diesem Fall aktualisiert die Steuereinheit 28B nicht die Filterkoeffizienten des adaptiven Filters F3A1, des adaptiven Filters F3A2, des adaptiven Filters F3B, des adaptiven Filters F3C, des adaptiven Filters F3D und des adaptiven Filters F3E. Dann führt die Audioverarbeitungsvorrichtung 21A erneut Schritt S201 durch.
  • Wenn das Audiosignal A mehr Schall des Insassen hm1 enthält, erzeugt die Filtereinheit F3 ein Subtraktionssignal wie folgt (S217). Die Steuereinheit 28B steuert die Filtereinheit F3 so, dass das Audiosignal B in das adaptive Filter F3A1 mit einer Intensität null eingegeben wird. Dagegen steuert die Steuereinheit 28B die Filtereinheit F3 so, dass das Audiosignal C in das adaptive Filter F3B eingegeben wird. Weiterhin steuert die Steuereinheit 28B die Filtereinheit F3 so, dass das Audiosignal D in das adaptive Filter F3D eingegeben wird. Mit anderen Worten, die Steuereinheit 28B ändert nicht die Intensität des Audiosignals C, das in das adaptive Filter F3B eingegeben wird, und die Intensität des Audiosignals D, das in das adaptive Filter F3D eingegeben wird, ändert aber die Intensität des Audiosignals B auf null, das in das adaptive Filter F3A1 eingegeben wird. Das adaptive Filter F3B lässt das Audiosignal C durch und gibt das Durchlasssignal P3B aus. Das adaptive Filter F3D lässt das Audiosignal D durch und gibt das Durchlasssignal P3D aus. Die Filtereinheit F3 addiert das Durchgangssignal P3B und das Durchgangssignal P3D und gibt diese Signale als ein Subtraktionssignal aus. Die Addiereinheit 27B subtrahiert das Subtraktionssignal von dem Audiosignal A, erzeugt ein Ausgangssignal und gibt es aus (S218). Das Ausgangssignal wird in die Steuereinheit 28B eingegeben und von der Steuereinheit 28B ausgegeben. Als Nächstes aktualisiert die Steuereinheit 28B die Filterkoeffizienten des adaptiven Filters F3B und des adaptiven Filters F3D auf Grundlage des Ausgangssignals auf solche Weise, dass eine in dem Ausgangssignal enthaltene Objektkomponente maximiert wird, mit Bezugnahme auf ein Flag, das als ein von der Anomalieerfassungseinheit 31B ausgegebenes Bestimmungsergebnis dient (S219). Dann führt die Audioverarbeitungsvorrichtung 21B erneut Schritt S201 durch.
  • Anzumerken ist, dass es, obwohl ein Beispiel beschrieben wurde, in dem die Anomalieerfassungseinheit 31B die Anomalie des Mikrofons MC1 und des Mikrofons MC2 erfassen kann, der Anomalieerfassungseinheit 31B ermöglicht sein kann, die Anomalie nur des Mikrofons MC3 und des Mikrofons MC4 zu erfassen. In diesem Fall sind die Schritte S206, S207, S208 und S216 bis S219 in dem Flussdiagramm von 11 weggelassen.
  • In der Ausführungsform wird der Filterkoeffizient nicht für ein adaptives Filter aktualisiert, in das ein Audiosignal mit einer Intensität null eingegeben wird. Dies kann den Verarbeitungsaufwand der Steuereinheit 28A reduzieren, verglichen mit demjenigen in einem Fall, wo die Filterkoeffizienten aller adaptiven Filter ständig aktualisiert werden. Dagegen kann die Steuereinheit 28B die Filterkoeffizienten aller adaptiven Filter ständig aktualisieren. Die Steuereinheit 28A kann ständig dieselbe Verarbeitung durch ein ständiges Aktualisieren der Filterkoeffizienten aller adaptiven Filter durchführen, sodass die Verarbeitung vereinfacht ist. Weiterhin können die Filterkoeffizienten eines bestimmten adaptiven Filters genau aktualisiert werden, indem die Filterkoeffizienten aller adaptiven Filter ständig aktualisiert werden, beispielsweise sogar unmittelbar nach der Änderung von einem Zustand, in dem ein Audiosignal mit einer Intensität null eingegeben wird, zu einem Zustand, in dem ein Audiosignal mit einer Intensität verschieden von null eingegeben wird.
  • Wie oben beschrieben, können auch in dem Audioverarbeitungssystem 5B in der dritten Ausführungsform ähnliche Effekte wie die in dem Audioverarbeitungssystem 5A gemäß der zweiten Ausführungsform erzielt werden.
  • (Vierte Ausführungsform)
  • Ein Audioverarbeitungssystem 5C gemäß einer vierten Ausführungsform unterscheidet sich von dem Audioverarbeitungssystem 5 gemäß der ersten Ausführungsform darin, dass das Audioverarbeitungssystem 5C eine Audioverarbeitungsvorrichtung 20C anstelle der Audioverarbeitungsvorrichtung 20 enthält. Die Audioverarbeitungsvorrichtung 20C gemäß der vierten Ausführungsform bestimmt nicht, Schall welches Insassen in ein Mikrofon eingegeben wurde, in das Schall einer Vielzahl von Insassen eingegeben werden kann. Die Audioverarbeitungsvorrichtung 20C führt eine Verarbeitung zur Unterdrückung einer Übersprechkomponente unter Verwendung eines von dem Mikrofon ausgegebenen Audiosignals durch. Nachstehend ist die Audioverarbeitungsvorrichtung 20C unter Bezugnahme auf 12, 13 und 14 beschrieben. Dieselben Aufbauten und Betriebsvorgänge wie diejenigen, die bei der ersten Ausführungsform beschrieben sind, sind durch dieselben Bezugszeichen bezeichnet, und ihre Beschreibung ist weggelassen oder vereinfacht.
  • Nachstehend sind Einzelheiten des Audioverarbeitungssystems 5C gemäß der vierten Ausführungsform mit Bezugnahme auf 12 beschrieben. 12 stellt ein Beispiel des schematischen Aufbaus des Audioverarbeitungssystems 5C gemäß einer vierten Ausführungsform dar. Das Audioverarbeitungssystem 5C enthält das Mikrofon MC1, das Mikrofon MC2, das Mikrofon MC3 und Audioverarbeitungsvorrichtungen 20C. Da das Mikrofon MC1, das Mikrofon MC2 und das Mikrofon MC3 ähnlich denjenigen in der ersten Ausführungsform sind, ist eine genaue Beschreibung davon weggelassen.
  • In der Ausführungsform enthält das Audioverarbeitungssystem 5C eine Vielzahl von Audioverarbeitungsvorrichtungen 20C, die die jeweiligen Mikrofone ansprechen. Genauer enthält das Audioverarbeitungssystem 5C eine Audioverarbeitungsvorrichtung 21C, eine Audioverarbeitungsvorrichtung 22C und eine Audioverarbeitungsvorrichtung 23C. Die Audioverarbeitungsvorrichtung 21C spricht das Mikrofon MC1 an. Die Audioverarbeitungsvorrichtung 22C spricht das Mikrofon MC2 an. Die Audioverarbeitungsvorrichtung 23C spricht das Mikrofon MC3 an. Nachstehend können die Audioverarbeitungsvorrichtung 21C, die Audioverarbeitungsvorrichtung 22C und die Audioverarbeitungsvorrichtung 23C zusammenfassend als die Audioverarbeitungsvorrichtungen 20C bezeichnet sein.
  • Obwohl in dem in 13 dargestellten Aufbau die Audioverarbeitungsvorrichtung 21C, die Audioverarbeitungsvorrichtung 22C und die Audioverarbeitungsvorrichtung 23C als durch unterschiedliche Hardwareelemente aufgebaut beschrieben sind, kann eine einzelne Audioverarbeitungsvorrichtung 20C die Funktionen der Audioverarbeitungsvorrichtung 21C, der Audioverarbeitungsvorrichtung 22C und der Audioverarbeitungsvorrichtung 23C umsetzen. Alternativ können einige aus der Audioverarbeitungsvorrichtung 21C, der Audioverarbeitungsvorrichtung 22C und der Audioverarbeitungsvorrichtung 23C durch gemeinsame Hardware aufgebaut sein und können die anderen durch unterschiedliche Hardwareelemente aufgebaut sein.
  • Auch ist in der Ausführungsform jede der Audioverarbeitungsvorrichtungen 20C in einem jeweiligen Sitz in der Nähe des jeweiligen entsprechenden Mikrofons angeordnet. Die Position der Audioverarbeitungsvorrichtung 20C ist beispielsweise derjenigen in der ersten Ausführungsform ähnlich.
  • 13 ist ein Blockdiagramm, das den Aufbau der Audioverarbeitungsvorrichtung 21C darstellt. Alle aus der Audioverarbeitungsvorrichtung 21C, der Audioverarbeitungsvorrichtung 22C und der Audioverarbeitungsvorrichtung 23C weisen ähnliche Aufbauten und Funktionen auf, mit Ausnahme eines Teils des Aufbaus einer weiter unten beschriebenen Filtereinheit. Nachstehend ist die Audioverarbeitungsvorrichtung 21C beschrieben. Die Audioverarbeitungsvorrichtung 21C legt den durch den Fahrer hm1 geäußerten Schall als ein Objekt fest. Die Audioverarbeitungsvorrichtung 21A gibt als ein Ausgangssignal ein Audiosignal aus, das erhalten ist durch ein Unterdrücken einer Übersprechkomponente eines durch das Mikrofon MC1 aufgenommenen Audiosignals.
  • Wie in 13 dargestellt, enthält die Audioverarbeitungsvorrichtung 21C eine Schalleingabeeinheit 29C, eine Richtungsabhängigkeitssteuerungseinheit 30C, eine Filtereinheit F4, eine Steuereinheit 28C und eine Addiereinheit 27C. Die Filtereinheit F4 enthält eine Vielzahl von adaptiven Filtern. Die Steuereinheit 28C steuert die Filterkoeffizienten der Vielzahl von adaptiven Filtern.
  • Da die Schalleingabeeinheit 29C der Schalleingabeeinheit 29 in der ersten Ausführungsform ähnlich ist, ist ihre Beschreibung weggelassen.
  • Das Audiosignal A, das Audiosignal B und das Audiosignal C, die von der Schalleingabeeinheit 29C ausgegeben werden, werden in die Richtungsabhängigkeitssteuerungseinheit 30C eingegeben. Die Richtungsabhängigkeitssteuerungseinheit 30C führt eine Richtungsabhängigkeitssteuerungsverarbeitung unter Verwendung des Audiosignals A und des Audiosignals B durch. Dann gibt die Richtungsabhängigkeitssteuerungseinheit 30C ein erstes Richtungsabhängigkeitssignal aus, erhalten durch ein Durchführen der Richtungsabhängigkeitssteuerungsverarbeitung an dem Audiosignal A. Weiterhin gibt die Richtungsabhängigkeitssteuerungseinheit 30C ein zweites Richtungsabhängigkeitssignal aus, erhalten durch ein Durchführen der Richtungsabhängigkeitssteuerungsverarbeitung an dem Audiosignal B. Die Richtungsabhängigkeitssteuerungseinheit 30C gibt das erste Richtungsabhängigkeitssignal an die Addiereinheit 27C aus und gibt das zweite Richtungsabhängigkeitssignal und das Audiosignal C an die Filtereinheit F4 aus.
  • Weiterhin bestimmt die Richtungsabhängigkeitssteuerungseinheit 30C, ob eine Audiokomponente in das Mikrofon MC3 eingegeben wurde. Zum Beispiel bestimmt die Richtungsabhängigkeitssteuerungseinheit 30A, dass ein Audiosignal in das Mikrofon MC3 eingegeben wurde, wenn das Audiosignal C eine größere Intensität als mindestens eine aus der Intensität des ersten Richtungsabhängigkeitssignals und der Intensität des zweiten Richtungsabhängigkeitssignals aufweist, und bestimmt, dass kein Audiosignal in das Mikrofon MC3 eingegeben wurde, wenn dies nicht der Fall ist.
  • Die Richtungsabhängigkeitssteuerungseinheit 30C gibt an die Steuereinheit 28C ein Bestimmungsergebnis aus, ob eine Audiokomponente in das Mikrofon MC3 eingegeben wurde. Die Richtungsabhängigkeitssteuerungseinheit 30C gibt das Bestimmungsergebnis beispielsweise als ein Flag an die Steuereinheit 28C aus. Das Flag gibt einen Wert „0“ oder „1“ an. Hier gibt „0“ an, dass keine Audiokomponente in das Mikrofon MC3 eingegeben wurde, und „1“ gibt an, dass eine Audiokomponente in das Mikrofon MC3 eingegeben wurde.
  • Obwohl in der Ausführungsform die Richtungsabhängigkeitssteuerungseinheit 30C bestimmt, ob eine Audiokomponente in das Mikrofon MC3 eingegeben wurde, kann die Audioverarbeitungsvorrichtung 21C eine Äußerungsbestimmungseinheit enthalten, die als eine von der Richtungsabhängigkeitssteuerungseinheit 30C getrennte Bestimmungseinheit dient, und die Äußerungsbestimmungseinheit kann die Bestimmung vornehmen. In diesem Fall ist die Äußerungsbestimmungseinheit beispielsweise zwischen der Schalleingabeeinheit 29C und der Richtungsabhängigkeitssteuerungseinheit 30C angeschlossen. Alternativ kann die Audioverarbeitungsvorrichtung 21C nur die Äußerungsbestimmungseinheit enthalten und braucht die Richtungsabhängigkeitssteuerungseinheit 30C nicht zu enthalten. Da die Äußerungsbestimmungseinheit einen ähnlichen Aufbau und eine ähnliche Funktion aufweist wie diejenigen der in der ersten Ausführungsform beschriebenen Bestimmungseinheit 35, ist eine genaue Beschreibung davon weggelassen.
  • Die Filtereinheit F4 enthält ein adaptives Filter F4A und ein adaptives Filter F4B. Die Filtereinheit F4 wird für eine Verarbeitung zum Unterdrücken einer Übersprechkomponente verwendet, die von Schall des Fahrers hm1 verschieden ist und in durch das Mikrofon MC1 aufgenommenem Schall enthalten ist. Obwohl in der vorliegenden Ausführungsform die Filtereinheit F4 zwei adaptive Filter enthält, wird die Anzahl der adaptiven Filter auf Grundlage der Anzahl eingegebener Audiosignale und eines Verarbeitungsaufwands der Übersprechunterdrückungsverarbeitung in geeigneter Weise festgelegt. Die Verarbeitung zum Unterdrücken von Übersprechen ist weiter unten genau beschrieben.
  • Das zweite Richtungsabhängigkeitssignal wird als Referenzsignal in das adaptive Filter F4A eingegeben. Das adaptive Filter F4A gibt ein Durchlasssignal P4A auf Grundlage eines Filterkoeffizienten C4A und des zweiten Richtungsabhängigkeitssignals aus. Das Audiosignal C wird als Referenzsignal in das adaptive Filter F4B eingegeben. In der Ausführungsform wird das Audiosignal C in das adaptive Filter F4B sowohl eingegeben, wenn das Audiosignal C mehr Schall des Insassen hm3 enthält, als auch, wenn das Audiosignal C mehr Schall des Insassen hm4 enthält. Ein adaptives Filter F4B gibt ein Durchlasssignal P4B auf Grundlage eines Filterkoeffizienten C4B und des Audiosignals C aus. Die Filtereinheit F4 addiert ein Durchlasssignal P4A und ein Durchgangssignal P4B und gibt sie aus. In der Ausführungsform sind das adaptive Filter F4A und das adaptive Filter F4B durch einen Prozessor umgesetzt, der ein Programm ausführt. Das adaptive Filter F4A und das adaptive Filter F4B können physisch getrennte, verschiedene Hardwareanordnungen aufweisen.
  • Die Addiereinheit 27C erzeugt ein Ausgangssignal, indem sie ein Subtraktionssignal von dem von der Schalleingabeeinheit 29C ausgegebenen Objekt-Audiosignal subtrahiert. In der Ausführungsform wird das Subtraktionssignal erhalten durch ein Addieren des Durchgangssignals P4A und des Durchgangssignals P4B, die von der Filtereinheit F4 ausgegeben werden. Die Addiereinheit 27C gibt ein Ausgangssignal an die Steuereinheit 28C aus.
  • Die Steuereinheit 28C gibt das von der Addiereinheit 27C ausgegebene Ausgangssignal aus. Die Verwendung des Ausgangssignals ist derjenigen in der ersten Ausführungsform ähnlich.
  • Weiterhin aktualisiert die Steuereinheit 28C den Filterkoeffizienten jedes adaptiven Filters mit Bezugnahme auf das von der Addiereinheit 27C ausgegebene Ausgangssignal. Genauer aktualisiert die Steuereinheit 28C den Filterkoeffizienten des adaptiven Filters F4A und des adaptiven Filters F4B so, dass der Wert des Fehlersignals im Ausdruck (1) gegen null geht. Ein genaues Verfahren zum Aktualisieren eines Filterkoeffizienten ist ähnlich dem in der ersten Ausführungsform beschriebenen.
  • In der Ausführungsform sind die Funktionen der Schalleingabeeinheit 29C, der Richtungsabhängigkeitssteuerungseinheit 30C, der Filtereinheit F4, der Steuereinheit 28C und der Addiereinheit 27C durch einen Prozessor umgesetzt, der ein in einem Speicher enthaltenes Programm ausführt. Alternative können die Schalleingabeeinheit 29C, die Richtungsabhängigkeitssteuerungseinheit 30C, die Filtereinheit F4, die Steuereinheit 28C und die Addiereinheit 27C durch unterschiedliche Hardwareelemente aufgebaut sein.
  • Obwohl die Audioverarbeitungsvorrichtung 21C beschrieben ist, weisen die Audioverarbeitungsvorrichtung 22C und die Audioverarbeitungsvorrichtung 23C ebenfalls im Wesentlichen ähnliche Anordnungen auf, mit Ausnahme der Filtereinheit. Die Audioverarbeitungsvorrichtung 22C stellt den durch den Insassen hm2 geäußerten Schall als eine Objektkomponente ein. Die Audioverarbeitungsvorrichtung 22C gibt als ein Ausgangssignal ein Audiosignal aus, das durch ein Unterdrücken einer Übersprechkomponente eines durch das Mikrofon MC2 aufgenommenen Audiosignals erhalten ist. Daher unterscheidet sich die Audioverarbeitungsvorrichtung 22C von der Audioverarbeitungsvorrichtung 21C darin, dass die Audioverarbeitungsvorrichtung 22C eine Filtereinheit enthält, in die das erste Richtungsabhängigkeitssignal und das Audiosignal C eingegeben werden. Dasselbe gilt für die Audioverarbeitungsvorrichtung 23C.
  • 14 ist ein Flussdiagramm, das einen Betriebsablauf der Audioverarbeitungsvorrichtung 21C darstellt. Als Erstes werden das Audiosignal A, das Audiosignal B und das Audiosignal C in die Schalleingabeeinheit 29C eingegeben (S301). Als Nächstes führt die Richtungsabhängigkeitssteuerungseinheit 30C eine Richtungsabhängigkeitssteuerungsverarbeitung unter Verwendung des Audiosignals A und des Audiosignals B durch und erzeugt das erste Richtungsabhängigkeitssignal und das zweite Richtungsabhängigkeitssignal (S302). Dann bestimmt die Richtungsabhängigkeitssteuerungseinheit 30C, ob eine Audiokomponente in das Mikrofon MC3 eingegeben wurde (S303). Die Richtungsabhängigkeitssteuerungseinheit 30C gibt das Bestimmungsergebnis als ein Flag an die Steuereinheit 28C aus. Wenn die Richtungsabhängigkeitssteuerungseinheit 30C bestimmt, dass das Audiosignal nicht in das Mikrofon MC3 eingegeben wurde (S303: Nein), veranlasst die Steuereinheit 28C, dass die Intensität des in die Filtereinheit F4 eingegebene Audiosignal C null ist und ändert nicht die Intensität des zweiten Richtungsabhängigkeitssignals. Dann erzeugt die Filtereinheit F4 ein Subtraktionssignal wie folgt (S304). Das adaptive Filter F4A lässt das zweite Richtungsabhängigkeitssignal durch und gibt das Durchlasssignal P4A aus. Das adaptive Filter F4B lässt das Audiosignal C durch und gibt das Durchlasssignal P4B aus. Die Filtereinheit F4 addiert das Durchgangssignal P4A und das Durchgangssignal P4B und gibt diese Signale als ein Subtraktionssignal aus. Die Addiereinheit 27C subtrahiert das Subtraktionssignal von dem ersten Richtungsabhängigkeitssignal, erzeugt ein Ausgangssignal und gibt es aus (S305). Das Ausgangssignal wird in die Steuereinheit 28C eingegeben und von der Steuereinheit 28C ausgegeben. Als Nächstes aktualisiert die Steuereinheit 28C auf Grundlage des Ausgangssignals den Filterkoeffizienten des adaptiven Filters F4A auf solche Weise, dass die in dem Ausgangssignal enthaltene Objektkomponente maximiert wird (S306). Dann führt die Audioverarbeitungsvorrichtung 21 erneut Schritt S301 durch.
  • Wenn die Richtungsabhängigkeitssteuerungseinheit 30C bestimmt, dass ein Audiosignal in das Mikrofon MC3 eingegeben wurde (S303: Ja), erzeugt die Filtereinheit F4 ein Subtraktionssignal wie folgt (S307). Die Steuereinheit 28C steuert die Filtereinheit F4 so, dass das Audiosignal C in das adaptive Filter F4B eingegeben wird. Dann erzeugt die Filtereinheit F4 ein Subtraktionssignal durch einen ähnlichen Vorgang wie denjenigen in Schritt S304. Ähnlich wie in Schritt S305 subtrahiert die Addiereinheit 27C das Subtraktionssignal von dem ersten Richtungsabhängigkeitssignal, erzeugt ein Ausgangssignal und gibt es aus (S308). Als Nächstes aktualisiert die Steuereinheit 28C auf Grundlage des Ausgangssignals den Filterkoeffizienten des adaptiven Filters, in das ein Audiosignal eingegeben wird, auf solche Weise, dass die in dem Ausgangssignal enthaltene Objektkomponente maximiert wird (S310). Genauer werden die Filterkoeffizienten des adaptiven Filters F4A und des adaptiven Filters F4B aktualisiert. Dann führt die Audioverarbeitungsvorrichtung 21C erneut Schritt S301 durch.
  • In der Ausführungsform wird der Filterkoeffizient nicht für ein adaptives Filter aktualisiert, in das ein Audiosignal mit einer Intensität null eingegeben wird. Dies kann den Verarbeitungsaufwand der Steuereinheit 28C reduzieren, verglichen mit demjenigen in einem Fall, wo die Filterkoeffizienten aller adaptiven Filter ständig aktualisiert werden. Dagegen kann die Steuereinheit 28C die Filterkoeffizienten aller adaptiven Filter ständig aktualisieren. Die Steuereinheit 28C kann ständig dieselbe Verarbeitung durch ein ständiges Aktualisieren der Filterkoeffizienten aller adaptiven Filter durchführen, sodass die Verarbeitung vereinfacht ist. Weiterhin können die Filterkoeffizienten eines bestimmten adaptiven Filters genau aktualisiert werden, indem die Filterkoeffizienten aller adaptiven Filter ständig aktualisiert werden, beispielsweise sogar unmittelbar nach der Änderung von einem Zustand, in dem ein Audiosignal mit einer Intensität null eingegeben wird, zu einem Zustand, in dem ein Audiosignal mit einer Intensität verschieden von null eingegeben wird.
  • 15 stellt ein Beispiel jedes Audiosignals und das Ausgangssignal der Audioverarbeitungsvorrichtung 21C dar. 15A stellt ein Spektrum des ersten Richtungsabhängigkeitssignals dar. 15B stellt ein Spektrum des zweiten Richtungsabhängigkeitssignals dar. 15C stellt ein Spektrum des Audiosignals C dar. 15D stellt ein Spektrum eines Ausgangssignals dar. 15 stellt ein Beispiel eines Falls dar, wo der Fahrer hm1, der Insasse hm2, der Insasse hm3 und der Insasse hm4 gleichzeitig eine Äußerung abgeben. Der Fahrer hm1 äußert mit Unterbrechungen ein bestimmtes Wort. Die anderen Insassen schwatzen ohne Pause. Anzumerken ist, dass das erste Richtungsabhängigkeitssignal und das zweite Richtungsabhängigkeitssignal einen höheren Rauschabstand aufweisen als derjenige des Audiosignals C, da die Richtungsabhängigkeitssteuerungsverarbeitung daran durchgeführt wurde. Beim Vergleich von 15A mit 15D ist zu sehen, dass das Ausgangssignal aufgrund der Verarbeitung zum Unterdrücken einer Übersprechkomponente einen höheren Rauschabstand aufweist als derjenige des ersten Richtungsabhängigkeitssignals.
  • Wie oben beschrieben, bestimmt das Audioverarbeitungssystem 5C in der vierten Ausführungsform auch Schall eines bestimmten Sprechers mit hoher Genauigkeit durch ein Erlangen einer Vielzahl von Audiosignalen mit einer Vielzahl von Mikrofonen und ein Subtrahieren eines Subtraktionssignals, das unter Verwendung eines adaptiven Filters aus einem bestimmten Audiosignal durch Verwendung eines anderen Audiosignals als Referenzsignal erzeugt ist. In der vierten Ausführungsform kann ein Mikrofon eine Vielzahl von Schallelementen aufnehmen, die an verschiedenen Positionen erzeugt werden. Genauer nimmt das Mikrofon MC3 Schall des Insassen hm3 und Schall des Insassen hm4 auf den Rücksitzen auf. Dann wird, sogar wenn das von dem Mikrofon MC3 ausgegebene Audiosignal C einen beliebigen aus Schall des Insassen hm3 und Schall des Insassen hm4 enthält, das Audiosignal C in das adaptive Filter F1B eingegeben. Dies ermöglicht es, dass ein Audiosignal einer Objektkomponente genau bestimmt wird, sogar wenn ein Mikrofon eine Vielzahl von Schallelementen aufnimmt. Daher können, da es nicht erforderlich ist, jeweils ein Mikrofon für jeden Sitz vorzusehen, Kosten reduziert werden. Weiterhin kann, wenn eine Objektkomponente unter Verwendung eines adaptiven Filters bestimmt wird, die Anzahl von für die Verarbeitung verwendeten Referenzsignalen reduziert sein, verglichen mit derjenigen in einem Fall, wo Signale, die von für alle Sitze vorgesehenen Mikrofonen ausgegeben sind, als Referenzsignale verwendet werden. Dies kann einen Verarbeitungsaufwand zum Unterdrücken einer Übersprechkomponente reduzieren. Weiterhin wird in der vierten Ausführungsform eine Verarbeitung zum Bestimmen, Schall welches Insassen ein Audiosignal enthält, nicht durchgeführt, und ein Insasse, dessen Schall im Audiosignal enthalten ist, verwendet adaptive Filter nicht verschieden. Daher kann ein Verarbeitungsaufwand zum Unterdrücken eines Übersprechkomponente reduziert sein, und der Aufbau einer Audioverarbeitungsvorrichtung 5C kann auch vereinfacht sein. Weiterhin braucht der Filterkoeffizient für ein adaptives Filter nicht aktualisiert zu werden, in das ein Audiosignal mit einer Intensität null eingegeben wird. Dies kann weiter einen Verarbeitungsaufwand reduzieren, verglichen mit demjenigen in einem Fall, wo die Filterkoeffizienten für alle adaptiven Filter ständig aktualisiert werden.
  • (Fünfte Ausführungsform)
  • Ein Audioverarbeitungssystem 5D gemäß einer fünften Ausführungsform unterscheidet sich von dem Audioverarbeitungssystem 5C gemäß der vierten Ausführungsform darin, dass das Audioverarbeitungssystem 5D eine Audioverarbeitungsvorrichtung 20D anstelle der Audioverarbeitungsvorrichtung 20C enthält. Die Audioverarbeitungsvorrichtung 20D gemäß der fünften Ausführungsform gibt ein Audiosignal, das von einem Mikrofon ausgegeben ist, in das Schall einer Vielzahl von Insassen eingegeben werden kann, zu einer Vielzahl von adaptiven Filtern aus. Die Vielzahl von adaptiven Filtern enthält ein adaptives Filter, das sich mit einem Fall befasst, wo Schall eines Insassen in das Mikrofon eingegeben wird, und ein adaptives Filter, das sich mit einem Fall befasst, wo Schall eines anderen Insassen in das Mikrofon eingegeben wird. Die Audioverarbeitungsvorrichtung 20D bestimmt, durch welches adaptive Filter eine Übersprechkomponente weiter reduziert werden kann, und führt eine Unterdrückungsverarbeitung der Übersprechkomponente unter Verwendung des adaptiven Filters durch, das die Übersprechkomponente weiter reduzieren kann. Nachstehend ist die Audioverarbeitungsvorrichtung 20D unter Bezugnahme auf 16, 17 und 18 beschrieben. Dieselben Anordnungen und Betriebsvorgänge wie diejenigen, die bei der ersten Ausführungsform und der vierten Ausführungsform beschrieben sind, sind durch dieselben Bezugszeichen bezeichnet, und ihre Beschreibung ist weggelassen oder vereinfacht.
  • Nachstehend sind Einzelheiten des Audioverarbeitungssystems 5D gemäß der vierten Ausführungsform mit Bezugnahme auf 16 beschrieben. 16 stellt ein Beispiel des schematischen Aufbaus des Audioverarbeitungssystems 5D gemäß der fünften Ausführungsform dar. Das Audioverarbeitungssystem 5D enthält das Mikrofon MC1, das Mikrofon MC2, das Mikrofon MC3 und Audioverarbeitungsvorrichtungen 20D. Da das Mikrofon MC1, das Mikrofon MC2 und das Mikrofon MC3 ähnlich denjenigen in der ersten Ausführungsform sind, ist eine genaue Beschreibung davon weggelassen.
  • In der Ausführungsform enthält das Audioverarbeitungssystem 5D eine Vielzahl von Audioverarbeitungsvorrichtungen 20D, die die jeweiligen Mikrofone ansprechen. Genauer enthält das Audioverarbeitungssystem 5D eine Audioverarbeitungsvorrichtung 21D, eine Audioverarbeitungsvorrichtung 22D und eine Audioverarbeitungsvorrichtung 23D. Die Audioverarbeitungsvorrichtung 21D spricht das Mikrofon MC1 an. Die Audioverarbeitungsvorrichtung 22D spricht das Mikrofon MC2 an. Die Audioverarbeitungsvorrichtung 23D spricht das Mikrofon MC3 an. Nachstehend können die Audioverarbeitungsvorrichtung 21D, die Audioverarbeitungsvorrichtung 22D und die Audioverarbeitungsvorrichtung 23D zusammenfassend als die Audioverarbeitungsvorrichtungen 20D bezeichnet sein.
  • Obwohl in dem in 16 dargestellten Aufbau die Audioverarbeitungsvorrichtung 21D, die Audioverarbeitungsvorrichtung 22D und die Audioverarbeitungsvorrichtung 23D als durch unterschiedliche Hardwareelemente aufgebaut beschrieben sind, kann eine einzelne Audioverarbeitungsvorrichtung 20D die Funktionen der Audioverarbeitungsvorrichtung 21D, der Audioverarbeitungsvorrichtung 22D und der Audioverarbeitungsvorrichtung 23D umsetzen. Alternativ können einige aus der Audioverarbeitungsvorrichtung 21D, der Audioverarbeitungsvorrichtung 22D und der Audioverarbeitungsvorrichtung 23D durch gemeinsame Hardware aufgebaut sein und können die anderen durch unterschiedliche Hardwareelemente aufgebaut sein.
  • Auch ist in der Ausführungsform jede der Audioverarbeitungsvorrichtungen 20D in einem jeweiligen Sitz in der Nähe des jeweiligen entsprechenden Mikrofons angeordnet. Die Position der Audioverarbeitungsvorrichtung 20D ist beispielsweise derjenigen in der ersten Ausführungsform ähnlich.
  • 17 ist ein Blockdiagramm, das den Aufbau der Audioverarbeitungsvorrichtung 21D darstellt. Alle aus der Audioverarbeitungsvorrichtung 21D, der Audioverarbeitungsvorrichtung 22D und der Audioverarbeitungsvorrichtung 23D weisen ähnliche Aufbauten und Funktionen auf, mit Ausnahme eines Teils des Aufbaus einer Filtereinheit, die weiter unten beschrieben ist. Nachstehend ist die Audioverarbeitungsvorrichtung 21D beschrieben. Die Audioverarbeitungsvorrichtung 21D legt durch den Fahrer hm1 geäußerten Schall als eine Objektkomponente fest. Die Audioverarbeitungsvorrichtung 21D gibt als ein Ausgangssignal ein Audiosignal aus, das durch ein Unterdrücken einer Übersprechkomponente eines durch das Mikrofon MC1 aufgenommenen Audiosignals erhalten ist.
  • Wie in 17 dargestellt, enthält die Audioverarbeitungsvorrichtung 21D eine Schalleingabeeinheit 29D, eine Richtungsabhängigkeitssteuerungseinheit 30D, eine Filtereinheit F5, eine Steuereinheit 28D und eine Addiereinheit 27D. Die Filtereinheit F5 enthält eine Vielzahl von adaptiven Filtern. Die Steuereinheit 28D steuert die Filterkoeffizienten der Vielzahl von adaptiven Filtern.
  • Da die Schalleingabeeinheit 29D der Schalleingabeeinheit 29 in der ersten Ausführungsform ähnlich ist, ist ihre Beschreibung weggelassen.
  • Da die Richtungsabhängigkeitssteuerungseinheit 30D der Richtungsabhängigkeitssteuerungseinheit 30C in der vierten Ausführungsform ähnlich ist, ist ihre Beschreibung weggelassen. Eine Audioverarbeitungsvorrichtung 5D kann eine Äußerungsbestimmungseinheit enthalten, die als eine Bestimmungseinheit dient. Wenn sie die Äußerungsbestimmungseinheit enthält, braucht die Audioverarbeitungsvorrichtung 5D die Richtungsabhängigkeitssteuerungseinheit 30D nicht zu enthalten.
  • Die Filtereinheit F5 enthält ein adaptives Filter F5A, ein adaptives Filter F5B, ein adaptives Filter F5C und ein adaptives Filter F3D. Die Filtereinheit F5 wird für eine Verarbeitung zum Unterdrücken einer Übersprechkomponente verwendet, die von Schall des Fahrers hm1 verschieden ist und in durch das Mikrofon MC1 aufgenommenem Schall enthalten ist. Obwohl in der Ausführungsform die Filtereinheit F5 vier adaptive Filter enthält, wird die Anzahl der adaptiven Filter auf Grundlage der Anzahl von eingegebenen Audiosignalen und eines Verarbeitungsaufwands der Übersprechunterdrückungsverarbeitung in geeigneter Weise festgelegt. Die Verarbeitung zum Unterdrücken von Übersprechen ist weiter unten genau beschrieben.
  • Das zweite Richtungsabhängigkeitssignal wird als Referenzsignal in das adaptive Filter F5A eingegeben. Das adaptive Filter F5A gibt ein Durchlasssignal P5A auf Grundlage eines Filterkoeffizienten C5A und des zweiten Richtungsabhängigkeitssignals aus. Das Audiosignal C wird als Referenzsignal in das adaptive Filter F5B, das adaptive Filter F5C und das adaptive Filter F5D eingegeben. Das adaptive Filter F5B, das adaptive Filter F5C und das adaptive Filter F5D entsprechen „zwei oder mehr adaptiven Filtern“. Das adaptive Filter F5B entspricht einem ersten adaptiven Filter. Das adaptive Filter F5C entspricht einem zweiten adaptiven Filter. Das adaptive Filter F5D entspricht einem dritten adaptiven Filter. Ein adaptives Filter F5B gibt ein Durchlasssignal P5B auf Grundlage eines Filterkoeffizienten C5B und des Audiosignals C aus. Das Durchlasssignal P5B entspricht einem ersten Durchlasssignal. Ein adaptives Filter F5C gibt ein Durchlasssignal P5C auf Grundlage eines Filterkoeffizienten C5C und des Audiosignals C aus. Das Durchlasssignal P5C entspricht einem zweiten Durchlasssignal. Ein adaptives Filter F5D gibt ein Durchlasssignal P5D auf Grundlage eines Filterkoeffizienten C5D und des Audiosignals C aus. Die Filtereinheit F5 gibt ein Subtraktionssignal SSA, ein Subtraktionssignal SSB und ein Subtraktionssignal SSC aus. Das Subtraktionssignal SSA wird erhalten durch ein Addieren eines Durchgangssignals P5A und des Durchgangssignals P5B. Das Subtraktionssignal SSB wird erhalten durch ein Addieren des Durchgangssignals P5A und des Durchgangssignals P5C. Das Subtraktionssignal SSC wird erhalten durch ein Addieren des Durchgangssignals P5A und des Durchgangssignals P5D. Das Subtraktionssignal SSA entspricht einem ersten Subtraktionssignal. Das Subtraktionssignal SSB entspricht einem zweiten Subtraktionssignal. In der Ausführungsform sind das adaptive Filter F5A, das adaptive Filter F5B, das adaptive Filter F5C und das adaptive Filter F5D durch einen Prozessor umgesetzt, der ein Programm ausführt. Das adaptive Filter F5A, das adaptive Filter F5B, das adaptive Filter F5C und das adaptive Filter F5D können verschiedene Hardwareanordnungen aufweisen, die physisch voneinander getrennt sind.
  • Der Filterkoeffizient C5B des adaptiven Filters F5B wird so aktualisiert, dass ein Fehlersignal minimiert wird, wenn das Audiosignal C mehr Schall des Insassen hm3 enthält. Weiterhin wird ein Filterkoeffizient C5C des adaptiven Filters F5C so aktualisiert, dass ein Fehlersignal minimiert wird, wenn das Audiosignal C mehr Schall des Insassen hm4 enthält. Dagegen wird der Filterkoeffizient C5D des adaptiven Filters F5D so aktualisiert, dass ein Fehlersignal minimiert wird, wenn das Audiosignal C sowohl Schall des Insassen hm3 als auch Schall des Insassen hm4 enthält.
  • Obwohl in der Ausführungsform die Filtereinheit F5 das adaptive Filter F5B, das adaptive Filter F5C und das adaptive Filter F5D als adaptive Filter enthält, in die das Audiosignal C eingegeben wird, braucht die Filtereinheit F5 nur das adaptive Filter F5B und das adaptive Filter F5C als adaptive Filter zu enthalten, in die das Audiosignal C eingegeben wird. In diesem Fall kann ein Verarbeitungsaufwand der weiter unten beschriebenen Übersprechunterdrückung reduziert sein.
  • Die Addiereinheit 27D erzeugt ein Ausgangssignal, indem sie ein Subtraktionssignal von dem ersten Richtungsabhängigkeitssignal subtrahiert, das von der Schalleingabeeinheit 29D ausgegeben ist und ein Objekt-Audiosignal ist. In der Ausführungsform werden jedes aus einem Ausgangssignal OSA im Fall der Verwendung des Subtraktionssignals SSA, einem Ausgangssignal OSB im Fall der Verwendung des Subtraktionssignals SSB und einem Ausgangssignal OSC im Fall der Verwendung des Subtraktionssignals SSC erzeugt. Das Ausgangssignal OSA entspricht einem ersten Ausgangssignal. Das Ausgangssignal OSB entspricht einem zweiten Ausgangssignal. Die Addiereinheit 27D gibt das Ausgangssignal OSA, das Ausgangssignal OSB und das Ausgangssignal OSC an die Steuereinheit 28D aus.
  • Die Steuereinheit 28D identifiziert ein Ausgangssignal mit dem kleinsten Fehlersignal mit Bezugnahme auf das Ausgangssignal OSA, das Ausgangssignal OSB und das Ausgangssignal OSC, die von der Addiereinheit 27D ausgegeben sind. Wenn beispielsweise das Audiosignal C mehr Schall des Insassen hm3 enthält, weist das Ausgangssignal OSA das kleinste Fehlersignal auf. Wenn beispielsweise das Audiosignal C mehr Schall des Insassen hm4 enthält, weist das Ausgangssignal OSB das kleinste Fehlersignal auf. Wenn beispielsweise das Audiosignal C sowohl Schall des Insassen hm3 als auch Schall des Insassen hm4 enthält, weist das Ausgangssignal OSC das kleinste Fehlersignal auf. Dann aktualisiert die Steuereinheit 28D den Filterkoeffizienten eines adaptiven Filters, das verwendet wurde, um das Ausgangssignal mit dem kleinsten Fehlersignal zu erzeugen. Ein genaues Verfahren zum Aktualisieren eines Filterkoeffizienten ist ähnlich dem in der ersten Ausführungsform beschriebenen.
  • Weiterhin gibt die Steuereinheit 28D ein Ausgangssignal mit dem kleinsten Fehlersignal unter dem Ausgangssignal OSA, dem Ausgangssignal OSB und dem Ausgangssignal OSC aus. Die Verwendung des Ausgangssignals ist derjenigen in der ersten Ausführungsform ähnlich.
  • In der Ausführungsform sind die Funktionen der Schalleingabeeinheit 29D, der Richtungsabhängigkeitssteuerungseinheit 30D, der Filtereinheit F5, der Steuereinheit 28D und der Addiereinheit 27D durch einen Prozessor umgesetzt, der ein in einem Speicher enthaltenes Programm ausführt. Alternative können die Schalleingabeeinheit 29D, die Richtungsabhängigkeitssteuerungseinheit 30D, die Filtereinheit F5, die Steuereinheit 28D und die Addiereinheit 27D durch unterschiedliche Hardwareelemente aufgebaut sein.
  • Obwohl die Audioverarbeitungsvorrichtung 21D beschrieben ist, weisen die Audioverarbeitungsvorrichtung 22D und die Audioverarbeitungsvorrichtung 23D ebenfalls im Wesentlichen ähnliche Anordnungen auf, mit Ausnahme der Filtereinheit. Die Audioverarbeitungsvorrichtung 22D legt den durch den Insassen hm2 geäußerten Schall als eine Objektkomponente fest. Die Audioverarbeitungsvorrichtung 22D gibt als ein Ausgangssignal ein Audiosignal aus, das durch ein Unterdrücken einer Übersprechkomponente eines durch das Mikrofon MC2 aufgenommenen Audiosignals erhalten ist. Daher unterscheidet sich die Audioverarbeitungsvorrichtung 22D von der Audioverarbeitungsvorrichtung 21D darin, dass die Audioverarbeitungsvorrichtung 22D eine Filtereinheit enthält, in die das erste Richtungsabhängigkeitssignal und das Audiosignal C eingegeben werden. Dasselbe gilt für die Audioverarbeitungsvorrichtung 23C.
  • 18 ist ein Flussdiagramm, das einen Betriebsablauf der Audioverarbeitungsvorrichtung 21D darstellt. Zuerst werden das Audiosignal A, das Audiosignal B und das Audiosignal C in die Schalleingabeeinheit 29D eingegeben (S401). Als Nächstes führt die Richtungsabhängigkeitssteuerungseinheit 30D eine Richtungsabhängigkeitssteuerungsverarbeitung unter Verwendung des Audiosignals A und des Audiosignals B durch und erzeugt das erste Richtungsabhängigkeitssignal und das zweite Richtungsabhängigkeitssignal (S402). Dann bestimmt die Richtungsabhängigkeitssteuerungseinheit 30D nach einem ähnlichen Verfahren wie dem in der ersten Ausführungsform, ob eine Audiokomponente in das Mikrofon MC3 eingegeben wurde (S403). Die Richtungsabhängigkeitssteuerungseinheit 30D gibt das Bestimmungsergebnis als ein Flag an die Steuereinheit 28D aus. Wenn die Richtungsabhängigkeitssteuerungseinheit 30D bestimmt, dass das Audiosignal nicht in das Mikrofon MC3 eingegeben wurde (S403: Nein), veranlasst die Steuereinheit 28D, dass die Intensität des in die Filtereinheit F5 eingegebene Audiosignal C null ist, und ändert nicht die Intensität des zweiten Richtungsabhängigkeitssignals. Dann erzeugt die Filtereinheit F5 ein Subtraktionssignal wie folgt (S404). Das adaptive Filter F5A lässt das zweite Richtungsabhängigkeitssignal durch und gibt das Durchlasssignal P5A aus. Das adaptive Filter F5B lässt das Audiosignal C durch und gibt das Durchlasssignal P5B aus. Das adaptive Filter F5C lässt das Audiosignal C durch und gibt das Durchlasssignal P5C aus. Das adaptive Filter F5D lässt das Audiosignal C durch und gibt das Durchlasssignal P5D aus. Die Filtereinheit F5 addiert das Durchlasssignal P5A, das Durchlasssignal P5B, das Durchlasssignal P5C und das Durchlasssignal P5D und gibt diese Signale als ein Subtraktionssignal aus. Die Addiereinheit 27D subtrahiert das Subtraktionssignal von dem ersten Richtungsabhängigkeitssignal, erzeugt ein Ausgangssignal und gibt es aus (S405). Das Ausgangssignal wird in die Steuereinheit 28D eingegeben und von der Steuereinheit 28D ausgegeben. Als Nächstes aktualisiert die Steuereinheit 28D auf Grundlage des Ausgangssignals den Filterkoeffizienten des adaptiven Filters F5A auf solche Weise, dass die in dem Ausgangssignal enthaltene Objektkomponente maximiert wird (S406). Dann führt die Audioverarbeitungsvorrichtung 21 erneut Schritt S1 durch.
  • Wenn die Richtungsabhängigkeitssteuerungseinheit 30D bestimmt, dass ein Audiosignal in das Mikrofon MC3 eingegeben wurde (S403: Ja), steuert die Steuereinheit 28D die Filtereinheit F5 so, dass das Audiosignal C in jedes aus dem adaptiven Filter F5B, dem adaptiven Filter F5C und dem adaptiven Filter F5D eingegeben wird. Mit anderen Worten, die Steuereinheit 28D ändert nicht die Intensität des in das adaptive Filter F5A eingegebenen zweiten Richtungsabhängigkeitssignals und die Intensität des in das adaptive Filter F5B, das adaptive Filter F5C und das adaptive Filter F5D eingegebenen Audiosignals C. Dann erzeugt die Filtereinheit F5 ein Subtraktionssignal wie folgt (S407). Die Filtereinheit F5 erzeugt das Subtraktionssignal SSA, das Subtraktionssignal SSB und das Subtraktionssignal SSC und gibt diese Subtraktionssignale an die Addiereinheit 27D aus. Das Subtraktionssignal SSA wird erhalten durch ein Addieren eines Durchgangssignals P5A und des Durchgangssignals P5B. Das Subtraktionssignal SSB wird erhalten durch ein Addieren des Durchgangssignals P5A und des Durchgangssignals P5C. Das Subtraktionssignal SSC wird erhalten durch ein Addieren des Durchgangssignals P5A und des Durchgangssignals P5D. Die Addiereinheit 27D erzeugt ein Ausgangssignal und gibt das Ausgangssignal an die Steuereinheit 28D wie folgt aus (S408). Eine Addiereinheit 28D subtrahiert das Subtraktionssignal SSA von dem ersten Richtungsabhängigkeitssignal und erzeugt das Ausgangssignal OSA, um das Ausgangssignal OSA an die Steuereinheit 28D auszugeben. Die Addiereinheit 28D subtrahiert das Subtraktionssignal SSB von dem ersten Richtungsabhängigkeitssignal und erzeugt das Ausgangssignal OSB, um das Ausgangssignal OSB an die Steuereinheit 28D auszugeben. Weiterhin subtrahiert die Addiereinheit 28D das Subtraktionssignal SSC von dem ersten Richtungsabhängigkeitssignal und erzeugt das Ausgangssignal OSC, um das Ausgangssignal OSC an die Steuereinheit 28D auszugeben. Als Nächstes bestimmt die Steuereinheit 28D, welches adaptive Filter in dem Fall benutzt wird, wo ein Fehlersignal minimiert ist, auf Grundlage des Ausgangssignals OSA, des Ausgangssignals OSB und des Ausgangssignals OSC (S409). Wenn sie bestimmt, dass das Fehlersignal im Fall der Verwendung des adaptiven Filters F5B minimalisiert wird, aktualisiert die Steuereinheit 28D den Filterkoeffizienten des adaptiven Filters, in das ein Audiosignal eingegeben wird, auf solche Weise, dass die in dem Ausgangssignal OSA enthaltene Objektkomponente maximiert wird (S410). Genauer werden die Filterkoeffizienten des adaptiven Filters F5A und des adaptiven Filters F5B aktualisiert. Dann führt die Audioverarbeitungsvorrichtung 21D erneut Schritt S401 durch.
  • Wenn sie in Schritt S409 bestimmt, dass das Fehlersignal im Fall der Verwendung des adaptiven Filters F5C minimalisiert wird, aktualisiert die Steuereinheit 28D den Filterkoeffizienten des adaptiven Filters, in das ein Audiosignal eingegeben wird, auf solche Weise, dass die in dem Ausgangssignal OSB enthaltene Objektkomponente maximiert wird (S411). Genauer werden die Filterkoeffizienten des adaptiven Filters F5A und des adaptiven Filters F5C aktualisiert. Dann führt die Audioverarbeitungsvorrichtung 21A erneut Schritt S401 durch.
  • Wenn sie in Schritt S409 bestimmt, dass das Fehlersignal im Fall der Verwendung des adaptiven Filters F5D minimalisiert wird, aktualisiert die Steuereinheit 28D den Filterkoeffizienten des adaptiven Filters, in das ein Audiosignal eingegeben wird, auf solche Weise, dass die in dem Ausgangssignal OSC enthaltene Objektkomponente maximiert wird (S412). Genauer werden die Filterkoeffizienten des adaptiven Filters F5A und des adaptiven Filters F5D aktualisiert. Dann führt die Audioverarbeitungsvorrichtung 21A erneut Schritt S401 durch.
  • In der Ausführungsform wird der Filterkoeffizient nicht für ein adaptives Filter aktualisiert, in das ein Audiosignal mit einer Intensität null eingegeben wird. Dies kann den Verarbeitungsaufwand der Steuereinheit 28D reduzieren, verglichen mit demjenigen in einem Fall, wo die Filterkoeffizienten aller adaptiven Filter ständig aktualisiert werden. Dagegen kann die Steuereinheit 28D die Filterkoeffizienten aller adaptiven Filter ständig aktualisieren. Die Steuereinheit 28D kann ständig dieselbe Verarbeitung durch ein ständiges Aktualisieren der Filterkoeffizienten aller adaptiven Filter durchführen, sodass die Verarbeitung vereinfacht ist. Weiterhin können die Filterkoeffizienten eines bestimmten adaptiven Filters genau aktualisiert werden, indem die Filterkoeffizienten aller adaptiven Filter ständig aktualisiert werden, beispielsweise sogar unmittelbar nach der Änderung von einem Zustand, in dem ein Audiosignal mit einer Intensität null eingegeben wird, zu einem Zustand, in dem ein Audiosignal mit einer Intensität verschieden von null eingegeben wird.
  • Wie oben beschrieben, bestimmt das Audioverarbeitungssystem 5D in der fünften Ausführungsform auch Schall eines bestimmten Sprechers mit hoher Genauigkeit durch ein Erlangen einer Vielzahl von Audiosignalen mit einer Vielzahl von Mikrofonen und ein Subtrahieren eines Subtraktionssignals, das unter Verwendung eines adaptiven Filters aus einem bestimmten Audiosignal durch Verwendung eines anderen Audiosignals als Referenzsignal erzeugt ist. In der fünften Ausführungsform kann ein Mikrofon eine Vielzahl von Schallelementen aufnehmen, die an verschiedenen Positionen erzeugt werden. Genauer nimmt das Audioverarbeitungssystem 5D Schall des Insassen hm3 und Schall des Insassen hm4 auf den Rücksitzen mit dem Mikrofon MC3 auf. Dann erzeugt das Audioverarbeitungssystem 5D jedes von Ausgangssignalen in dem Fall, wo das Audiosignal C in das adaptive Filter F5B, das adaptive Filter F5C und das adaptive Filter F5D eingegeben ist, und identifiziert ein Ausgangssignal in dem Fall, wo das Fehlersignal minimiert ist. Dies ermöglicht es, dass ein Audiosignal einer Objektkomponente genau bestimmt wird, sogar wenn ein Mikrofon eine Vielzahl von Schallelementen aufnimmt. Daher können, da es nicht erforderlich ist, jeweils ein Mikrofon für jeden Sitz vorzusehen, Kosten reduziert werden. Weiterhin kann, wenn eine Objektkomponente unter Verwendung eines adaptiven Filters bestimmt wird, die Anzahl von für die Verarbeitung verwendeten Referenzsignalen reduziert sein, verglichen mit derjenigen in einem Fall, wo Signale, die von für alle Sitze vorgesehenen Mikrofonen ausgegeben werden, als Referenzsignale verwendet werden. Dies kann einen Verarbeitungsaufwand zum Unterdrücken einer Übersprechkomponente reduzieren. Weiterhin wird in der fünften Ausführungsform eine Verarbeitung zum Bestimmen, Schall welches Insassen ein Audiosignal enthält, nicht durchgeführt. Daher kann ein Verarbeitungsaufwand zum Unterdrücken einer Übersprechkomponente reduziert sein. Weiterhin braucht der Filterkoeffizient für ein adaptives Filter nicht aktualisiert zu werden, in das ein Audiosignal mit einer Intensität null eingegeben wird. Dies kann weiter einen Verarbeitungsaufwand reduzieren, verglichen mit demjenigen in einem Fall, wo die Filterkoeffizienten für alle adaptiven Filter ständig aktualisiert werden.
  • (Sechste Ausführungsform)
  • Ein Audioverarbeitungssystem 5E gemäß einer sechsten Ausführungsform unterscheidet sich von dem Audioverarbeitungssystem 5A gemäß der zweiten Ausführungsform darin, dass das Audioverarbeitungssystem 5E eine Audioverarbeitungsvorrichtung 20E anstelle der Audioverarbeitungsvorrichtung 20A enthält. Die Audioverarbeitungsvorrichtung 20E gemäß der sechsten Ausführungsform führt eine Verarbeitung zur Unterdrückung einer Übersprechkomponente unter Verwendung eines Ergebnisses, erhalten durch ein Addieren von Audiosignalen, die von einer Vielzahl von Mikrofonen ausgegeben sind, als Referenzsignal durch. Nachstehend ist die Audioverarbeitungsvorrichtung 20E unter Bezugnahme auf 19, 20 und 21 beschrieben. Dieselben Anordnungen und Betriebsvorgänge wie diejenigen, die bei der ersten Ausführungsform und der zweiten Ausführungsform beschrieben sind, sind durch dieselben Bezugszeichen bezeichnet, und ihre Beschreibung ist weggelassen oder vereinfacht.
  • Nachstehend sind Einzelheiten des Audioverarbeitungssystems 5E gemäß der sechsten Ausführungsform mit Bezugnahme auf 19 beschrieben. 19 stellt ein Beispiel des schematischen Aufbaus des Audioverarbeitungssystems 5E gemäß der sechsten Ausführungsform dar. Das Audioverarbeitungssystem 5 enthält das Mikrofon MC1, das Mikrofon MC2, das Mikrofon MC3, das Mikrofon MC4 und die Audioverarbeitungsvorrichtung 20E. Da das Mikrofon MC1, das Mikrofon MC2, das Mikrofon MC3 und das Mikrofon MC4 denjenigen in der zweiten Ausführungsform ähnlich sind, ist eine genaue Beschreibung davon weggelassen.
  • In der Ausführungsform enthält das Audioverarbeitungssystem 5E eine Vielzahl von Audioverarbeitungsvorrichtungen 20E, die die jeweiligen Mikrofone ansprechen. Genauer enthält das Audioverarbeitungssystem 5E eine Audioverarbeitungsvorrichtung 21E, eine Audioverarbeitungsvorrichtung 22E, eine Audioverarbeitungsvorrichtung 23E und eine Audioverarbeitungsvorrichtung 24E. Die Audioverarbeitungsvorrichtung 21E spricht das Mikrofon MC1 an. Die Audioverarbeitungsvorrichtung 22E spricht das Mikrofon MC2 an. Die Audioverarbeitungsvorrichtung 23E spricht das Mikrofon MC3 an. Die Audioverarbeitungsvorrichtung 24E spricht das Mikrofon MC4 an. Nachstehend können die Audioverarbeitungsvorrichtung 21E, die Audioverarbeitungsvorrichtung 22E, die Audioverarbeitungsvorrichtung 23E und die Audioverarbeitungsvorrichtung 24E zusammenfassend als die Audioverarbeitungsvorrichtungen 20E bezeichnet sein.
  • Obwohl in dem in 19 dargestellten Aufbau die Audioverarbeitungsvorrichtung 21E, die Audioverarbeitungsvorrichtung 22E, die Audioverarbeitungsvorrichtung 23E und die Audioverarbeitungsvorrichtung 24E als durch unterschiedliche Hardwareelemente aufgebaut beschrieben sind, kann eine einzelne Audioverarbeitungsvorrichtung 20E die Funktionen der Audioverarbeitungsvorrichtung 21E, der Audioverarbeitungsvorrichtung 22E, der Audioverarbeitungsvorrichtung 23E und der Audioverarbeitungsvorrichtung 24E verwirklichen. Alternativ können einige aus der Audioverarbeitungsvorrichtung 21E, der Audioverarbeitungsvorrichtung 22E, der Audioverarbeitungsvorrichtung 23E und der Audioverarbeitungsvorrichtung 24E durch gemeinsame Hardwareelemente aufgebaut sein, und die anderen können durch unterschiedliche Hardwareelemente aufgebaut sein.
  • In der Ausführungsform ist jede der Audioverarbeitungsvorrichtungen 20E in einem jeweiligen Sitz in der Nähe des jeweiligen entsprechenden Mikrofons angeordnet. Die Position der Audioverarbeitungsvorrichtung 20E ist beispielsweise derjenigen in der zweiten Ausführungsform ähnlich.
  • 20 ist ein Blockdiagramm, das den Aufbau der Audioverarbeitungsvorrichtung 21E darstellt. Alle aus der Audioverarbeitungsvorrichtung 21E, der Audioverarbeitungsvorrichtung 22E, der Audioverarbeitungsvorrichtung 23E und der Audioverarbeitungsvorrichtung 24E weisen ähnliche Aufbauten und Funktionen auf, mit Ausnahme eines Teils des Aufbaus einer Filtereinheit, die weiter unten beschrieben ist. Nachstehend ist die Audioverarbeitungsvorrichtung 21E beschrieben. Die Audioverarbeitungsvorrichtung 21E stellt durch den Fahrer hm1 geäußerten Schall als ein Objekt ein. Die Audioverarbeitungsvorrichtung 21E gibt als ein Ausgangssignal ein Audiosignal aus, das durch ein Unterdrücken einer Übersprechkomponente eines durch das Mikrofon MC1 aufgenommenen Audiosignals erhalten ist.
  • Wie in 20 dargestellt, enthält die Audioverarbeitungsvorrichtung 21E eine Schalleingabeeinheit 29E, eine Richtungsabhängigkeitssteuerungseinheit 30E, eine Filtereinheit F6, eine Steuereinheit 28E und eine Addiereinheit 27E. Die Filtereinheit F6 enthält eine Vielzahl von adaptiven Filtern. Die Steuereinheit 28E steuert die Filterkoeffizienten der adaptiven Filter der Filtereinheit F6.
  • Da die Schalleingabeeinheit 29E der Schalleingabeeinheit 29A in der zweiten Ausführungsform ähnlich ist, ist ihre Beschreibung weggelassen.
  • Das Audiosignal A, das Audiosignal B, das Audiosignal C und das Audiosignal D, die von der Schalleingabeeinheit 29E ausgegeben werden, werden in die Richtungsabhängigkeitssteuerungseinheit 30E eingegeben. Die Richtungsabhängigkeitssteuerungseinheit 30E führt die Richtungsabhängigkeitssteuerungsverarbeitung unter Verwendung eines Audiosignals durch, das von einem Mikrofon nahe einem Sitz eines Objekt-Insassen und einem Mikrofon auf derselben Seite wie das Mikrofon ausgegeben ist. Da die Audioverarbeitungsvorrichtung 21E auf durch den Fahrer hm1 geäußerten Schall zielt, führt die Richtungsabhängigkeitssteuerungseinheit 30E die Richtungsabhängigkeitssteuerungsverarbeitung unter Verwendung des Audiosignals A und des Audiosignals B durch. Dann gibt die Richtungsabhängigkeitssteuerungseinheit 30E zwei Richtungsabhängigkeitssignale aus, erhalten durch ein Durchführen der Richtungsabhängigkeitssteuerungsverarbeitung unter Verwendung von zwei Audiosignalen. Zum Beispiel gibt die Richtungsabhängigkeitssteuerungseinheit 30E ein erstes Richtungsabhängigkeitssignal aus, erhalten durch ein Durchführen der Richtungsabhängigkeitssteuerungsverarbeitung an dem Audiosignal A. Weiterhin gibt die Richtungsabhängigkeitssteuerungseinheit 30E ein zweites Richtungsabhängigkeitssignal aus, erhalten durch ein Durchführen der Richtungsabhängigkeitssteuerungsverarbeitung an dem Audiosignal B. Die Richtungsabhängigkeitssteuerungseinheit 30E kann die Richtungsabhängigkeitssteuerungsverarbeitung unter Verwendung aller Audiosignale durchführen und das erhaltene Richtungsabhängigkeitssignal ausgeben. Zum Beispiel gibt die Richtungsabhängigkeitssteuerungseinheit 30E zusätzlich zu dem ersten Richtungsabhängigkeitssignal und dem zweiten Richtungsabhängigkeitssignal ein drittes Richtungsabhängigkeitssignal und ein viertes Richtungsabhängigkeitssignal aus. Das dritte Richtungsabhängigkeitssignal wird erhalten durch ein Durchführen der Richtungsabhängigkeitssteuerungsverarbeitung an dem Audiosignal C. Das vierte Richtungsabhängigkeitssignal wird erhalten durch ein Durchführen der Richtungsabhängigkeitssteuerungsverarbeitung an dem Audiosignal D.
  • Weiterhin bestimmt die Richtungsabhängigkeitssteuerungseinheit 30E, ob eine Audiokomponente in ein Mikrofon auf der anderen Seite hinsichtlich des Mikrofons nahe dem Sitz des Objekt-Insassen eingegeben wurde. Genauer bestimmt die Richtungsabhängigkeitssteuerungseinheit 30E, ob eine Audiokomponente in das Mikrofon MC3 und das Mikrofon MC4 eingegeben wurde. Zum Beispiel bestimmt die Richtungsabhängigkeitssteuerungseinheit 30, dass ein Audiosignal in das Mikrofon MC3 eingegeben wurde, wenn das Audiosignal C eine größere Intensität als mindestens eine aus der Intensität des ersten Richtungsabhängigkeitssignals und der Intensität des zweiten Richtungsabhängigkeitssignals aufweist, und bestimmt, dass kein Audiosignal in das Mikrofon MC3 eingegeben wurde, wenn dies nicht der Fall ist. Dasselbe gilt für das Mikrofon MC4.
  • Obwohl in der Ausführungsform die Richtungsabhängigkeitssteuerungseinheit 30E bestimmt, ob eine Audiokomponente in das Mikrofon auf der anderen Seite hinsichtlich des Mikrofons nahe dem Sitz des Objekt-Insassen eingegeben wurde, kann die Audioverarbeitungsvorrichtung 21E eine Äußerungsbestimmungseinheit enthalten, die als eine von der Richtungsabhängigkeitssteuerungseinheit 30E getrennte Bestimmungseinheit dient, und die Äußerungsbestimmungseinheit kann die Bestimmung vornehmen. In diesem Fall ist die Äußerungsbestimmungseinheit beispielsweise zwischen der Schalleingabeeinheit 29E und der Richtungsabhängigkeitssteuerungseinheit 30E angeschlossen. Da die Äußerungsbestimmungseinheit einen Aufbau und eine Funktion ähnlich denjenigen aufweist, die in der ersten Ausführungsform beschrieben sind, ist eine genaue Beschreibung davon weggelassen. Wenn sie die Äußerungsbestimmungseinheit enthält, braucht die Audioverarbeitungsvorrichtung 5E die Richtungsabhängigkeitssteuerungseinheit 30E nicht zu enthalten.
  • Die Filtereinheit F6 enthält ein adaptives Filter F6A und ein adaptives Filter F6B. Die Filtereinheit F6 wird für eine Verarbeitung zum Unterdrücken einer Übersprechkomponente verwendet, die von Schall des Fahrers hm1 verschieden ist und in durch das Mikrofon MC1 aufgenommenem Schall enthalten ist. Obwohl in der Ausführungsform die Filtereinheit F6 zwei adaptive Filter enthält, wird die Anzahl der adaptiven Filter auf Grundlage der Anzahl eingegebener Audiosignale und eines Verarbeitungsaufwands der Übersprechunterdrückungsverarbeitung in geeigneter Weise festgelegt. Die Verarbeitung zum Unterdrücken von Übersprechen ist weiter unten genau beschrieben.
  • Das zweite Richtungsabhängigkeitssignal wird als Referenzsignal in das adaptive Filter F6A eingegeben. Das adaptive Filter F6A gibt ein Durchlasssignal P6A auf Grundlage eines Filterkoeffizienten C6A und des zweiten Richtungsabhängigkeitssignals aus. Das Audiosignal C und das Audiosignal D werden als Referenzsignale in das adaptive Filter F6B eingegeben. Das adaptive Filter F6B gibt ein Durchlasssignal P62B auf Grundlage eines Filterkoeffizienten C6B, des Audiosignals C und des Audiosignals D aus. Das adaptive Filter F6B entspricht „dem adaptiven Filter, in das das erste Signal und das zweite Signal eingegeben werden“. Die Filtereinheit F6 addiert das Durchlasssignal P6A und ein Durchgangssignal P6B und gibt sie aus. In der Ausführungsform sind das adaptive Filter F6A und das adaptive Filter F6B durch einen Prozessor umgesetzt, der ein Programm ausführt. Das adaptive Filter F6A und das adaptive Filter F6B können physisch getrennte, verschiedene Hardwareanordnungen aufweisen.
  • Die Addiereinheit 27E erzeugt ein Ausgangssignal, indem sie ein Subtraktionssignal von dem ersten Richtungsabhängigkeitssignal subtrahiert, das von der Schalleingabeeinheit 29E ausgegeben ist und ein Objekt-Audiosignal ist. In der Ausführungsform wird das Subtraktionssignal erhalten durch ein Addieren des Durchgangssignals P6A und des Durchgangssignals P6B, die von der Filtereinheit F6 ausgegeben werden. Die Addiereinheit 27E gibt ein Ausgangssignal an die Steuereinheit 28E aus.
  • Die Steuereinheit 28E gibt das von der Addiereinheit 27E ausgegebene Ausgangssignal aus. Das Ausgangssignal der Steuereinheit 28E wird in die Schallerkennungsengine 40 eingegeben. Alternativ kann das Ausgangssignal direkt von der Steuereinheit 28E in die Elektronikvorrichtung 50 eingegeben werden. Wenn das Ausgangssignal direkt von der Steuereinheit 28E in die Elektronikvorrichtung 50 eingegeben wird, können die Steuereinheit 28E und die Elektronikvorrichtung 50 drahtgebunden oder drahtlos verbunden sein. Beispielsweise kann die Elektronikvorrichtung 50 eine Mobilfunk-Endeinrichtung sein, und das Ausgangssignal kann direkt von der Steuereinheit 28E über ein drahtloses Kommunikationsnetzwerk in die Mobilfunk-Endeinrichtung eingegeben werden. Das in die Mobilfunk-Endeinrichtung eingegebene Ausgangssignal kann als Schall über einen Lautsprecher der Mobilfunk-Endeinrichtung ausgegeben werden.
  • Weiterhin aktualisiert die Steuereinheit 28E den Filterkoeffizienten jedes adaptiven Filters auf Grundlage des von der Addiereinheit 27E ausgegebenen Ausgangssignals. Die Steuereinheit 28E aktualisiert den Filterkoeffizienten jedes adaptiven Filters so, dass der Wert des Fehlersignals im Ausdruck (1) gegen null geht. Ein genaues Verfahren zum Aktualisieren eines Filterkoeffizienten ist ähnlich dem in der ersten Ausführungsform beschriebenen.
  • In der Ausführungsform sind die Funktionen der Schalleingabeeinheit 29E, der Richtungsabhängigkeitssteuerungseinheit 30E, der Filtereinheit F6, der Steuereinheit 28E und der Addiereinheit 27E durch einen Prozessor umgesetzt, der ein in einem Speicher enthaltenes Programm ausführt. Alternativ können die Schalleingabeeinheit 29E, die Richtungsabhängigkeitssteuerungseinheit 30E, die Filtereinheit F6, die Steuereinheit 28E und die Addiereinheit 27E durch unterschiedliche Hardwareelemente aufgebaut sein.
  • Obwohl die Audioverarbeitungsvorrichtung 21E beschrieben ist, weisen die Audioverarbeitungsvorrichtung 22E, die Audioverarbeitungsvorrichtung 23E und eine Audioverarbeitungsvorrichtung 24E ebenfalls im Wesentlichen ähnliche Anordnungen auf, mit Ausnahme der Filtereinheit. Die Audioverarbeitungsvorrichtung 22E legt den durch den Insassen hm2 geäußerten Schall als eine Objektkomponente fest. Die Audioverarbeitungsvorrichtung 22A gibt als ein Ausgangssignal ein Audiosignal aus, das durch ein Unterdrücken einer Übersprechkomponente eines durch das Mikrofon MC2 aufgenommenen Audiosignals erhalten ist. Daher unterscheidet sich die Audioverarbeitungsvorrichtung 22E von der Audioverarbeitungsvorrichtung 21E darin, dass die Audioverarbeitungsvorrichtung 22E eine Filtereinheit enthält, in die das erste Richtungsabhängigkeitssignal, das Audiosignal C und das Audiosignal D eingegeben werden. Dasselbe gilt für die Audioverarbeitungsvorrichtung 23E und die Audioverarbeitungsvorrichtung 24E.
  • 21 ist ein Flussdiagramm, das einen Betriebsablauf der Audioverarbeitungsvorrichtung 21E darstellt. Als erstes werden das Audiosignal A, das Audiosignal B, das Audiosignal C und das Audiosignal D in die Schalleingabeeinheit 29E eingegeben (S501). Als Nächstes führt die Richtungsabhängigkeitssteuerungseinheit 30E eine Richtungsabhängigkeitssteuerungsverarbeitung unter Verwendung des Audiosignals A und des Audiosignals B durch und erzeugt das erste Richtungsabhängigkeitssignal und das zweite Richtungsabhängigkeitssignal (S502). Dann bestimmt die Richtungsabhängigkeitssteuerungseinheit 30E nach einem ähnlichen Verfahren wie dem in der ersten Ausführungsform, ob eine Audiokomponente in das Mikrofon MC3 oder das Mikrofon MC4 eingegeben wurde (S503). Die Richtungsabhängigkeitssteuerungseinheit 30E gibt das Bestimmungsergebnis als ein Flag an die Steuereinheit 28E aus. Wenn die Richtungsabhängigkeitssteuerungseinheit 30E bestimmt, dass das Audiosignal nicht in das Mikrofon MC3 oder das Mikrofon MC4 eingegeben wurde (S503: Nein), setzt die Steuereinheit 28E die Intensitäten des Audiosignals C und des Audiosignals D, die in die Filtereinheit F6 eingegeben werden, auf null und ändert nicht die Intensität des zweiten Richtungsabhängigkeitssignals. Dann erzeugt die Filtereinheit F6 wie folgt ein Subtraktionssignal (S504). Das adaptive Filter F6A lässt das zweite Richtungsabhängigkeitssignal durch und gibt das Durchlasssignal P6A aus. Das adaptive Filter F6B lässt das Audiosignal C und das Audiosignal D durch und gibt das Durchlasssignal P6B aus. Die Filtereinheit F6 addiert das Durchgangssignal P5A und das Durchgangssignal P5B und gibt diese Signale als ein Subtraktionssignal aus. Die Addiereinheit 27E subtrahiert das Subtraktionssignal von dem ersten Richtungsabhängigkeitssignal, erzeugt ein Ausgangssignal und gibt es aus (S505). Das Ausgangssignal wird in die Steuereinheit 28E eingegeben und von der Steuereinheit 28E ausgegeben. Als Nächstes aktualisiert die Steuereinheit 28E auf Grundlage des Ausgangssignals den Filterkoeffizienten des adaptiven Filters F6A auf solche Weise, dass die in dem Ausgangssignal enthaltene Objektkomponente maximiert wird (S506). Dann führt die Audioverarbeitungsvorrichtung 21E erneut Schritt S501 durch.
  • Wenn die Richtungsabhängigkeitssteuerungseinheit 30E in Schritt S503 bestimmt, dass das Audiosignal in das Mikrofon MC3 oder das Mikrofon MC4 eingegeben wurde (S503: Ja), steuert die Steuereinheit 28E die Filtereinheit F6 so, dass das Audiosignal C und das Audiosignal D in das adaptive Filter F6B ohne Änderung der Intensitäten eingegeben werden. Mit anderen Worten, die Steuereinheit 28E ändert nicht die Intensität des in das adaptive Filter F6A eingegebenen zweiten Richtungsabhängigkeitssignals und die Intensitäten des Audiosignals C und des Audiosignals D, die in das adaptive Filter F6B eingegeben werden. Die Filtereinheit F6 erzeugt ein Subtraktionssignal, erhalten durch ein Addieren des Durchgangssignals P6A und des Durchgangssignals P6B, und gibt das Subtraktionssignal an die Addiereinheit 27E aus (S507). Die Addiereinheit 27E subtrahiert das Subtraktionssignal von dem ersten Richtungsabhängigkeitssignal, erzeugt ein Ausgangssignal und gibt das Ausgangssignal an die Steuereinheit 28E aus (S508). Die Steuereinheit 28E aktualisiert den Filterkoeffizienten des adaptiven Filters, in das ein Audiosignal eingegeben wird, auf solche Weise, dass die in dem Ausgangssignal enthaltene Objektkomponente maximiert wird (S509). Genauer werden die Filterkoeffizienten des adaptiven Filters F6A und des adaptiven Filters F6B aktualisiert. Dann führt die Audioverarbeitungsvorrichtung 21E erneut Schritt S501 durch.
  • In der Ausführungsform wird der Filterkoeffizient nicht für ein adaptives Filter aktualisiert, in das ein Audiosignal mit einer Intensität null eingegeben wird. Dies kann den Verarbeitungsaufwand der Steuereinheit 28E reduzieren, verglichen mit demjenigen in einem Fall, wo die Filterkoeffizienten aller adaptiven Filter ständig aktualisiert werden. Dagegen kann die Steuereinheit 28E die Filterkoeffizienten aller adaptiven Filter ständig aktualisieren. Die Steuereinheit 28E kann ständig dieselbe Verarbeitung durch ein ständiges Aktualisieren der Filterkoeffizienten aller adaptiven Filter durchführen, sodass die Verarbeitung vereinfacht ist. Weiterhin kann beispielsweise der Filterkoeffizient eines bestimmten adaptiven Filters durch ein ständiges Aktualisieren der Filterkoeffizienten aller adaptiven Filter genau aktualisiert werden, sogar unmittelbar nach der Änderung von einem Zustand, in dem ein Audiosignal mit einer Intensität null eingegeben wird, zu einem Zustand, in dem ein Audiosignal mit einer Intensität verschieden von null eingegeben wird.
  • Wie oben beschrieben, bestimmt das Audioverarbeitungssystem 5E in der sechsten Ausführungsform auch Schall eines bestimmten Sprechers mit hoher Genauigkeit durch ein Erlangen einer Vielzahl von Audiosignalen mit einer Vielzahl von Mikrofonen und ein Subtrahieren eines Subtraktionssignals, das unter Verwendung eines adaptiven Filters aus einem bestimmten Audiosignal durch Verwendung eines anderen Audiosignals als Referenzsignal erzeugt ist. In der sechsten Ausführungsform wird ein Additionsergebnis einer Vielzahl von Audiosignalen als ein Referenzsignal verwendet. Als Ergebnis können Audiosignale einzeln an jedem Sitz aufgenommen werden, während ein Verarbeitungsaufwand zum Unterdrücken einer Übersprechkomponente reduziert sein kann, verglichen mit einem Fall, wo alle an einem Sitz erhaltene Signals als Referenzsignale verwendet werden. Genauer nimmt das Audioverarbeitungssystem 5E einzeln Schall des Insassen hm3 und Schall des Insassen hm4 auf den Rücksitzen mit dem Mikrofon MC3 und dem Mikrofon MC4 auf. Dann gibt das Audioverarbeitungssystem 5E sowohl das Audiosignal C als auch das Audiosignal D in das adaptive Filter F6B ein und verwendet diese Audiosignale als Referenzsignale. Weiterhin wird in der sechsten Ausführungsform eine Verarbeitung zum Bestimmen, Schall welches Insassen ein Audiosignal enthält, nicht durchgeführt. Daher kann ein Verarbeitungsaufwand zum Unterdrücken einer Übersprechkomponente reduziert sein. Weiterhin braucht der Filterkoeffizient für ein adaptives Filter nicht aktualisiert zu werden, in das ein Audiosignal mit einer Intensität null eingegeben wird. Dies kann weiter einen Verarbeitungsaufwand reduzieren, verglichen mit demjenigen in einem Fall, wo die Filterkoeffizienten für alle adaptiven Filter ständig aktualisiert werden.
  • Punkt 1 (Vierte Ausführungsform)
  • Audioverarbeitungssystem, enthaltend:
    • ein erstes Mikrofon, das ein erstes Audiosignal erlangt und ein erstes Signal auf Grundlage des ersten Audiosignals ausgibt, wobei das erste Audiosignal mindestens eine aus einer ersten Audiokomponente, erzeugt an einer ersten Position, und einer zweiten Audiokomponente enthält, erzeugt an einer zweiten, von der ersten Position verschiedenen Position;
    • ein adaptives Filter, das das erste Signal empfängt und ein Durchlasssignal auf Grundlage des ersten Signals ausgibt; und
    • eine Steuereinheit, die einen Filterkoeffizienten des adaptiven Filters steuert,
    • wobei, sowohl wenn das erste Audiosignal die erste Audiokomponente enthält, als auch wenn das erste Audiosignal die zweite Audiokomponente enthält, das erste Signal in das adaptive Filter eingegeben wird.
  • Punkt 2 (Fünfte Ausführungsform)
  • Audioverarbeitungssystem, enthaltend:
    • ein erstes Mikrofon, das ein erstes Audiosignal erlangt und ein erstes Signal auf Grundlage des ersten Audiosignals ausgibt, wobei das erste Audiosignal mindestens eine aus einer ersten Audiokomponente, erzeugt an einer ersten Position, und einer zweiten Audiokomponente enthält, erzeugt an einer zweiten, von der ersten Position verschiedenen Position;
    • ein zweites Mikrofon, das ein zweites Audiosignal erlangt, das mindestens eine aus der ersten Audiokomponente und der zweiten Audiokomponente enthält, ein zweites Signal auf Grundlage des zweiten Audiosignals ausgibt und sich weiter weg von der ersten Position befindet als das erste Mikrofon;
    • ein drittes Mikrofon, das ein drittes Audiosignal erlangt, das mindestens eine aus der ersten Audiokomponente und der zweiten Audiokomponente enthält, ein drittes Signal auf Grundlage des dritten Audiosignals ausgibt und sich weiter weg von der zweiten Position befindet als das erste Mikrofon;
    • zwei oder mehr adaptive Filter, die das erste Signal empfangen und ein Durchlasssignal auf Grundlage des ersten Signals ausgeben;
    • eine Steuereinheit, die Filterkoeffizienten der zwei oder mehr adaptiven Filter steuert; und
    • eine Addiereinheit, die ein Subtraktionssignal auf Grundlage des Durchlasssignals von dem zweiten Signal oder dem dritten Signal subtrahiert,
    • wobei die zwei oder mehr adaptiven Filter ein erstes adaptives Filter und ein zweites adaptives Filter enthalten,
    • das erste adaptive Filter das erste Signal empfängt und ein erstes Durchlasssignal auf Grundlage des ersten Signals ausgibt,
    • das zweite adaptive Filter das erste Signal empfängt und ein zweites Durchlasssignal auf Grundlage des ersten Signals ausgibt,
    • die Addiereinheit ein erstes Ausgangssignal ausgibt, erhalten durch ein Subtrahieren eines ersten Subtraktionssignals auf Grundlage des ersten Durchlasssignals von dem zweiten Signal oder dem dritten Signal, und ein zweites Ausgangssignal, erhalten durch ein Subtrahieren eines zweiten Subtraktionssignals auf Grundlage des zweiten Durchlasssignals von dem zweiten Signal oder dem dritten Signal, und
    • die Steuereinheit bestimmt, welches aus dem ersten adaptiven Filter und dem zweiten adaptiven Filter zu verwenden ist, um das Subtraktionssignal auf Grundlage des ersten Ausgangssignals und des zweiten Ausgangssignals zu erzeugen.
  • Punkt 3
  • Audioverarbeitungssystem nach Punkt 2,
    wobei, wenn das erste Audiosignal die erste Audiokomponente enthält, das erste Signal in das erste adaptive Filter eingegeben wird, und
    wenn das erste Audiosignal die zweite Audiokomponente enthält, das erste Signal in das zweite adaptive Filter eingegeben wird.
  • Punkt 4
  • Audioverarbeitungssystem nach Punkt 3,
    wobei die zwei oder mehr adaptiven Filter ein drittes adaptives Filter enthalten, und
    wenn das erste Audiosignal die erste Audiokomponente und die zweite Audiokomponente enthält, das erste Signal in das dritte adaptive Filter eingegeben wird.
  • Punkt 5 (Sechste Ausführungsform)
  • Audioverarbeitungssystem, enthaltend:
    • ein erstes Mikrofon, das ein erstes Audiosignal erlangt und ein erstes Signal auf Grundlage des ersten Audiosignals ausgibt, wobei das erste Audiosignal mindestens eine aus einer ersten Audiokomponente, erzeugt an einer ersten Position, und einer zweiten Audiokomponente enthält, erzeugt an einer zweiten, von der ersten Position verschiedenen Position;
    • ein zweites Mikrofon, das ein zweites Audiosignal erlangt, das mindestens eine aus der ersten Audiokomponente und der zweiten Audiokomponente enthält, ein zweites Signal auf Grundlage des zweiten Audiosignals ausgibt und sich weiter weg von der zweiten Position befindet als das erste Mikrofon;
    • ein drittes Mikrofon, das ein drittes Audiosignal erlangt, das mindestens eine aus der ersten Audiokomponente und der zweiten Audiokomponente enthält, ein drittes Signal auf Grundlage des dritten Audiosignals ausgibt und sich weiter weg von der ersten Position befindet oder weiter weg von der zweiten Position befindet als das zweite Mikrofon;
    • ein adaptives Filter, das das erste Signal und das zweite Signal empfängt und ein Durchlasssignal auf Grundlage des ersten Signals und des zweiten Signals ausgibt; und
    • eine Addiereinheit, die ein Subtraktionssignal auf Grundlage des Durchlasssignals von dem dritten Signal subtrahiert.
  • Punkt 6
  • Audioverarbeitungssystem nach Punkt 5, ferner enthaltend:
    • ein viertes Mikrofon, das ein viertes Audiosignal erlangt, das mindestens eine aus der ersten Audiokomponente und der zweiten Audiokomponente enthält, ein viertes Signal auf Grundlage des vierten Audiosignals ausgibt und sich weiter weg von der zweiten Position befindet als das erste Mikrofon und das zweite Mikrofon; und
    • eine Richtungsabhängigkeitssteuerungseinheit, die eine Richtungsabhängigkeitssteuerungsverarbeitung an dem dritten Signal durchführt, um ein erstes Richtungsabhängigkeitssignal auszugeben, und eine Richtungsabhängigkeitssteuerungsverarbeitung an dem vierten Signal durchführt, um ein zweites Richtungsabhängigkeitssignal auszugeben,
    • wobei sich das dritte Mikrofon weiter weg von der ersten Position befindet als das erste Mikrofon.
  • Bezugszeichenliste
  • 5
    AUDIOVERARBEITUNGSSYSTEM
    10
    FAHRZEUG
    20, 21, 22, 23
    AUDIOVERARBEITUNGSVORRICHTUNG
    27
    ADDIEREINHEIT
    28
    STEUEREINHEIT
    29
    SCHALLEINGABEEINHEIT
    30
    RICHTUNGSABHÄNGIGKEITSSTEUERUNGSEINHEIT
    31
    ANOMALIEERFASSUNGSEINHEIT
    F1
    FILTEREINHEIT
    F1A, F1B, F1C
    ADAPTIVES FILTER
    40
    SCHALLERKENNUNGSENGINE
    50
    ELEKTRONIKVORRICHTUNG
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 4889810 [0003]

Claims (10)

  1. Audioverarbeitungssystem, umfassend: mindestens ein erstes Mikrofon, das ein erstes Audiosignal erlangt und ein erstes Signal auf Grundlage des ersten Audiosignals ausgibt, wobei das erste Audiosignal mindestens eine aus einer ersten Audiokomponente, erzeugt an einer ersten Position, und einer zweiten Audiokomponente enthält, erzeugt an einer zweiten, von der ersten Position verschiedenen Position; mindestens ein adaptives Filter, in das das erste Signal eingegeben wird, und das ein Durchlasssignal auf Grundlage des ersten Signals ausgibt; eine Bestimmungseinheit, die eine Bestimmung vornimmt, welche aus der ersten Audiokomponente und der zweiten Audiokomponente das erste Audiosignal mehr enthält; und eine Steuereinheit, die einen Filterkoeffizienten des adaptiven Filters auf Grundlage eines Ergebnisses der Bestimmung steuert.
  2. Audioverarbeitungssystem nach Anspruch 1, weiter umfassend: ein zweites Mikrofon, das ein zweites Audiosignal erlangt, das mindestens eine aus der ersten Audiokomponente und der zweiten Audiokomponente enthält, ein zweites Signal auf Grundlage des zweiten Audiosignals ausgibt und sich weiter weg von der ersten Position befindet als das mindestens eine erste Mikrofon; und ein drittes Mikrofon, das ein drittes Audiosignal erlangt, das mindestens eine aus der ersten Audiokomponente und der zweiten Audiokomponente enthält, ein drittes Signal auf Grundlage des dritten Audiosignals ausgibt und sich weiter weg von der zweiten Position befindet als das mindestens eine erste Mikrofon, wobei die Bestimmungseinheit die Bestimmung vornimmt, welche aus der ersten Audiokomponente und der zweiten Audiokomponente das erste Audiosignal mehr enthält, auf Grundlage des zweiten Signals und des dritten Signals.
  3. Audioverarbeitungssystem nach Anspruch 2, weiter umfassend eine Richtungsabhängigkeitssteuerungseinheit, die ein erstes Richtungsabhängigkeitssignal ausgibt, erhalten durch ein Durchführen einer Richtungsabhängigkeitssteuerungsverarbeitung an dem zweiten Signal, und ein zweites Richtungsabhängigkeitssignal ausgibt, erhalten durch ein Durchführen einer Richtungsabhängigkeitssteuerungsverarbeitung an dem dritten Signal.
  4. Audioverarbeitungssystem nach Anspruch 3, wobei die Bestimmungseinheit die Bestimmung vornimmt, welche aus der ersten Audiokomponente und der zweiten Audiokomponente das erste Audiosignal mehr enthält, auf Grundlage des ersten Richtungsabhängigkeitssignals und des zweiten Richtungsabhängigkeitssignals.
  5. Audioverarbeitungssystem nach Anspruch 3 oder 4, wobei die Richtungsabhängigkeitssteuerungseinheit die Bestimmungseinheit enthält.
  6. Audioverarbeitungssystem nach einem beliebigen der Ansprüche 1 bis 4, wobei das mindestens eine erste Mikrofon umfasst: ein viertes Mikrofon, das ein viertes Audiosignal erlangt, das mindestens eine aus der ersten Audiokomponente und der zweiten Audiokomponente enthält, und ein viertes Signal auf Grundlage des vierten Audiosignals ausgibt; ein fünftes Mikrofon, das ein fünftes Audiosignal erlangt, das mindestens eine aus der ersten Audiokomponente und der zweiten Audiokomponente enthält, ein fünftes Signal auf Grundlage des fünften Audiosignals ausgibt und sich näher an der zweiten Position befindet als das vierte Mikrofon, das Audioverarbeitungssystem eine Anomalieerfassungseinheit umfasst, die das Vorhandensein oder Nichtvorhandensein von Anomalie in mindestens einem ersten Mikrofon erfasst und Anomalieinformationen über die Anomalie des mindestens einen ersten Mikrofons an die Steuereinheit sendet, und die Steuereinheit einen Filterkoeffizienten des adaptiven Filters auf Grundlage der Anomalieinformationen und des Ergebnisses der Bestimmung steuert.
  7. Audioverarbeitungssystem nach Anspruch 6, wobei die Steuereinheit veranlasst, dass eine Intensität des in das adaptive Filter eingegebenen vierten Signals null ist, wenn die Bestimmungseinheit Anomalie des vierten Mikrofons erfasst, und veranlasst, dass eine Intensität des in das adaptive Filter eingegebenen fünften Signals null ist, wenn die Bestimmungseinheit Anomalie des fünften Mikrofons erfasst.
  8. Audioverarbeitungssystem nach Anspruch 6 oder 7, wobei die Anomalieerfassungseinheit die Bestimmungseinheit enthält.
  9. Audioverarbeitungsvorrichtung, umfassend: mindestens eine Empfangseinheit, die ein erstes Signal auf Grundlage eines ersten Audiosignals empfängt, das mindestens eine aus einer ersten Audiokomponente, erzeugt an einer ersten Position, und einer zweiten Audiokomponente enthält, erzeugt an einer zweiten, von der ersten Position verschiedenen Position; mindestens ein adaptives Filter, in das das erste Signal eingegeben wird, und das ein Durchlasssignal auf Grundlage des ersten Signals ausgibt; eine Bestimmungseinheit, die eine Bestimmung vornimmt, welche aus der ersten Audiokomponente und der zweiten Audiokomponente das erste Audiosignal mehr enthält; und eine Steuereinheit, die einen Filterkoeffizienten des adaptiven Filters auf Grundlage eines Ergebnisses der Bestimmung steuert.
  10. Audioverarbeitungsverfahren, ausgeführt in einer Audioverarbeitungsvorrichtung, umfassend: Empfangen eines ersten Signals auf Grundlage eines ersten Audiosignals, das mindestens eine aus einer ersten Audiokomponente, erzeugt an einer ersten Position, und einer zweiten Audiokomponente enthält, erzeugt an einer zweiten, von der ersten Position verschiedenen Position; wobei das erste Signal in das mindestens eine adaptive Filter eingegeben wird und das mindestens eine adaptive Filter ein Durchlasssignal auf Grundlage des ersten Signals ausgibt; Vornehmen einer Bestimmung, welche aus der ersten Audiokomponente und der zweiten Audiokomponente das erste Audiosignal mehr enthält; und Steuern eines Filterkoeffizienten des adaptiven Filters auf Grundlage eines Ergebnisses der Bestimmung.
DE112021001686.5T 2020-03-18 2021-02-10 Audioverarbeitungssystem, Audioverarbeitungsvorrichtung und Audioverarbeitungsverfahren Pending DE112021001686T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020048463A JP7365642B2 (ja) 2020-03-18 2020-03-18 音声処理システム、音声処理装置及び音声処理方法
JP2020-048463 2020-03-18
PCT/JP2021/005114 WO2021186966A1 (ja) 2020-03-18 2021-02-10 音声処理システム、音声処理装置及び音声処理方法

Publications (1)

Publication Number Publication Date
DE112021001686T5 true DE112021001686T5 (de) 2023-01-26

Family

ID=77768088

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112021001686.5T Pending DE112021001686T5 (de) 2020-03-18 2021-02-10 Audioverarbeitungssystem, Audioverarbeitungsvorrichtung und Audioverarbeitungsverfahren

Country Status (5)

Country Link
US (1) US20220406286A1 (de)
JP (1) JP7365642B2 (de)
CN (1) CN115299074A (de)
DE (1) DE112021001686T5 (de)
WO (1) WO2021186966A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4889810B2 (ja) 2008-06-11 2012-03-07 三菱電機株式会社 エコーキャンセラ

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009276528A (ja) 2008-05-14 2009-11-26 Yamaha Corp 音声処理装置及び録音装置
JP5958218B2 (ja) 2011-09-15 2016-07-27 株式会社Jvcケンウッド ノイズ低減装置、音声入力装置、無線通信装置、およびノイズ低減方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4889810B2 (ja) 2008-06-11 2012-03-07 三菱電機株式会社 エコーキャンセラ

Also Published As

Publication number Publication date
JP2021150801A (ja) 2021-09-27
CN115299074A (zh) 2022-11-04
WO2021186966A1 (ja) 2021-09-23
JP7365642B2 (ja) 2023-10-20
US20220406286A1 (en) 2022-12-22

Similar Documents

Publication Publication Date Title
DE69635500T2 (de) Verfahren und Vorrichtung zur Erkennung eines nahen Sprachsignals
DE102015119494B4 (de) Systeme und Verfahren zur Lärmbekämpfung in einem Fahrzeug
DE102018109246A1 (de) System zum Sammeln und Verarbeiten von Audio-Signalen
DE102005000818A1 (de) Rauschunterdrückungssystem, Spracherkennungssystem und Fahrzeug-Navigationssystem
DE102018109937A1 (de) Aktive Tondesensibilisierung für tonale Geräusche in einem Fahrzeug
DE102006047986B4 (de) Verarbeitung eines Eingangssignals in einem Hörgerät
EP3375204B1 (de) Audiosignalverarbeitung in einem fahrzeug
DE102019127823A1 (de) Geräuschunterdrückungssysteme mit gleichzeitiger obertonfilterung
WO2000019770A1 (de) Hörgerät und verfahren zum verarbeiten von mikrofonsignalen in einem hörgerät
DE102017219234A1 (de) Verfahren zum Erfassen einer Spracheingabe eines Benutzers in einem Außenbereich eines Kraftfahrzeugs sowie Kraftfahrzeug
DE102019127820A1 (de) Geräuschunterdrückungssysteme mit gleichzeitiger obertonfilterung
DE102005037895B3 (de) Hörvorrichtung und Verfahren zum Bestimmen einer Information über eine Raumakustik
DE112017007280T5 (de) Fahrzeuginterne Kommunikationssteuerungsvorrichtung, fahrzeuginternes Kommunikationssystem, und fahrzeuginternes Kommunikationssteuerungsverfahren
DE102022106036A1 (de) Kontextabhängige signalaufbereitung für den sprachassistenten im fahrzeug
DE102021214593A1 (de) Aktivgeräuschkontrolleinrichtung für Fahrzeuge und Verfahren zum Steuern derselben
DE112021001686T5 (de) Audioverarbeitungssystem, Audioverarbeitungsvorrichtung und Audioverarbeitungsverfahren
DE102018117557A1 (de) Adaptives nachfiltern
DE112020004700T5 (de) Audioverarbeitungssystem und Audioverarbeitungsvorrichtung
DE102018117558A1 (de) Adaptives nachfiltern
DE4303921A1 (de) Verfahren zur Messung eines Differenzschalls durch Subtraktion eines über einen Lautsprecher gerade abgegebenen Schalls von einem Gesamtschall
DE60102571T2 (de) Verfahren und systeme für rauschunterdrückung für räumlich versetzte signalquellen
DE10025655B4 (de) Verfahren zum Entfernen einer unerwünschten Komponente aus einem Signal und System zum Unterscheiden zwischen unerwünschten und erwünschten Signalkomponenten
DE102018117556B4 (de) Einzelkanal-rauschreduzierung
US20230026003A1 (en) Sound crosstalk suppression device and sound crosstalk suppression method
EP3232691B1 (de) Verfahren zur ermittlung der raumimpulsantwort einer fahrgastzelle eines kraftfahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: PANASONIC AUTOMOTIVE SYSTEMS CO., LTD., YOKOHA, JP

Free format text: FORMER OWNER: PANASONIC INTELLECTUAL PROPERTY MANAGEMENT CO., LTD., OSAKA, JP