DE112019004139T5 - Signalverarbeitungsvorrichtung, signalverarbeitungsverfahren und programm - Google Patents

Signalverarbeitungsvorrichtung, signalverarbeitungsverfahren und programm Download PDF

Info

Publication number
DE112019004139T5
DE112019004139T5 DE112019004139.8T DE112019004139T DE112019004139T5 DE 112019004139 T5 DE112019004139 T5 DE 112019004139T5 DE 112019004139 T DE112019004139 T DE 112019004139T DE 112019004139 T5 DE112019004139 T5 DE 112019004139T5
Authority
DE
Germany
Prior art keywords
head
transfer function
related transfer
frequency band
signal processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112019004139.8T
Other languages
English (en)
Inventor
Hironori SATOU
Toru Nakagawa
Tetsu Magariyachi
Koyuru Okimoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of DE112019004139T5 publication Critical patent/DE112019004139T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • H04S1/005For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/08Arrangements for producing a reverberation or echo sound
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/007Two-channel systems in which the audio signals are in digital form
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Abstract

Die vorliegende Offenbarung betrifft eine Signalverarbeitungsvorrichtung, ein Signalverarbeitungsverfahren und ein Programm, die ermöglichen, problemlos eine Personalisierung kopfbezogener Übertragungsfunktionen in allen Frequenzbändern zu erreichen.Eine Syntheseeinheit erzeugt eine dritte kopfbezogene Übertragungsfunktion, indem eine Eigenschaft eines ersten Frequenzbands, die aus einer ersten kopfbezogenen Übertragungsfunktion eines Benutzers extrahiert wurde, und eine Eigenschaft eines gegenüber dem ersten Frequenzband unterschiedlichen zweiten Frequenzbands synthetisiert werden, die aus einer zweiten kopfbezogenen Übertragungsfunktion extrahiert wurde, die in einer zweiten Messumgebung gemessen wurde, die sich von einer ersten Messumgebung unterscheidet, in der die erste kopfbezogene Übertragungsfunktion gemessen wurde. Die vorliegende Offenbarung kann beispielsweise auf ein mobiles Endgerät wie zum Beispiel ein Smartphone angewendet werden.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft eine Signalverarbeitungsvorrichtung, ein Signalverarbeitungsverfahren und ein Programm und insbesondere eine Signalverarbeitungsvorrichtung, ein Signalverarbeitungsverfahren und ein Programm, die ermöglichen, problemlos eine Personalisierung einer kopfbezogenen Übertragungsfunktion zu erreichen.
  • TECHNISCHER HINTERGRUND
  • Es ist eine Technik bekannt, die ein Schallabbild mit Kopfhörern dreidimensional wiedergibt, indem eine kopfbezogene Übertragungsfunktion (head-related transfer function, HRTF) verwendet wird, die ausdrückt, wie ein Schall aus einer Schallquelle zu den Ohren übertragen wird.
  • Beispielsweise offenbart die Patentschrift 1 ein mobiles Endgerät, das einen stereofonen Schall unter Verwendung einer HRTF wiedergibt, die unter Verwendung eines Kunstkopfs gemessen wurde.
  • Aufgrund der Individualität der HRTF ist bei der unter Verwendung eines Kunstkopfs gemessenen HRTF eine exakte Lokalisierung des Schallabbilds nicht möglich. Inzwischen ist bekannt, dass eine exakte Lokalisierung von Schallabbildern erreicht werden kann, indem die einem Hörer eigene HRTF gemessen wird, um die HRTF zu personalisieren.
  • Beim Messen der einem Hörer eigenen HRTF ist jedoch die Verwendung umfangreicher Ausrüstungen nötig, beispielsweise eines echofreien Raums und eines großen Lautsprechers.
  • LITERATURNACHWEIS
  • PATENTSCHRIFT
  • Patentschrift 1: japanische offengelegte Patentanmeldung Nr. 2009-260574
  • KURZDARSTELLUNG DER ERFINDUNG
  • PROBLEME, DIE DURCH DIE ERFINDUNG GELÖST WERDEN SOLLEN
  • Hinsichtlich des vorstehend Dargestellten kann beispielsweise problemlos eine Personalisierung der HRTF ohne Verwendung umfangreicher Ausrüstungen erreicht werden, wenn die einem Hörer eigene HRTF unter Verwendung eines Smartphones als Schallquelle gemessen werden kann.
  • Da ein Lautsprecher eines Smartphones jedoch ein schmales Wiedergabefrequenzband hat, ist das Messen einer HRTF mit ausreichenden Eigenschaften nicht möglich.
  • Die vorliegende Offenbarung wurde hinsichtlich einer derartigen Situation erdacht und zielt darauf ab, problemlos eine Personalisierung kopfbezogener Übertragungsfunktionen in allen Frequenzbändern zu erreichen.
  • LÖSUNGEN FÜR PROBLEME
  • Bei einer Signalverarbeitungsvorrichtung gemäß der vorliegenden Offenbarung handelt es sich um eine Signalverarbeitungsvorrichtung, die eine Syntheseeinheit aufweist, die eine dritte kopfbezogene Übertragungsfunktion erzeugt, indem eine Eigenschaft eines ersten Frequenzbands, die aus einer ersten kopfbezogenen Übertragungsfunktion eines Benutzers extrahiert wurde, und eine Eigenschaft eines gegenüber dem ersten Frequenzband unterschiedlichen zweiten Frequenzbands synthetisiert werden, die aus einer zweiten kopfbezogenen Übertragungsfunktion extrahiert wurde, die in einer zweiten Messumgebung gemessen wurde, die sich von einer ersten Messumgebung unterscheidet, in der die erste kopfbezogene Übertragungsfunktion gemessen wurde.
  • Eine Signalverarbeitungsvorrichtung gemäß der vorliegenden Offenbarung weist ein Erzeugen einer dritten kopfbezogenen Übertragungsfunktion auf, indem eine Eigenschaft eines ersten Frequenzbands, die aus einer ersten kopfbezogenen Übertragungsfunktion eines Benutzers extrahiert wurde, und eine Eigenschaft eines gegenüber dem ersten Frequenzband unterschiedlichen zweiten Frequenzbands synthetisiert werden, die aus einer zweiten kopfbezogenen Übertragungsfunktion extrahiert wurde, die in einer zweiten Messumgebung gemessen wurde, die sich von einer ersten Messumgebung unterscheidet, in der die erste kopfbezogene Übertragungsfunktion gemessen wurde.
  • Ein Programm gemäß der vorliegenden Offenbarung bewirkt, dass ein Computer einen Prozess des Erzeugens einer dritten kopfbezogenen Übertragungsfunktion ausführt, indem eine Eigenschaft eines ersten Frequenzbands, die aus einer ersten kopfbezogenen Übertragungsfunktion eines Benutzers extrahiert wurde, und eine Eigenschaft eines gegenüber dem ersten Frequenzband unterschiedlichen zweiten Frequenzbands synthetisiert werden, die aus einer zweiten kopfbezogenen Übertragungsfunktion extrahiert wurde, die in einer zweiten Messumgebung gemessen wurde, die sich von einer ersten Messumgebung unterscheidet, in der die erste kopfbezogene Übertragungsfunktion gemessen wurde.
  • Bei der vorliegenden Offenbarung wird eine dritte kopfbezogene Übertragungsfunktion erzeugt, indem eine Eigenschaft eines ersten Frequenzbands, die aus einer ersten kopfbezogenen Übertragungsfunktion eines Benutzers extrahiert wurde, und eine Eigenschaft eines gegenüber dem ersten Frequenzband unterschiedlichen zweiten Frequenzbands synthetisiert werden, die aus einer zweiten kopfbezogenen Übertragungsfunktion extrahiert wurde, die in einer zweiten Messumgebung gemessen wurde, die sich von einer ersten Messumgebung unterscheidet, in der die erste kopfbezogene Übertragungsfunktion gemessen wurde.
  • AUSWIRKUNGEN DER ERFINDUNG
  • Gemäß der vorliegenden Erfindung wird es möglich, problemlos eine Personalisierung einer kopfbezogenen Übertragungsfunktion zu erreichen.
  • Zu beachten ist, dass die hierin beschriebenen Auswirkungen nicht zwangsläufig darauf beschränkt sind und es sich um beliebige der in der vorliegenden Offenbarung beschriebenen Auswirkungen handeln kann.
  • Figurenliste
    • 1 ist ein Blockschema, das eine beispielhafte Konfiguration eines mobilen Endgeräts veranschaulicht, auf das eine Technik gemäß der vorliegenden Erfindung angewendet wird.
    • 2 ist ein Blockschema, das eine beispielhafte Funktionskonfiguration des mobilen Endgeräts veranschaulicht.
    • 3 ist ein Flussdiagramm, das einen Prozess des Erzeugens einer kopfbezogenen Übertragungsfunktion veranschaulicht.
    • 4 ist ein Blockschema, das eine beispielhafte Konfiguration eines mobilen Endgeräts gemäß einer ersten Ausführungsform veranschaulicht.
    • 5 ist ein Flussdiagramm, das einen Prozess des Erzeugens einer kopfbezogenen Übertragungsfunktion veranschaulicht.
    • 6 ist eine Darstellung, die die Messung der kopfbezogenen Übertragungsfunktion für mehrere Kanäle veranschaulicht.
    • 7 ist eine Grafik, die die Frequenzbandextraktion der kopfbezogenen Übertragungsfunktion veranschaulicht.
    • 8 ist eine Grafik, die die Hinzufügung einer Nachhallkomponente veranschaulicht.
    • 9 ist eine Grafik, die die Korrektur der Eigenschaften zum Zeitpunkt der Verwendung eines Mikrofons mit Störschallunterdrückung (NC-Mikrofon) (NC = noise canceling) veranschaulicht.
    • 10 ist eine Darstellung, die eine beispielhafte Konfiguration einer Ausgabeeinheit veranschaulicht.
    • 11 ist eine Darstellung, die eine Änderung von Frequenzeigenschaften veranschaulicht.
    • 12 ist ein Blockschema, das eine beispielhafte Konfiguration eines mobilen Endgeräts gemäß einer zweiten Ausführungsform veranschaulicht.
    • 13 ist ein Flussdiagramm, das einen Prozess des Erzeugens einer kopfbezogenen Übertragungsfunktion veranschaulicht.
    • 14 ist eine Darstellung, die eine Schätzung der kopfbezogenen Übertragungsfunktion in Horizontalrichtung veranschaulicht.
    • 15 ist eine Grafik, die beispielhafte Frequenzeigenschaften eines Schätzfilters veranschaulicht.
    • 16 ist ein Flussdiagramm, das einen Prozess des Erzeugens einer kopfbezogenen Übertragungsfunktion veranschaulicht.
    • 17 ist eine Darstellung, die die Messung der kopfbezogenen Übertragungsfunktionen einer Medianebene und einer Sagittalebene veranschaulicht.
    • 18 ist ein Blockschema, das eine beispielhafte Konfiguration eines Computers veranschaulicht.
  • MODUS ZUM AUSFÜHREN DER ERFINDUNG
  • Im Folgenden werden Modi zum Ausführen der vorliegenden Offenbarung (im Folgenden als „Ausführungsformen“ bezeichnet) beschrieben. Zu beachten ist, dass die Beschreibungen in der folgenden Reihenfolge aufgeführt werden.
    1. 1. Konfiguration und Betrieb eines mobilen Endgeräts, auf das die Technik gemäß der vorliegenden Offenbarung angewendet wird
    2. 2. Erste Ausführungsform (Messung einer kopfbezogenen Übertragungsfunktion für mehrere Kanäle)
    3. 3. Zweite Ausführungsform (Messung einer kopfbezogenen Übertragungsfunktion in einer Frontalrichtung)
    4. 4. Dritte Ausführungsform (Messung einer kopfbezogenen Übertragungsfunktion für eine Medianebene)
    5. 5. Sonstige
  • <Konfiguration und Betrieb eines mobilen Endgeräts, auf das die Technik gemäß der vorliegenden Offenbarung angewendet wird>
  • (Konfiguration des mobilen Endgeräts)
  • Zunächst wird unter Bezugnahme auf 1 eine beispielhafte Konfiguration eines mobilen Endgeräts als Signalverarbeitungsvorrichtung beschrieben, auf das eine Technik gemäß der vorliegenden Offenbarung angewendet wird.
  • Ein in 1 veranschaulichtes mobiles Endgerät 1 ist beispielsweise als ein als Smartphone bezeichnetes Mobiltelefon konfiguriert.
  • Das mobile Endgerät 1 weist eine Steuereinheit 11 auf. Die Steuereinheit 11 steuert den Betrieb jeder Einheit im mobilen Endgerät 1. Die Steuereinheit 11 tauscht über eine Steuerleitung 28 Daten mit jeder Einheit im mobilen Endgerät 1 aus.
  • Darüber hinaus weist das mobile Endgerät 1 eine Kommunikationseinheit 12 auf, die drahtlose Kommunikation durchführt, die als Kommunikationsendgerät notwendig ist. Eine Antenne 13 ist mit der Kommunikationseinheit 12 verbunden. Die Kommunikationseinheit 12 kommuniziert zwecks drahtloser Kommunikation drahtlos mit einer Basisstation und führt mit der Basisstation bidirektionale Datenübertragung durch. Die Kommunikationseinheit 12 überträgt von der Seite der Basisstation empfangene Daten über eine Datenleitung 29 zu jeder Einheit im mobilen Endgerät 1. Des Weiteren überträgt sie von jeder Einheit im mobilen Endgerät 1 übertragene Daten über die Datenleitung 29 zur Seite der Basisstation.
  • Außer der Kommunikationseinheit 12 sind ein Speicher 14, eine Anzeigeeinheit 15, eine Audioverarbeitungseinheit 17 und eine stereofone Verarbeitungseinheit 21 mit der Datenleitung 29 verbunden.
  • Im Speicher 14 sind ein Programm, das zum Betreiben des mobilen Endgeräts 1 notwendig ist, verschiedene durch einen Benutzer gespeicherte Daten und dergleichen gespeichert. Im Speicher 14 sind außerdem Audiosignale wie zum Beispiel Musikdaten gespeichert, die durch Herunterladen oder dergleichen erhalten wurden.
  • Die Anzeigeeinheit 15 weist eine Flüssigkeitskristallanzeige, eine organische Elektrolumineszenzanzeige (EL-Anzeige) oder dergleichen auf und zeigt unter der Steuerung der Steuereinheit 11 verschiedene Informationen an.
  • Die Bedieneinheit 16 weist einen Berührungsbildschirm (Touch-Panel), der in die in der Anzeigeeinheit 15 enthaltene Anzeige integriert ist, eine am Gehäuse des mobilen Endgeräts 1 bereitgestellte physische Taste und dergleichen auf. Die Anzeigeeinheit 15 als Touch-Panel (Bedieneinheit 16) zeigt Schaltflächen, die Wähltasten wie zum Beispiel Zahlen und Symbole darstellen, verschiedene Funktionstasten und dergleichen an. Bedieninformationen für jede Schaltfläche werden der Steuereinheit 11 zugeführt.
  • Bei der Audioverarbeitungseinheit 17 handelt es sich um eine Verarbeitungseinheit, die Audiosignale verarbeitet, und ein Lautsprecher 18 und ein Mikrofon 19 sind mit dieser verbunden. Der Lautsprecher 18 und das Mikrofon 19 fungieren während eines Anrufs als Handapparat.
  • Die der Audioverarbeitungseinheit 17 von der Kommunikationseinheit 12 zugeführten Audiodaten werden durch die Audioverarbeitungseinheit 17 als Audiosignale demoduliert, die einer Audioverarbeitung wie zum Beispiel Verstärkung unterzogen und aus dem Lautsprecher 18 ausgegeben werden. Des Weiteren werden die Audiosignale von Stimmen, die durch das Mikrofon 19 erfasst wurden, durch die Audioverarbeitungseinheit 17 in digitale Audiodaten moduliert, und die modulierten Audiodaten werden der Kommunikationseinheit 12 zum Durchführen von drahtloser Übertragung und dergleichen zugeführt.
  • Des Weiteren wird unter den der Audioverarbeitungseinheit 17 zugeführten Audiodaten die Stimmenausgabe als stereofoner Schall der stereofonen Verarbeitungseinheit 21 zugeführt und verarbeitet.
  • Die stereofone Verarbeitungseinheit 21 erzeugt zweikanalige Audiosignale, die binauralen stereofonen Schall wiedergeben. Die durch die stereofone Verarbeitungseinheit 21 zu verarbeitenden Audiosignale können zusätzlich dazu, dass sie aus der Audioverarbeitungseinheit 17 zugeführt werden, aus dem Speicher 14 und dergleichen gelesen werden, um über die Datenleitung 29 zugeführt zu werden, oder die durch die Kommunikationseinheit 12 empfangenen Audiosignale können über die Datenleitung 29 zugeführt werden.
  • Die durch die stereofone Verarbeitungseinheit 21 empfangenen Audiosignale werden aus zwei Lautsprechern 22L und 22R für den linken und rechten Kanal ausgegeben, der in der Haupteinheit des mobilen Endgeräts 1 aufgebaut ist, oder aus Kopfhörern (nicht veranschaulicht) ausgegeben, die mit einem Ausgangsanschluss 23 verbunden sind.
  • Bei den Lautsprechern 22L und 22R handelt es sich um Lautsprecher, die eine relativ kleine Lautsprechereinheit verwenden, die im Hauptkörper des mobilen Endgeräts 1 aufgebaut ist und es sich um Lautsprecher handelt, die wiedergegebenen Schall in dem Ausmaß verstärken und ausgeben, dass Hörer in der Nähe des mobilen Endgeräts 1 den wiedergegebenen Schall hören können.
  • Im Falle des Ausgebens der Audiosignale aus Kopfhörern (nicht veranschaulicht) kann außer dem direkten Verbinden der Kopfhörer mit dem Ausgangsanschluss 23 über Leitung beispielsweise eine drahtlose Kommunikation mit den Kopfhörern unter Verwendung eines Schemas wie zum Beispiel Bluetooth (eingetragene Marke) durchgeführt werden, um die Audiosignale den Kopfhörern zuzuführen.
  • 2 ist ein Blockschema, das eine beispielhafte Funktionskonfiguration des vorstehend beschriebenen mobilen Endgeräts 1 veranschaulicht.
  • Das mobile Endgerät 1 von 2 weist eine Messeinheit 51, eine Frequenzbandextraktionseinheit 52, eine HRTF-Datenbank 53, eine Frequenzbandextraktionseinheit 54, eine Syntheseeinheit 55, eine Audioeingabeeinheit 56 und eine Audioausgabeeinheit 57 auf.
  • Die Messeinheit 51 misst eine kopfbezogene Übertragungsfunktion (HRTF) des Benutzers, der das mobile Endgerät 1 bedient. Beispielsweise erhält die Messeinheit 51 die kopfbezogene Übertragungsfunktion auf der Grundlage einer Schallquelle, die Messschallwellen wie zum Beispiel Impulssignale wiedergeben, die in Bezug auf den Benutzer in einer Richtung oder in einer Vielzahl von Richtungen angeordnet ist.
  • Es genügt, wenn es sich bei der Schallquelle zum Wiedergeben der Messschallwellen um eine Vorrichtung handelt, die mindestens einen Lautsprecher aufweist, wobei der Lautsprecher nicht notwendigerweise ein breites Wiedergabefrequenzband haben muss.
  • Beispielsweise kann es sich bei der Schallquelle zum Wiedergeben der Messschallwellen um den Lautsprecher 18 des mobilen Endgeräts 1 handeln. In diesem Fall ordnet der Benutzer das mobile Endgerät 1 in einer vorgegebenen Richtung an und veranlasst, dass ein im linken und rechten Ohr des Benutzers getragenes Mikrofon (nicht veranschaulicht) die Messschallwellen vom Lautsprecher 18 erfasst. Die Messeinheit 51 erhält auf der Grundlage der Audiosignale vom Mikrofon, die durch ein vorgegebenes Mittel übertragen werden, eine kopfbezogene Übertragungsfunktion Hm des Benutzers.
  • Die Frequenzbandextraktionseinheit 52 extrahiert aus der durch die Messeinheit 51 gemessenen kopfbezogenen Übertragungsfunktion Eigenschaften eines ersten Frequenzbands. Die extrahierte kopfbezogene Übertragungsfunktion Hm des ersten Frequenzbands wird der Syntheseeinheit 55 zugeführt.
  • Die HRTF-Datenbank 53 bewahrt eine kopfbezogene Übertragungsfunktion Hp auf, die in einer anderen Messumgebung als der aktuellen Messumgebung gemessen wurde, in der die kopfbezogene Übertragungsfunktion Hm gemessen wird. Die kopfbezogener Übertragungsfunktion Hp ist als im Voraus gemessene voreingestellte Daten definiert, im Gegensatz zur kopfbezogenen Übertragungsfunktion Hm, die unter Verwendung beispielsweise des Lautsprechers 18 oder des durch den Benutzer angeordneten mobilen Endgeräts 1 tatsächlich gemessen wird. Die kopfbezogene Übertragungsfunktion Hp ist beispielsweise als kopfbezogene Übertragungsfunktion definiert, die in einer idealen Messumgebung gemessen wird, die mit Einrichtungen wie zum Beispiel einem echofreien Raum und einem großen Lautsprecher für einen Kunstkopf oder eine Person mit einem durchschnittlich geformten Kopf und durchschnittlich geformten Ohren ausgestattet ist.
  • Die Frequenzbandextraktionseinheit 54 extrahiert aus der in der HRTF-Datenbank 53 gespeicherten kopfbezogenen Übertragungsfunktion Hp Eigenschaften eines zweiten Frequenzbands, das sich vom vorstehend erwähnten ersten Frequenzband unterscheidet. Die extrahierte kopfbezogene Übertragungsfunktion Hp des zweiten Frequenzbands wird der Syntheseeinheit 55 zugeführt.
  • Die Syntheseeinheit 55 synthetisiert die kopfbezogene Übertragungsfunktion Hm des ersten Frequenzbands aus der Frequenzbandextraktionseinheit 52 und die kopfbezogene Übertragungsfunktion des zweiten Frequenzbands aus der Frequenzbandextraktionseinheit 54, wodurch eine kopfbezogene Übertragungsfunktion H in allen Frequenzbändern erzeugt wird. Das heißt, dass es sich bei der kopfbezogenen Übertragungsfunktion H um eine kopfbezogene Übertragungsfunktion handelt, die die Frequenzeigenschaften der kopfbezogenen Übertragungsfunktion Hm für das erste Frequenzband und die Frequenzeigenschaften der kopfbezogenen Übertragungsfunktion Hp für das zweite Frequenzband hat. Die erzeugte kopfbezogene Übertragungsfunktion H wird der Ausgabeeinheit 57 zugeführt.
  • Die Audioeingabeeinheit 56 gibt in die Ausgabeeinheit 57 Audiosignale ein, die als Quelle des wiederzugebenden stereofonen Schalls dienen.
  • Die Ausgabeeinheit 57 faltet die kopfbezogene Übertragungsfunktion H aus der Syntheseeinheit 55 in Bezug auf die aus der Audioeingabeeinheit 56 eingegebenen Audiosignale und gibt die Signale als zweikanalige Audiosignale aus. Bei den aus der Ausgabeeinheit 57 ausgegebenen Audiosignale handelt es sich um Audiosignale, die binauralen stereofonen Schall wiedergeben.
  • (Betrieb des mobilen Endgeräts)
  • Als Nächstes wird der Prozess des Erzeugens der kopfbezogenen Übertragungsfunktion durch das mobile Endgerät 1 unter Bezugnahme auf das Flussdiagramm von 3 beschrieben.
  • In Schritt S1 misst die Messeinheit 51 die kopfbezogene Übertragungsfunktion Hm durch Verwenden eines Smartphones (mobiles Endgerät 1) als Schallquelle.
  • In Schritt S2 extrahiert die Frequenzbandextraktionseinheit 52 die Eigenschaften des ersten Frequenzbands aus der gemessenen kopfbezogenen Übertragungsfunktion Hm. Beim ersten Frequenzband kann es sich um ein Frequenzband von einer vorgegebenen ersten Frequenz f1 bis zu einer zweiten Frequenz f2 handeln, die höher als die Frequenz f1 ist, oder es kann sich einfach um ein höheres Frequenzband als die Frequenz f1 handeln. Das erste Frequenzband ist als Frequenzband definiert, in dem sehr wahrscheinlich einzelpersonenabhängige Eigenschaften auftreten.
  • In Schritt S3 extrahiert die Frequenzbandextraktionseinheit 54 die Eigenschaften des zweiten Frequenzbands aus der voreingestellten kopfbezogenen Übertragungsfunktion Hp, die in der HRTF-Datenbank 53 aufbewahrt wird. Beim zweiten Frequenzband kann es sich um ein Frequenzband handeln, das niedriger als die Frequenz f1 ist, und ein Frequenzband, das höher als die Frequenz f2 ist, oder es kann sich einfach um ein Frequenzband handeln, das ein Frequenzband aufweist, das niedriger als die Frequenz f1 ist. Das zweite Frequenzband ist als Frequenzband definiert, in dem einzelpersonenabhängige Eigenschaften wahrscheinlich nicht auftreten und beispielsweise nicht durch ein Smartphone wiedergegeben werden können.
  • In Schritt S4 erzeugt die Syntheseeinheit 55 die kopfbezogene Übertragungsfunktion H durch Synthetisieren der extrahierten kopfbezogenen Übertragungsfunktion Hm des ersten Frequenzbands und der kopfbezogenen Übertragungsfunktion Hp des zweiten Frequenzbands.
  • Gemäß dem vorstehend beschriebenen Prozess werden die Eigenschaften des Frequenzbands, in dem wahrscheinlich einzelpersonenabhängige Eigenschaften auftreten, aus der tatsächlich gemessenen kopfbezogenen Übertragungsfunktion extrahiert, und die Eigenschaften des Frequenzbands, in dem einzelpersonenabhängige Eigenschaften wahrscheinlich nicht auftreten und nicht durch ein Smartphone wiedergegeben werden können, werden aus der voreingestellten kopfbezogenen Übertragungsfunktion extrahiert. Selbst in einem Fall, bei dem die kopfbezogene Übertragungsfunktion des Benutzers unter Verwendung eines Smartphones mit einem schmalen Wiedergabefrequenzband als Schallquelle gemessen wird, wird es daher möglich, eine kopfbezogene Übertragungsfunktion mit ausreichenden Eigenschaften zu erhalten, wodurch ohne Verwendung umfangreicher Ausrüstungen problemlos eine Personalisierung der kopfbezogenen Übertragungsfunktionen in allen Frequenzbändern erreicht werden kann.
  • Im Folgenden werden Ausführungsformen gemäß der Technik der vorliegenden Offenbarung beschrieben.
  • <Erste Ausführungsform>
  • (Konfiguration des mobilen Endgeräts)
  • 4 ist eine Darstellung, die eine beispielhafte Konfiguration eines mobilen Endgeräts 1 gemäß einer ersten Ausführungsform der Technik der vorliegenden Offenbarung veranschaulicht.
  • Das mobile Endgerät 1 von 4 weist ein Bandpassfilter 111, eine Korrektureinheit 112 und einen Entzerrer 113 auf. Darüber hinaus weist das mobile Endgerät 1 eine Nachhallkomponenten-Abtrennungseinheit 121, ein Hochpassfilter 131, einen Entzerrer 132, ein Bandpassfilter 141, einen Entzerrer 142, ein Tiefpassfilter 151, einen Entzerrer 152, eine Syntheseeinheit 161 und eine Nachhallkomponenten-Hinzufügungseinheit 162 auf.
  • Das Bandpassfilter 111 extrahiert aus der tatsächlich gemessenen kopfbezogenen Übertragungsfunktion Hm Eigenschaften eines Mittelfrequenzbereichs. Der Mittelfrequenzbereich ist definiert als Frequenzband von der vorgegebenen ersten Frequenz f1 bis zur zweiten Frequenz f2, die höher als die Frequenz f1 ist. Die extrahierte kopfbezogene Übertragungsfunktion Hm des Mittelfrequenzbereichs wird der Korrektureinheit 112 zugeführt.
  • Die Korrektureinheit 112 korrigiert unter Verwendung der invertierten Eigenschaft des Lautsprechers 18 des mobilen Endgeräts 1 die kopfbezogene Übertragungsfunktion Hm in einer derartigen Weise, dass die in der kopfbezogenen Übertragungsfunktion Hm enthaltene Eigenschaft des Lautsprechers 18 entfernt wird. Bei der invertierten Eigenschaft des Lautsprechers 18 handelt es sich um im Voraus gemessene voreingestellte Daten, die für jedes Modell des mobilen Endgeräts 1 eine andere Eigenschaft angeben. Die kopfbezogene Übertragungsfunktion Hm des Mittelfrequenzbereichs, aus der die Eigenschaft des Lautsprechers 18 entfernt wurde, wird dem Entzerrer 113 zugeführt.
  • Der Entzerrer 113 passt die Frequenzeigenschaften der kopfbezogenen Übertragungsfunktion Hm des mittleren Schallfrequenzbereichs an und gibt sie zur Syntheseeinheit 161 aus.
  • Die Nachhallkomponenten-Abtrennungseinheit 121 trennt eine direkte Komponente und eine Nachhallkomponente in einer Kopfimpulsantwort ab, die die kopfbezogene Übertragungsfunktion Hp in einem Zeitbereich ausdrückt, bei der es sich um voreingestellte Daten handelt. Die abgetrennte Nachhallkomponente wird der Nachhallkomponenten-Hinzufügungseinheit 162 zugeführt. Die kopfbezogene Übertragungsfunktion Hp, die der abgetrennten direkten Komponente entspricht, wird jedem des Hochpassfilters 131, des Bandpassfilters 141 und des Tiefpassfilters 151 zugeführt.
  • Das Hochpassfilter 131 extrahiert die Hochfrequenzeigenschaften aus der kopfbezogenen Übertragungsfunktion Hp. Das Hochfrequenzband ist definiert als Frequenzband, das höher als die vorstehend beschriebene Frequenz f2 ist. Die extrahierte kopfbezogene Hochfrequenz-Übertragungsfunktion Hp wird dem Entzerrer 132 zugeführt.
  • Der Entzerrer 132 passt die Frequenzeigenschaften der kopfbezogenen Hochfrequenz-Übertragungsfunktion Hp an und gibt sie zur Syntheseeinheit 161 aus.
  • Das Bandpassfilter 141 extrahiert Mittelfrequenzbereichseigenschaften aus der kopfbezogenen Übertragungsfunktion Hp. Die extrahierte kopfbezogene Mittelfrequenzbereichs-Übertragungsfunktion Hp wird dem Entzerrer 142 zugeführt.
  • Der Entzerrer 142 passt die Frequenzeigenschaften der kopfbezogenen Mittelfrequenzbereichs-Übertragungsfunktion Hp an und gibt sie zur Syntheseeinheit 161 aus. Zu diesem Zeitpunkt kann die kopfbezogene Mittelfrequenzbereichs-Übertragungsfunktion Hp einem Prozess des Einstellens ihres Verstärkungsfaktors auf null oder im Wesentlichen null unterzogen werden.
  • Das Tiefpassfilter 151 extrahiert die Niederfrequenzeigenschaften aus der kopfbezogenen Übertragungsfunktion Hp. Das Niederfrequenzband ist definiert als Frequenzband, das niedriger als die vorstehend beschriebene Frequenz f1 ist. Die extrahierte kopfbezogene Niederfrequenz-Übertragungsfunktion Hp wird dem Entzerrer 152 zugeführt.
  • Der Entzerrer 152 passt die Frequenzeigenschaften der kopfbezogenen Niederfrequenz-Übertragungsfunktion Hp an und gibt sie zur Syntheseeinheit 161 aus.
  • Die Syntheseeinheit 161 synthetisiert die kopfbezogene Mittelfrequenzbereichs-Übertragungsfunktion Hm aus dem Entzerrer 113, die kopfbezogene Hochfrequenz-Übertragungsfunktion Hp aus dem Entzerrer 132 und die kopfbezogene Niederfrequenz-Übertragungsfunktion Hp aus dem Entzerrer 152, um die kopfbezogene Übertragungsfunktion H in allen Frequenzbändern zu erzeugen. Die erzeugte kopfbezogene Übertragungsfunktion H wird der Nachhallkomponenten-Hinzufügungseinheit 162 zugeführt.
  • Die Nachhallkomponenten-Hinzufügungseinheit 162 fügt die Nachhallkomponente aus der Nachhallkomponenten-Abtrennungseinheit 121 zur kopfbezogenen Übertragungsfunktion H aus der Syntheseeinheit 161 hinzu. Die kopfbezogene Übertragungsfunktion H, der die Nachhallkomponente hinzugefügt wird, wird zur Faltung in der Ausgabeeinheit 57 verwendet.
  • (Prozess des Erzeugens einer kopfbezogenen Übertragungsfunktion)
  • 5 ist ein Flussdiagramm, das den Prozess des Erzeugens der kopfbezogenen Übertragungsfunktion veranschaulicht, der durch das mobile Endgerät 1 von 4 durchgeführt wird.
  • In Schritt S11 misst die Messeinheit 51 (2) die kopfbezogene Übertragungsfunktion Hm für mehrere Kanäle durch Verwenden eines Smartphones (mobiles Endgerät 1) als Schallquelle. Dementsprechend wird es möglich, virtuelle Schallquellen für die Anzahl von Kanälen zu lokalisieren, für die die kopfbezogene Übertragungsfunktion gemessen wurde.
  • Beispielsweise wird wie in der linken Figur von A von 6 veranschaulicht angenommen, dass ein Benutzer U die kopfbezogene Übertragungsfunktion gemessen hat, während er/sie ein Smartphone SP in der Hand hielt und seinen/ihren Arm diagonal nach vorn links und rechts ausgestreckt hat. In diesem Fall können wie in der rechten Figur von A von 6 veranschaulicht virtuelle Schallquellen VS1 und VS2 links bzw. rechts vor dem Benutzer U lokalisiert werden.
  • Des Weiteren wird wie in der linken Figur von B von 6 veranschaulicht angenommen, dass der Benutzer U die kopfbezogene Übertragungsfunktion gemessen hat, während er/sie das Smartphone SP in der Hand hielt und seinen/ihren Arm vor sich diagonal nach vorn links und rechts und seitlich nach links und rechts ausgestreckt hat. In diesem Fall können wie in der rechten Figur von B von 6 veranschaulicht virtuelle Schallquellen VS1, VS2, VS3, VS4 und VS5 vor dem, diagonal links und rechts vor dem bzw. seitlich links und rechts vom Benutzer U lokalisiert werden.
  • In Schritt S12 extrahiert das Bandpassfilter 111 Mittelfrequenzbereichseigenschaften aus der gemessenen kopfbezogenen Übertragungsfunktion Hm. Die Frequenzeigenschaften der extrahierten kopfbezogenen Mittelfrequenzbereichs-Übertragungsfunktion Hm werden durch den Entzerrer 113 angepasst, nachdem die Eigenschaften des Lautsprechers 18 durch die Korrektureinheit 112 entfernt wurden.
  • In Schritt S13 extrahieren das Hochpassfilter 131 und das Tiefpassfilter 151 Niederfrequenz- und Hochfrequenzeigenschaften aus der voreingestellten kopfbezogenen Übertragungsfunktion Hp, die in der HRTF-Datenbank 53 gespeichert ist. Die Frequenzeigenschaften der kopfbezogenen Niederfrequenz-Übertragungsfunktion Hp werden durch den Entzerrer 152 angepasst, und die Frequenzeigenschaften der kopfbezogenen Hochfrequenz-Übertragungsfunktion Hp werden durch den Entzerrer 132 angepasst. Die Verarbeitung von Schritt S13 kann im Voraus durchgeführt werden.
  • Zu beachten ist, dass die Nachhallkomponente durch die Nachhallkomponenten-Abtrennungseinheit 121 aus der Kopfimpulsantwort abgetrennt wird, die der voreingestellten kopfbezogenen Übertragungsfunktion Hp entspricht. Die abgetrennte Nachhallkomponente wird der Nachhallkomponenten-Hinzufügungseinheit 162 zugeführt.
  • In Schritt S14 erzeugt die Syntheseeinheit 161 die kopfbezogene Übertragungsfunktion H durch Synthetisieren der kopfbezogenen Niederfrequenz-Übertragungsfunktion Hm und der kopfbezogenen Niederfrequenz- und Hochfrequenz-Übertragungsfunktion Hp.
  • A und B von 7 sind Grafiken, die die Frequenzeigenschaften der tatsächlich gemessenen kopfbezogenen Übertragungsfunktion Hm bzw. der voreingestellten kopfbezogenen Übertragungsfunktion Hp veranschaulichen.
  • In A von 7 geben die Eigenschaften des Frequenzbands, das durch den Strichlinienrahmen FM umgeben ist, die Mittelfrequenzbereichseigenschaften an, die durch das Bandpassfilter 111 aus der kopfbezogenen Übertragungsfunktion Hm extrahiert werden sollen. Der Mittelfrequenzbereich ist beispielsweise definiert als Frequenzband von 1 kHz bis 12 kHz.
  • Unterdessen geben in B von 7 die Eigenschaften des Frequenzbands, das durch den Strichlinienrahmen FL umgeben ist, die Niederfrequenzeigenschaften an, die durch das Tiefpassfilter 151 aus der kopfbezogenen Übertragungsfunktion Hp extrahiert werden sollen. Die Niederfrequenz ist beispielsweise als Frequenzband unter 1 kHz definiert. Des Weiteren geben in B von 7 die Eigenschaften des Frequenzbands, das durch den Strichlinienrahmen FH umgeben ist, die Hochfrequenzeigenschaften an, die durch das Hochpassfilter 131 aus der kopfbezogenen Übertragungsfunktion Hm extrahiert werden sollen. Die Hochfrequenz ist beispielsweise als Frequenzband über 12 kHz definiert.
  • Die kopfbezogene Übertragungsfunktion Hm des Frequenzbands von 1 kHz bis 12 kHz und die kopfbezogene Übertragungsfunktion Hp des Frequenzbands unter 1 kHz und des Frequenzbands über 12 kHz, die auf diese Weise extrahiert wurden, werden synthetisiert, wodurch die kopfbezogene Übertragungsfunktion H in allen Frequenzbändern erzeugt wird.
  • Im Frequenzband unter 1 kHz, das durch ein Smartphone mit einem kleinen Lautsprecherdurchmesser und einem schmalen Wiedergabefrequenzband nicht wiedergegeben werden kann, treten einzelpersonenabhängige Eigenschaften in der kopfbezogenen Übertragungsfunktion wahrscheinlich nicht auf, und eine ausreichende Genauigkeit der Lokalisierung von Schallabbildern kann selbst bei Ersetzung durch voreingestellte Eigenschaften erhalten werden. Des Weiteren trägt das Frequenzband über 12 kHz wenig zur Lokalisierung von Schallabbildern bei und selbst im Falle der Ersetzung durch voreingestellte Eigenschaften ist die Genauigkeit der Lokalisierung von Schallabbildern nicht beeinträchtigt, und auf der Grundlage der voreingestellten Eigenschaften wird eine hohe Schallqualität erwartet.
  • In Schritt S15 fügt die Nachhallkomponenten-Hinzufügungseinheit 162 die Nachhallkomponente aus der Nachhallkomponenten-Abtrennungseinheit 121 zur kopfbezogenen Übertragungsfunktion H aus der Syntheseeinheit 161 hinzu.
  • A und B von 8 sind Grafiken, die Kopfimpulsantworten veranschaulichen, in denen die tatsächlich gemessene kopfbezogene Übertragungsfunktion Hm bzw. die voreingestellte kopfbezogene Übertragungsfunktion Hp in einem Zeitbereich ausgedrückt ist.
  • In A von 8 gibt die durch den Strichlinienrahmen FD umgebene Signalform eine direkte Komponente einer Kopfimpulsantwort Im an, die der tatsächlich gemessenen kopfbezogenen Übertragungsfunktion Hm entspricht.
  • Andererseits gibt in B von 8 die durch den Strichlinienrahmen FR umgebene Signalform eine Nachhallkomponente einer Kopfimpulsantwort Ip an, die der voreingestellten kopfbezogenen Übertragungsfunktion Hp entspricht.
  • Bei dem Beispiel von 8 hat die Nachhallkomponente der tatsächlich gemessenen Kopfimpulsantwort Im eine Signalformamplitude, die kleiner als die der voreingestellten Kopfimpulsantwort Ip ist. Das Größenordnungsverhältnis dieser Signalformamplituden unterscheidet sich je nach der Messumgebung unter Verwendung des Lautsprechers des Smartphones, und die Nachhallkomponente der tatsächlich gemessenen Kopfimpulsantwort Im kann eine Signalformamplitude haben, die größer als die der voreingestellten Kopfimpulsantwort Ip ist.
  • In der Nachhallkomponenten-Hinzufügungseinheit 162 wird die aus der Kopfimpulsantwort Ip abgetrennte Nachhallkomponente zur kopfbezogenen Übertragungsfunktion H aus der Syntheseeinheit 161 hinzugefügt. Die kopfbezogene Übertragungsfunktion H, der die Nachhallkomponente hinzugefügt wird, wird zur Faltung in der Ausgabeeinheit 57 verwendet.
  • Gemäß dem vorstehend beschriebenen Prozess kann selbst im Fall des Messens einer kopfbezogenen Übertragungsfunktion des Benutzers unter Verwendung eines Smartphones mit einem schmalen Wiedergabefrequenzband als Schallquelle eine kopfbezogene Übertragungsfunktion mit ausreichenden Eigenschaften erhalten werden. Das heißt, dass es möglich wird, ohne Verwendung umfangreicher Ausrüstungen problemlos eine Personalisierung der kopfbezogenen Übertragungsfunktionen in allen Frequenzbändern zu erreichen.
  • Da die Nachhallkomponente der Kopfimpulsantwort nicht von der Einzelperson abhängt, kann des Weiteren eine Personalisierung der kopfbezogenen Übertragungsfunktion selbst in einem Fall erreicht werden, bei dem die voreingestellte Kopfimpulsantwort zur tatsächlich gemessenen Kopfimpulsantwort hinzugefügt wird. Selbst im Fall des Messens einer kopfbezogenen Übertragungsfunktion bei ausgestreckten Armen des Benutzers kann darüber hinaus ein Entfernungssinn in einer Weise gesteuert werden, dass eine virtuelle Schallquelle, die sie klingen lässt, als sei ein Lautsprecher in einer Entfernung von mehreren Metern angeordnet, auf der Grundlage der Nachhalleigenschaften der voreingestellten Kopfimpulsantwort lokalisiert wird.
  • (Verwendung eines Mikrofons mit Störschallunterdrückung)
  • Bei der vorstehend beschriebenen Messung der kopfbezogenen Übertragungsfunktion kann ein handelsübliches Mikrofon mit Störschallunterdrückung (NC-Mikrofon) als Mikrofon verwendet werden, das im linken und rechten Ohr des Benutzers getragen werden soll.
  • 9 ist eine Grafik, die Eigenschaften einer kopfbezogenen Übertragungsfunktion Hn, die unter Verwendung eines Mikrofons mit Störschallunterdrückung gemessen wurde, und einer kopfbezogenen Übertragungsfunktion Hd veranschaulicht, die unter Verwendung eines Lautsprechers und eines Mikrofons gemessen wurde, die speziell zur Messung in einer idealen Messumgebung für denselben Hörer vorgesehen sind.
  • In der Figur ist der Verstärkungsfaktor der kopfbezogenen Übertragungsfunktion Hn im Frequenzband unter 1 kHz so gering wie der Verstärkungsfaktor des Smartphone-Lautsprechers in diesem Frequenzband.
  • Des Weiteren kann im Mittelfrequenzbereich (durch den Strichlinienrahmen FM umgebenes Frequenzband), in dem die Eigenschaften der tatsächlich gemessenen kopfbezogenen Übertragungsfunktion verwendet werden, ein Unterschied zwischen der kopfbezogenen Übertragungsfunktion Hd und der kopfbezogenen Übertragungsfunktion Hn vorliegen, wie durch die weißen Pfeile in der Figur angegeben.
  • Hinsichtlich des vorstehend Dargestellten werden derartige Unterschiedsdaten für jedes NC-Mikrofon im Voraus aufgezeichnet und als Korrekturbetrag für die Eigenschaften der tatsächlich gemessenen kopfbezogenen Übertragungsfunktion verwendet. Die auf den Unterschiedsdaten beruhende Korrektur wird beispielsweise durch die Korrektureinheit 112 durchgeführt. Mit dieser Anordnung können selbst bei Verwendung eines handelsüblichen NC-Mikrofons die Eigenschaften der tatsächlich gemessenen kopfbezogenen Übertragungsfunktion in die Nähe der Eigenschaften der kopfbezogenen Übertragungsfunktion gebracht werden, die in der idealen Messumgebung gemessen wird.
  • (Klangfarbenänderung)
  • Bei der vorliegenden Ausführungsform kann eine Klangfarbe eines stereofonen Schalls geändert werden, ohne die Lokalisierung des Schallabbilds einer virtuellen Schallquelle zu ändern.
  • 10 ist eine Darstellung, die eine beispielhafte Konfiguration der Ausgabeeinheit 57 (2) veranschaulicht.
  • Die Ausgabeeinheit 57 ist mit Filtern mit endlicher Impulsantwort (FIR-Filtern)(FIR = finite impulse response) 181L und 181R bereitgestellt.
  • Das FIR-Filter 181L faltet in Bezug auf die Audiosignale von der Audioeingabeeinheit 56 (2) eine kopfbezogene Übertragungsfunktion HL für das linke Ohr der kopfbezogenen Übertragungsfunktion H von der Syntheseeinheit 55, wodurch Audiosignale SL für das linke Ohr ausgegeben werden.
  • Ebenso faltet das FIR-Filter 181R in Bezug auf die Audiosignale von der Audioeingabeeinheit 56 eine kopfbezogene Übertragungsfunktion HR für das rechte Ohr der kopfbezogenen Übertragungsfunktion H von der Syntheseeinheit 55, wodurch Audiosignale SR für das linke Ohr ausgegeben werden.
  • Zu beachten ist, dass die Ausgabeeinheit 57 mit den in 10 veranschaulichten Konfigurationen der Anzahl virtueller Schallquellen bereitgestellt ist, die lokalisiert werden sollen, und die Audiosignale SL und SR aus dieser Konfiguration hinzugefügt und synthetisiert werden, um ausgegeben zu werden.
  • Da die FIR-Filter 181L und 181R Linearphaseneigenschaften haben, ist es möglich, die Frequenzeigenschaften zu ändern und gleichzeitig die Phaseneigenschaften beizubehalten. Wie in 11 veranschaulicht, können beispielsweise durch Anwenden der FIR-Filter 181L und 181R auf eine Impulsantwort 190 die Frequenzeigenschaften auf Eigenschaften 191 oder Eigenschaften 192 festgelegt werden.
  • Infolgedessen kann die Klangfarbe des stereofonen Schalls in eine Klangfarbe eines weiteren Schallfelds geändert werden, ohne die Lokalisierung des personalisierten Schallabbilds zu ändern.
  • <Zweite Ausführungsform>
  • (Konfiguration des mobilen Endgeräts)
  • 12 ist eine Darstellung, die eine beispielhafte Konfiguration eines mobilen Endgeräts 1 gemäß einer zweiten Ausführungsform der Technik der vorliegenden Offenbarung veranschaulicht.
  • Das mobile Endgerät 1 von 12 hat eine Konfiguration, die der des mobilen Endgeräts 1 von 4 mit der Ausnahme ähnelt, dass eine Schätzeinheit 211 und ein Entzerrer 212 in einer vorderen Stufe eines Bandpassfilters 111 bereitgestellt sind.
  • Die Schätzeinheit 211 schätzt aus einer tatsächlich gemessenen kopfbezogenen Übertragungsfunktion Hm, die in einer vorgegebenen Richtung gemessen wurde, eine kopfbezogenen Übertragungsfunktion in einer weiteren Richtung. Die tatsächlich gemessene kopfbezogene Übertragungsfunktion und die geschätzte kopfbezogene Übertragungsfunktion werden dem Entzerrer 212 zugeführt.
  • Der Entzerrer 212 passt die Frequenzeigenschaften der kopfbezogenen Übertragungsfunktion aus der Schätzeinheit 211 an und gibt sie zum Bandpassfilter 111 aus.
  • (Prozess des Erzeugens einer kopfbezogenen Übertragungsfunktion)
  • 13 ist ein Flussdiagramm, das den Prozess des Erzeugens der kopfbezogenen Übertragungsfunktion veranschaulicht, der durch das mobile Endgerät 1 von 12 durchgeführt wird.
  • In Schritt S21 misst die Messeinheit 51 (2) die kopfbezogene Übertragungsfunktion in Frontalrichtung eines Benutzers durch Verwenden eines Smartphones (mobiles Endgerät 1) als Schallquelle. Bei diesem Beispiel wird die kopfbezogene Übertragungsfunktion Hm gemessen, während der Benutzer das mobile Endgerät 1 vor sich hält und seine/ihre Arme ausstreckt.
  • In Schritt S22 schätzt die Schätzeinheit 211 aus der in Frontalrichtung gemessenen kopfbezogenen Übertragungsfunktion Hm eine kopfbezogene Übertragungsfunktion in Horizontalrichtung des Benutzers.
  • Im Folgenden wird die Schätzung der kopfbezogenen Übertragungsfunktion in Horizontalrichtung ausführlich beschrieben.
  • Zunächst werden wie in A von 14 veranschaulicht kopfbezogene Übertragungsfunktionen des linken und rechten Ohrs als CL und CR definiert, die durch Anordnen eines Smartphones SP in Richtung vor einem Benutzer U gemessen wurden.
  • Als Nächstes werden wie in B von 14 veranschaulicht kopfbezogene Übertragungsfunktionen des linken und rechten Ohrs, bei denen es sich um Schätzsymmetrie handeln muss, in der Richtung von 30° nach links von der Frontalrichtung des Benutzers U als LL und LR definiert. Ebenso werden wie in C von 14 veranschaulicht kopfbezogene Übertragungsfunktionen des linken und rechten Ohrs, bei denen es sich um Schätzsymmetrie handeln muss, in der Richtung von 30° nach rechts von der Frontalrichtung des Benutzers U als RL und RR definiert.
  • Diese vier Eigenschaften LL, LR, RL und RR werden geschätzt und gleichzeitig gemäß der Entfernung zwischen dem Benutzer U und dem Lautsprecher des Smartphones SP in die sonnenseitigen Eigenschaften und die schattenseitigen Eigenschaften klassifiziert. Insbesondere sind LL und RR Eigenschaften auf der Seite, die vom Lautsprecher aus gesehen dem Benutzer U näher ist (Sonnenseite), und werden daher als sonnenseitige Eigenschaften klassifiziert. Des Weiteren sind LR und RL Eigenschaften auf der vom Benutzer U aus gesehenen vom Lautsprecher aus gesehenen Seite (Schattenseite) hinter dem Lautsprecher und werden daher als schattenseitige Eigenschaften klassifiziert.
  • Da die sonnenseitigen Eigenschaften eine größere direkte Komponente haben, bei der sich Schall aus dem Lautsprecher direkt zum Ohr ausbreitet, ist der Verstärkungsfaktor im Mittelfrequenzbereich bis zum Hochfrequenzbereich größer als der der Eigenschaften, die durch die Messung in Frontalrichtung erhalten werden.
  • Andererseits breitet sich bei den schattenseitigen Eigenschaften der Schall vom Lautsprecher um den Kopf herum aus, wodurch der Verstärkungsfaktor im Hochfrequenzbereich im Vergleich zu den Eigenschaften gedämpft wird, die durch die Messung in Frontalrichtung erhalten werden.
  • Des Weiteren besteht wegen des Unterschieds bei der Entfernung vom Lautsprecher zum linken und rechten Ohr ein interauraler Zeitunterschied.
  • Unter Berücksichtigung der vorstehenden physikalischen Übertragungseigenschaften werden die Korrekturelemente für die Eigenschaften CL und CR in Frontalrichtung als folgende zwei Elemente festgelegt.
    • (1) Korrektur des Verstärkungsfaktors, der die Schallverstärkung im Mittelfrequenzbereich bis zum Hochfrequenzbereich und die Schalldämpfung auf der Schattenseite des Kopfs wiedergibt, die durch die Bewegung der Schallquelle in Horizontalrichtung verursacht werden
    • (2) Korrektur der Verzögerung im Zusammenhang mit der Entfernungsänderung von der Schallquelle, die durch die Bewegung der Schallquelle in Horizontalrichtung verursacht wird
  • 15 ist eine Grafik, die Frequenzeigenschaften eines Schätzfilters veranschaulicht, der die Korrektur der beiden Elemente realisiert, die vorstehend in Bezug auf die Eigenschaften CL und CR in Frontalrichtung erwähnt wurden.
  • A von 15 veranschaulicht ein sonnenseitiges Schätzfilter zum Schätzen sonnenseitiger Eigenschaften. Im sonnenseitigen Schätzfilter nimmt der Verstärkungsfaktor im Mittelfrequenzbereich und Hochfrequenzbereich zu.
  • Andererseits veranschaulicht B von 15 ein schattenseitiges Schätzfilter zum Schätzen schattenseitiger Eigenschaften. Im schattenseitigen Schätzfilter wird der Verstärkungsfaktor im Mittelfrequenzbereich und Hochfrequenzbereich weitgehend gedämpft.
  • Hierbei werden unter der Annahme, dass die Impulsantwort des sonnenseitigen Schätzfilters filti (t) ist, die sonnenseitigen Eigenschaften LL und RR wie folgt geschätzt.
  • LL  ( t ) = filti  ( t ) * CL  ( t )
    Figure DE112019004139T5_0001
    RR  ( t ) = filti  ( t ) * CR  ( t )
    Figure DE112019004139T5_0002
  • Zu beachten ist, dass „*“ Faltung angibt.
  • Des Weiteren werden unter der Annahme, dass die Impulsantwort des schattenseitigen Schätzfilters filtc (t) ist, die schattenseitigen Eigenschaften RL und LR wie folgt geschätzt.
  • RL  ( t ) = filtc  ( t ) * CL  ( t )
    Figure DE112019004139T5_0003
    LR  ( t ) = filtc  ( t ) * CR  ( t )
    Figure DE112019004139T5_0004
  • Die wie vorstehend beschrieben geschätzten Frequenzeigenschaften der kopfbezogenen Übertragungsfunktionen in Horizontalrichtung werden durch den Entzerrer 212 zusammen mit der kopfbezogenen Übertragungsfunktion in der Frontalrichtung angepasst. Zu beachten ist, dass im Voraus vorbereitete voreingestellte Eigenschaften verwendet werden können, da einzelpersonenabhängige Eigenschaften wahrscheinlich nicht in den schattenseitigen Eigenschaften auftreten.
  • In Schritt S23 extrahiert das Bandpassfilter 111 Mittelfrequenzbereichseigenschaften aus den gemessenen/geschätzten kopfbezogenen Übertragungsfunktionen. Die Frequenzeigenschaften der extrahierten kopfbezogenen Mittelfrequenzbereichs-Übertragungsfunktion werden durch einen Entzerrer 113 angepasst, nachdem die Eigenschaften eines Lautsprechers 18 durch eine Korrektureinheit 112 entfernt wurden.
  • Zu beachten ist, dass die Verarbeitung von Schritt S24 und der anschließenden Schritte der Verarbeitung von Schritt S13 und der anschließenden Schritte im Flussdiagramm von 5 ähnelt und deren Beschreibungen daher weggelassen werden.
  • Gemäß dem vorstehend beschriebenen Prozess kann selbst im Fall des Messens einer kopfbezogenen Übertragungsfunktion des Benutzers unter Verwendung eines Smartphones mit einem schmalen Wiedergabefrequenzband als Schallquelle eine kopfbezogene Übertragungsfunktion mit ausreichenden Eigenschaften erhalten werden. Das heißt, dass es möglich wird, ohne Verwendung umfangreicher Ausrüstungen problemlos eine Personalisierung der kopfbezogenen Übertragungsfunktionen in allen Frequenzbändern zu erreichen.
  • Insbesondere wird bei der vorliegenden Ausführungsform die kopfbezogene Übertragungsfunktion in Horizontalrichtung aus der kopfbezogenen Übertragungsfunktion in Frontalrichtung des Benutzers geschätzt, wodurch eine Personalisierung der kopfbezogenen Übertragungsfunktionen zum Lokalisieren mehrerer virtueller Schallquellen auf der Grundlage lediglich einer einmaligen Messung der kopfbezogenen Übertragungsfunktion erreicht werden kann.
  • <Dritte Ausführungsform>
  • Im Folgenden wird ein Beispiel des Schätzens einer kopfbezogenen Übertragungsfunktion für eine Sagittalebene aus einer kopfbezogenen Übertragungsfunktion für eine Medianebene eines Benutzers beschrieben.
  • 16 ist ein Flussdiagramm, das einen weiteren beispielhaften Prozess des Erzeugens einer kopfbezogenen Übertragungsfunktion durch das mobile Endgerät 1 von 12 veranschaulicht.
  • In Schritt S31 misst die Messeinheit 51 (2) eine kopfbezogene Übertragungsfunktion für die Medianebene des Benutzers durch Verwenden eines Smartphones (mobiles Endgerät 1) als Schallquelle.
  • Beispielsweise ordnet ein Benutzer U wie in A von 17 veranschaulicht ein Smartphone SP in einer Medianebene 351 an, wodurch eine kopfbezogene Übertragungsfunktion gemessen wird. Bei dem Beispiel von 17 werden kopfbezogene Übertragungsfunktionen in drei Richtungen gemessen, unter anderem frontal, diagonal oberhalb und diagonal unterhalb des Benutzers innerhalb der Medianebene 351.
  • In Schritt S32 schätzt eine Schätzeinheit 211 aus der gemessenen kopfbezogenen Übertragungsfunktion der Medianebene kopfbezogene Übertragungsfunktionen der linken und rechten Sagittalebene des Benutzers.
  • Beispielsweise werden wie in B von 17 veranschaulicht in dem Raum, in dem der Benutzer U vorhanden ist, eine kopfbezogene Übertragungsfunktion für eine Sagittalebene 352L parallel zur Medianebene 351 auf der linken Seite des Benutzers U und eine kopfbezogene Übertragungsfunktion für eine Sagittalebene 352R parallel zur Medianebene 351 auf der rechten Seite des Benutzers U geschätzt.
  • Die Schätzung der kopfbezogenen Übertragungsfunktionen wird hierbei beispielsweise erreicht, indem unter Verwendung des vorstehend beschriebenen sonnenseitigen Schätzfilters und schattenseitigen Schätzfilters die jeweiligen kopfbezogenen Übertragungsfunktionen in drei Richtungen korrigiert werden, unter anderem frontal, diagonal oberhalb und diagonal unterhalb des Benutzers innerhalb der Medianebene 351.
  • Die Frequenzeigenschaften der geschätzten kopfbezogenen Übertragungsfunktionen der Sagittalebenen werden durch einen Entzerrer 212 zusammen mit der kopfbezogenen Übertragungsfunktion der Medianebene angepasst.
  • Zu beachten ist, dass die Verarbeitung von Schritt S33 und der anschließenden Schritte der Verarbeitung von Schritt S23 und der anschließenden Schritte im Flussdiagramm von 13 ähnelt und deren Beschreibungen daher weggelassen werden.
  • Gemäß dem vorstehend beschriebenen Prozess kann selbst im Fall des Messens einer kopfbezogenen Übertragungsfunktion des Benutzers unter Verwendung eines Smartphones mit einem schmalen Wiedergabefrequenzband als Schallquelle eine kopfbezogene Übertragungsfunktion mit ausreichenden Eigenschaften erhalten werden. Das heißt, dass es möglich wird, ohne Verwendung umfangreicher Ausrüstungen problemlos eine Personalisierung der kopfbezogenen Übertragungsfunktionen in allen Frequenzbändern zu erreichen.
  • Insbesondere wird bei der vorliegenden Ausführungsform die kopfbezogene Übertragungsfunktion in einer optionalen Richtung um den Benutzer geschätzt, wodurch eine Personalisierung der kopfbezogenen Übertragungsfunktion zum Lokalisieren einer virtuellen Schallquelle in einer durch den Benutzer gewünschten Richtung erreicht werden kann.
  • <Sonstige>
  • (Beispiele anderer Schallquellen)
  • Obwohl in der vorstehenden Beschreibung ein Smartphone mit einem Lautsprecher als Schallquelle zum Wiedergeben von Messschallwellen verwendet wird, kann eine andere Vorrichtung als diese verwendet werden. Beispielsweise kann es sich bei der Schallquelle zum Wiedergeben der Messschallwellen um einen Fernsehempfänger mit einem Lautsprecher und einer Anzeige handeln. Ein Fernsehempfänger ist in der Lage, eine Wiedergabe lediglich bis zu einem Frequenzband von ca. 200 Hz durchzuführen, und sein Wiedergabefrequenzband ist nicht so breit wie das eines Smartphones.
  • Gemäß der Technik der vorliegenden Offenbarung kann selbst im Fall des Messens einer kopfbezogenen Übertragungsfunktion des Benutzers unter Verwendung eines Fernsehempfängers mit einem schmalen Wiedergabefrequenzband als Schallquelle eine kopfbezogene Übertragungsfunktion mit ausreichenden Eigenschaften erhalten werden.
  • (Anwendung auf das Cloud-Computing)
  • Eine Signalverarbeitungsvorrichtung, auf die die Technik gemäß der vorliegenden Offenbarung angewendet wird, kann eine Konfiguration des Cloud-Computing nutzen, bei der eine Funktion durch eine Vielzahl von Vorrichtungen über ein Netzwerk gemeinsam genutzt und verarbeitet werden kann.
  • Des Weiteren kann jeder in dem Flussdiagramm beschriebene Schritt, das vorstehend beschrieben ist, durch eine Vorrichtung ausgeführt oder durch eine Vielzahl von Vorrichtungen gemeinsam genutzt werden.
  • Darüber hinaus kann in einem Fall, bei dem eine Vielzahl von Prozessen in einem Schritt enthalten ist, die in dem einen Schritt enthaltene Vielzahl von Prozessen durch eine Vorrichtung ausgeführt oder durch eine Vielzahl von Vorrichtungen gemeinsam genutzt werden.
  • Beispielsweise kann die HRTF-Datenbank 53 von 2 in einem Server oder dergleichen (das als Cloud bezeichnet wird) bereitgestellt sein, um über ein Netzwerk wie zum Beispiel das Internet verbunden zu werden.
  • Des Weiteren können alle im mobilen Endgerät 1 von 2 enthaltenen Funktionen in der Cloud bereitgestellt sein. In diesem Fall überträgt das mobile Endgerät 1 nur Audiosignale der erfassten Messschallwellen zur Cloud und empfängt und gibt Audiosignale wieder, um den stereofonen Schall aus der Cloud wiederzugeben.
  • (Verarbeitungsausführung durch ein Programm)
  • Die vorstehend beschriebene der Verarbeitungsabfolge kann durch Hardware oder durch Software ausgeführt werden. Im Falle des Ausführens der Verarbeitungsabfolge durch Software wird ein in Software enthaltenes Programm von einem Programmspeichermedium auf einem Computer installiert, das in zweckgebundene Hardware, in einen Mehrzweck-Personalcomputer oder dergleichen integriert ist.
  • 18 ist ein Blockschema, das eine beispielhafte Hardwarekonfiguration eines Computers veranschaulicht, der unter Verwendung eines Programms die vorstehend beschriebene Verarbeitungsabfolge ausführt.
  • Das vorstehend beschriebene mobile Endgerät 1 ist durch einen Computer aufgebaut, der die in 18 veranschaulichte Konfiguration hat.
  • Eine Zentraleinheit (central processing unit, CPU) 1001, ein Nur-Lese-Speicher (read-only memory, ROM) 1002 und ein Direktzugriffsspeicher (random access memory, RAM) 1003 sind durch einen Bus 1004 untereinander verbunden.
  • Ferner ist eine Eingabe-/Ausgabe-Schnittstelle 1005 mit dem Bus 1004 verbunden. Eine Eingabeeinheit 1006, die eine Tastatur, eine Maus und dergleichen beinhaltet, und eine Ausgabeeinheit 1007, die eine Anzeige, einen Lautsprecher und dergleichen beinhaltet, sind mit der Eingabe-/Ausgabe-Schnittstelle 1005 verbunden. Des Weiteren sind ein Speicher 1008, der eine Festplatte aufweist, ein nichtflüchtiger Speicher und dergleichen, eine Kommunikationseinheit 1009, die eine Netzwerkschnittstelle und dergleichen aufweist, und ein Laufwerk 1010 zum Antreiben eines Wechselmediums 1011 mit der Eingabe-/Ausgabe-Schnittstelle 1005 verbunden.
  • Bei dem Computer, der wie vorstehend beschrieben konfiguriert ist, lädt beispielsweise die CPU 1001 das im Speicher 1008 gespeicherte Programm über die Eingabe-/Ausgabe-Schnittstelle 1005 und den Bus 1004 in den RAM 1003 und für das Programm aus, wodurch die vorstehend beschriebene Verarbeitungsabfolge durchgeführt wird.
  • Das durch die CPU 1001 auszuführende Programm wird beispielsweise durch das Wechselmedium 1011 bereitgestellt, auf dem das Programm aufgezeichnet ist, oder über ein drahtgebundenes oder drahtloses Übertragungsmedium wie zum Beispiel ein lokales Netzwerk, das Internet und einen digitalen Rundsendevorgang (broadcast) bereitgestellt und im Speicher 1008 installiert.
  • Zu beachten ist, dass es sich bei dem durch den Computer auszuführenden Programm um ein Programm handeln kann, in dem die Verarbeitung in einer zeitreihenartigen Weise gemäß der in der vorliegenden Beschreibung beschriebenen Reihenfolge ausgeführt wird, oder es sich um ein Programm handeln kann, in dem die Verarbeitung parallel oder in einem notwendigen Zeitablauf wie zum Beispiel Aufrufen durchgeführt wird.
  • Zu beachten ist, dass die Ausführung der vorliegenden Offenbarung nicht auf die vorstehend beschriebenen Ausführungsformen beschränkt ist und verschiedene Modifikationen vorgenommen werden können, ohne vom Hauptinhalt der vorliegenden Offenbarung abzuweichen.
  • Des Weiteren handelt es sich bei den hierin beschriebenen Auswirkungen lediglich um nicht darauf beschränkte Beispiele, wobei zusätzliche Auswirkungen enthalten sein können.
  • Darüber hinaus kann die vorliegende Offenbarung die folgenden Konfigurationen nutzen.
  • (1) Eine Signalverarbeitungsvorrichtung, aufweisend:
    • eine Syntheseeinheit, die eine dritte kopfbezogene Übertragungsfunktion erzeugt, indem eine Eigenschaft eines ersten Frequenzbands, die aus einer ersten kopfbezogenen Übertragungsfunktion eines Benutzers extrahiert wurde, und eine Eigenschaft eines gegenüber dem ersten Frequenzband unterschiedlichen zweiten Frequenzbands synthetisiert werden, die aus einer zweiten kopfbezogenen Übertragungsfunktion extrahiert wurde, die in einer zweiten Messumgebung gemessen wurde, die sich von einer ersten Messumgebung unterscheidet, in der die erste kopfbezogene Übertragungsfunktion gemessen wurde.
  • (2) Die Signalverarbeitungsvorrichtung gemäß (1), bei der das erste Frequenzband ein Frequenzband von einer ersten Frequenz bis zu einer zweiten Frequenz aufweist, und
    das zweite Frequenzband ein niedrigeres Frequenzband als die erste Frequenz und ein höheres Frequenzband als die zweite Frequenz aufweist.
  • (3) Die Signalverarbeitungsvorrichtung gemäß (1), bei der
    das erste Frequenzband ein höheres Frequenzband als eine erste Frequenz aufweist, und
    das zweite Frequenzband ein niedrigeres Frequenzband als die erste Frequenz aufweist.
  • (4) Die Signalverarbeitungsvorrichtung gemäß einem aus (1) bis (3), bei der
    die erste kopfbezogene Übertragungsfunktion Daten aufweist, die unter Verwendung einer durch den Benutzer angeordneten Schallquelle tatsächlich gemessen wurden, und
    die zweite kopfbezogene Übertragungsfunktion voreingestellte Daten aufweist, die im Voraus in einer idealen Messumgebung gemessen wurden.
  • (5) Die Signalverarbeitungsvorrichtung gemäß (4), bei der
    das erste Frequenzband ein Frequenzband aufweist, das eine einzelpersonenabhängige Eigenschaft aufweist.
  • (6) Die Signalverarbeitungsvorrichtung gemäß (4)oder (5), bei der
    das zweite Frequenzband ein Frequenzband aufweist, in dem die Schallquelle nicht wiedergegeben werden kann.
  • (7) Die Signalverarbeitungsvorrichtung gemäß einem aus (4) bis (6), bei der
    die Schallquelle eine Vorrichtung aufweist, die einen Lautsprecher aufweist.
  • (8) Die Signalverarbeitungsvorrichtung gemäß (7), bei der
    die Vorrichtung ferner eine Anzeige aufweist.
  • (9) Die Signalverarbeitungsvorrichtung gemäß (8), bei der
    die Vorrichtung ein Smartphone aufweist.
  • (10) Die Signalverarbeitungsvorrichtung gemäß (8), bei der
    die Vorrichtung einen Fernsehempfänger aufweist.
  • (11) Die Signalverarbeitungsvorrichtung gemäß einem aus (4) bis (10), ferner aufweisend:
    • eine Korrektureinheit, die die Eigenschaft des ersten Frequenzbands korrigiert, um eine Eigenschaft der Schallquelle zu entfernen, die in der Eigenschaft des ersten Frequenzbands enthalten ist, die aus der ersten kopfbezogenen Übertragungsfunktion extrahiert wurde.
  • (12) Die Signalverarbeitungsvorrichtung gemäß einem aus (1) bis (11), ferner aufweisend:
    • eine Hinzufügungseinheit, die eine Nachhallkomponente, die aus einer der zweiten kopfbezogenen Übertragungsfunktion entsprechenden Kopfimpulsantwort abgetrennt wurde, zur dritten kopfbezogenen Übertragungsfunktion hinzufügt.
  • (13) Ein Signalverarbeitungsverfahren, das aufweist, eine Signalverarbeitungsvorrichtung zu veranlassen, Folgendes durchzuführen:
    • Erzeugen einer dritten kopfbezogenen Übertragungsfunktion, indem eine Eigenschaft eines ersten Frequenzbands, die aus einer ersten kopfbezogenen Übertragungsfunktion eines Benutzers extrahiert wurde, und eine Eigenschaft eines gegenüber dem ersten Frequenzband unterschiedlichen zweiten Frequenzbands synthetisiert werden, die aus einer zweiten kopfbezogenen Übertragungsfunktion extrahiert wurde, die in einer zweiten Messumgebung gemessen wurde, die sich von einer ersten Messumgebung unterscheidet, in der die erste kopfbezogene Übertragungsfunktion gemessen wurde.
  • (14) Ein Programm, das einen Computer veranlasst, Folgendes durchzuführen:
    • Erzeugen einer dritten kopfbezogenen Übertragungsfunktion, indem eine Eigenschaft eines ersten Frequenzbands, die aus einer ersten kopfbezogenen Übertragungsfunktion eines Benutzers extrahiert wurde, und eine Eigenschaft eines gegenüber dem ersten Frequenzband unterschiedlichen zweiten Frequenzbands synthetisiert werden, die aus einer zweiten kopfbezogenen Übertragungsfunktion extrahiert wurde, die in einer zweiten Messumgebung gemessen wurde, die sich von einer ersten Messumgebung unterscheidet, in der die erste kopfbezogene Übertragungsfunktion gemessen wurde.
  • Bezugszeichenliste
  • 1
    Mobiles Endgerät
    51
    Messeinheit
    52
    Frequenzbandextraktionseinheit
    53
    HRTF-Datenbank
    54
    Frequenzbandextraktionseinheit
    55
    Syntheseeinheit
    56
    Audioeingabeeinheit
    57
    Ausgabeeinheit
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2009260574 [0006]

Claims (14)

  1. Signalverarbeitungsvorrichtung, umfassend: eine Syntheseeinheit, die eine dritte kopfbezogene Übertragungsfunktion erzeugt, indem eine Eigenschaft eines ersten Frequenzbands, die aus einer ersten kopfbezogenen Übertragungsfunktion eines Benutzers extrahiert wurde, und eine Eigenschaft eines gegenüber dem ersten Frequenzband unterschiedlichen zweiten Frequenzbands synthetisiert werden, die aus einer zweiten kopfbezogenen Übertragungsfunktion extrahiert wurde, die in einer zweiten Messumgebung gemessen wurde, die sich von einer ersten Messumgebung unterscheidet, in der die erste kopfbezogene Übertragungsfunktion gemessen wurde.
  2. Signalverarbeitungsvorrichtung nach Anspruch 1, wobei das erste Frequenzband ein Frequenzband von einer ersten Frequenz bis zu einer zweiten Frequenz aufweist, und das zweite Frequenzband ein niedrigeres Frequenzband als die erste Frequenz und ein höheres Frequenzband als die zweite Frequenz aufweist.
  3. Signalverarbeitungsvorrichtung nach Anspruch 1, wobei das erste Frequenzband ein höheres Frequenzband als eine erste Frequenz aufweist, und das zweite Frequenzband ein niedrigeres Frequenzband als die erste Frequenz aufweist.
  4. Signalverarbeitungsvorrichtung nach Anspruch 1, wobei die erste kopfbezogene Übertragungsfunktion Daten aufweist, die unter Verwendung einer durch den Benutzer angeordneten Schallquelle tatsächlich gemessen wurden, und die zweite kopfbezogene Übertragungsfunktion voreingestellte Daten aufweist, die im Voraus in einer idealen Messumgebung gemessen wurden.
  5. Signalverarbeitungsvorrichtung nach Anspruch 4, wobei das erste Frequenzband ein Frequenzband aufweist, das eine einzelpersonenabhängige Eigenschaft aufweist.
  6. Signalverarbeitungsvorrichtung nach Anspruch 4, wobei das zweite Frequenzband ein Frequenzband aufweist, in dem die Schallquelle nicht wiedergegeben werden kann.
  7. Signalverarbeitungsvorrichtung nach Anspruch 4, wobei die Schallquelle eine Vorrichtung aufweist, die einen Lautsprecher aufweist.
  8. Signalverarbeitungsvorrichtung nach Anspruch 7, wobei die Vorrichtung ferner eine Anzeige aufweist.
  9. Signalverarbeitungsvorrichtung nach Anspruch 8, wobei die Vorrichtung ein Smartphone aufweist.
  10. Signalverarbeitungsvorrichtung nach Anspruch 8, wobei die Vorrichtung einen Fernsehempfänger aufweist.
  11. Signalverarbeitungsvorrichtung nach Anspruch 4, ferner umfassend: eine Korrektureinheit, die die Eigenschaft des ersten Frequenzbands korrigiert, um eine Eigenschaft der Schallquelle zu entfernen, die in der Eigenschaft des ersten Frequenzbands enthalten ist, die aus der ersten kopfbezogenen Übertragungsfunktion extrahiert wurde.
  12. Signalverarbeitungsvorrichtung nach Anspruch 1, ferner umfassend: eine Hinzufügungseinheit, die eine Nachhallkomponente, die aus einer der zweiten kopfbezogenen Übertragungsfunktion entsprechenden Kopfimpulsantwort abgetrennt wurde, zur dritten kopfbezogenen Übertragungsfunktion hinzufügt.
  13. Signalverarbeitungsverfahren, das aufweist, eine Signalverarbeitungsvorrichtung zu veranlassen, Folgendes durchzuführen: Erzeugen einer dritten kopfbezogenen Übertragungsfunktion, indem eine Eigenschaft eines ersten Frequenzbands, die aus einer ersten kopfbezogenen Übertragungsfunktion eines Benutzers extrahiert wurde, und eine Eigenschaft eines gegenüber dem ersten Frequenzband unterschiedlichen zweiten Frequenzbands synthetisiert werden, die aus einer zweiten kopfbezogenen Übertragungsfunktion extrahiert wurde, die in einer zweiten Messumgebung gemessen wurde, die sich von einer ersten Messumgebung unterscheidet, in der die erste kopfbezogene Übertragungsfunktion gemessen wurde.
  14. Programm, das einen Computer veranlasst, Folgendes durchzuführen: Erzeugen einer dritten kopfbezogenen Übertragungsfunktion, indem eine Eigenschaft eines ersten Frequenzbands, die aus einer ersten kopfbezogenen Übertragungsfunktion eines Benutzers extrahiert wurde, und eine Eigenschaft eines gegenüber dem ersten Frequenzband unterschiedlichen zweiten Frequenzbands synthetisiert werden, die aus einer zweiten kopfbezogenen Übertragungsfunktion extrahiert wurde, die in einer zweiten Messumgebung gemessen wurde, die sich von einer ersten Messumgebung unterscheidet, in der die erste kopfbezogene Übertragungsfunktion gemessen wurde.
DE112019004139.8T 2018-08-17 2019-08-02 Signalverarbeitungsvorrichtung, signalverarbeitungsverfahren und programm Pending DE112019004139T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018153658 2018-08-17
JP2018-153658 2018-08-17
PCT/JP2019/030413 WO2020036077A1 (ja) 2018-08-17 2019-08-02 信号処理装置、信号処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
DE112019004139T5 true DE112019004139T5 (de) 2021-05-06

Family

ID=69525513

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112019004139.8T Pending DE112019004139T5 (de) 2018-08-17 2019-08-02 Signalverarbeitungsvorrichtung, signalverarbeitungsverfahren und programm

Country Status (5)

Country Link
US (1) US11743671B2 (de)
JP (1) JP7384162B2 (de)
CN (1) CN112567766B (de)
DE (1) DE112019004139T5 (de)
WO (1) WO2020036077A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2584152B (en) * 2019-05-24 2024-02-21 Sony Interactive Entertainment Inc Method and system for generating an HRTF for a user
JP2021131433A (ja) * 2020-02-19 2021-09-09 ヤマハ株式会社 音信号処理方法および音信号処理装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7116787B2 (en) * 2001-05-04 2006-10-03 Agere Systems Inc. Perceptual synthesis of auditory scenes
US20050147261A1 (en) * 2003-12-30 2005-07-07 Chiang Yeh Head relational transfer function virtualizer
KR100754220B1 (ko) 2006-03-07 2007-09-03 삼성전자주식회사 Mpeg 서라운드를 위한 바이노럴 디코더 및 그 디코딩방법
JP2009260574A (ja) 2008-04-15 2009-11-05 Sony Ericsson Mobilecommunications Japan Inc 音声信号処理装置、音声信号処理方法及び音声信号処理装置を備えた携帯端末
JP2012004668A (ja) * 2010-06-14 2012-01-05 Sony Corp 頭部伝達関数生成装置、頭部伝達関数生成方法及び音声信号処理装置
US9426589B2 (en) * 2013-07-04 2016-08-23 Gn Resound A/S Determination of individual HRTFs
JP2015211418A (ja) * 2014-04-30 2015-11-24 ソニー株式会社 音響信号処理装置、音響信号処理方法、および、プログラム
WO2016089180A1 (ko) 2014-12-04 2016-06-09 가우디오디오랩 주식회사 바이노럴 렌더링을 위한 오디오 신호 처리 장치 및 방법
CN107113524B (zh) * 2014-12-04 2020-01-03 高迪音频实验室公司 反映个人特性的双耳音频信号处理方法和设备
JP6565709B2 (ja) * 2016-01-26 2019-08-28 株式会社Jvcケンウッド 音像定位処理装置、及び音像定位処理方法
JP6732464B2 (ja) * 2016-02-12 2020-07-29 キヤノン株式会社 情報処理装置および情報処理方法

Also Published As

Publication number Publication date
JPWO2020036077A1 (ja) 2021-08-10
JP7384162B2 (ja) 2023-11-21
US20210297802A1 (en) 2021-09-23
US11743671B2 (en) 2023-08-29
CN112567766B (zh) 2022-10-28
WO2020036077A1 (ja) 2020-02-20
CN112567766A (zh) 2021-03-26

Similar Documents

Publication Publication Date Title
DE69726262T2 (de) Tonaufnahme- und -wiedergabesysteme
DE69433258T2 (de) Raumklangsignalverarbeitungsvorrichtung
DE10351793B4 (de) Adaptive Filtervorrichtung und Verfahren zum Verarbeiten eines akustischen Eingangssignals
DE60304358T2 (de) Verfahren zur verarbeitung von audiodateien und erfassungsvorrichtung zur anwendung davon
DE69819090T2 (de) Kompensationsfilter
DE2806914C2 (de) Tonwiedergabesystem
DE602005005186T2 (de) Verfahren und system zur schallquellen-trennung
DE19715498B4 (de) Stereoklangbildverbesserungsvorrichtungen und -verfahren unter Verwendung von Tabellen
DE102014210215A1 (de) Ermittlung und Nutzung hörraumoptimierter Übertragungsfunktionen
DE112019004139T5 (de) Signalverarbeitungsvorrichtung, signalverarbeitungsverfahren und programm
DE102008004674A1 (de) Signalaufnahme mit variabler Richtcharakteristik
DE102021103210A1 (de) Surround-Sound-Wiedergabe basierend auf Raumakustik
EP0825800A2 (de) Verfahren und Vorrichtung zum Generieren eines Mehrton-Signals aus einem Mono-Signal
DE202017106383U1 (de) Fühlbare Basswiedergabe
EP1471770B1 (de) Verfahren zur Erzeugung einer angenäherten Teilübertragungsfunktion
DE19645867A1 (de) Verfahren zur mehrkanaligen Tonübertragung
DE112017004664T5 (de) Batterieloses Headset mit Rauschunterdrückung
DE112019001916T5 (de) Audioverarbeitungsvorrichtung, audioverarbeitungsverfahren und programm
DE112021003592T5 (de) Informationsverarbeitungsvorrichtung, Ausgabesteuerverfahren und Programm
DE102013203596A1 (de) Mikrofon und Verfahren zur Modellbildung von Mikrofoneigenschaften
KR20200130506A (ko) 대향하는 트랜스오럴 라우드스피커 시스템에서의 크로스토크 소거
DE112006002548T5 (de) Vorrichtung und Verfahren zur Wiedergabe von virtuellem Zweikanal-Ton
DE102011003450A1 (de) Erzeugung von benutzerangepassten Signalverarbeitungsparametern
DE112019006727T5 (de) Audiosystem, audiowiedergabeeinrichtung, servereinrichtung, audiowiedergabeverfahren und audiowiedergabeprogramm
DE112019002337T5 (de) Architektur für Dynamikbearbeitungseffekte