JP2023092962A - オーディオ信号出力方法、オーディオ信号出力装置及びオーディオシステム - Google Patents

オーディオ信号出力方法、オーディオ信号出力装置及びオーディオシステム Download PDF

Info

Publication number
JP2023092962A
JP2023092962A JP2021208285A JP2021208285A JP2023092962A JP 2023092962 A JP2023092962 A JP 2023092962A JP 2021208285 A JP2021208285 A JP 2021208285A JP 2021208285 A JP2021208285 A JP 2021208285A JP 2023092962 A JP2023092962 A JP 2023092962A
Authority
JP
Japan
Prior art keywords
audio signal
speaker
channel
audio
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021208285A
Other languages
English (en)
Inventor
明彦 須山
Akihiko Suyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2021208285A priority Critical patent/JP2023092962A/ja
Priority to US18/058,947 priority patent/US20230199426A1/en
Publication of JP2023092962A publication Critical patent/JP2023092962A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • H04S7/304For headphones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/033Headphones for stereophonic communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/006Systems employing more than two channels, e.g. quadraphonic in which a plurality of audio signals are transformed in a combination of audio signals and modulated signals, e.g. CD-4 systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2205/00Details of stereophonic arrangements covered by H04R5/00 but not provided for in any of its subgroups
    • H04R2205/024Positioning of loudspeaker enclosures for spatial sound reproduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/03Connection circuits to selectively connect loudspeakers or headphones to amplifiers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/05Generation or adaptation of centre channel in multi-channel audio systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Stereophonic System (AREA)

Abstract

【課題】イヤホン使用時に、リスナにとって音像が定位し難い方向の音像定位を向上させるオーディオ信号出力方法を提供する。【解決手段】オーディオ信号出力方法は、複数のチャンネルのそれぞれに対応するオーディオ信号を含むオーディオデータを取得し、複数のチャンネルのそれぞれに対応するオーディオ信号に、各チャンネルで定められた位置に音像を定位させる頭部伝達関数を付与し、頭部伝達関数が付与された複数チャンネルのそれぞれに対応するオーディオ信号を、イヤホンに出力し、オーディオデータに含まれる複数のオーディオ信号のうち、リスナの前方から頭頂の位置に対応するチャンネルのオーディオ信号を、スピーカに出力する。【選択図】図8

Description

この発明の一実施形態は、オーディオ信号を出力する、オーディオ信号出力方法、オーディオ信号出力装置及びオーディオシステムに関する。
従来、複数のスピーカを用いて、所定の位置に音源の音像を定位させる音像定位処理を行うオーディオ信号処理装置があった(例えば、特許文献1を参照)。このような、オーディオ信号処理装置は、オーディオ信号に所定のゲイン及び所定の遅延時間を付与して、複数のスピーカに分配することで、音像定位処理を行っていた。音像定位処理は、イヤホンにも使用されていた。イヤホンでは、頭部伝達関数を用いた音像定位処理が行われていた。
国際公開第2020/195568号
イヤホン使用時において、リスナにとって、音像が定位し難い方向があり、音像定位の向上が望まれていた。
本発明の一実施形態は、イヤホン使用時に、リスナにとって音像が定位し難い方向の音像定位を向上させるオーディオ信号出力方法を提供することを目的とする。
本発明の一実施形態に係るオーディオ信号出力方法は、複数のチャンネルのそれぞれに対応するオーディオ信号を含むオーディオデータを取得し、前記複数のチャンネルのそれぞれに対応するオーディオ信号に、各チャンネルで定められた位置に音像を定位させる頭部伝達関数を付与し、前記頭部伝達関数が付与されたオーディオ信号を、イヤホンに出力し、前記オーディオデータに含まれる複数のオーディオ信号のうち、リスナの頭頂方向から前方の位置に対応するチャンネルのオーディオ信号を、スピーカに出力する。
本発明の一実施形態によれば、イヤホン使用時に、リスナにとって音像が定位し難い方向の音像定位を向上させることができる。
オーディオシステムの主要な構成の一例を示すブロック図である。 鉛直方向から観て、ユーザを中心に仮想スピーカの位置を示す模式図である。 携帯端末の主要な構成の一例を示すブロック構成図である。 ヘッドホンの主要な構成の一例を示すブロック構成図である。 オーディオシステムが使用される空間の一例を示す模式図である。 ヘッドホン使用時における音像定位が難しい領域を示す模式図である。 スピーカの主要な構成の一例を示すブロック構成図である。 オーディオシステムにおける携帯端末の動作を示すフローチャートである。 実施形態2の携帯端末の主要な構成の一例を示すブロック構成図である。 実施形態2の携帯端末の動作を示すフローチャートである。 実施形態3における、ヘッドホンの主要な構成を示すブロック構成図である。 実施形態4の携帯端末の主要な構成を示すブロック構成図である。 変形例1の携帯端末の主要な構成を示すブロック構成図である。 変形例2の携帯端末の主要な構成を示すブロック構成図である。 変形例3のオーディオシステムが使用される空間を示す模式図である。 変形例4のオーディオシステムであって、ユーザとスピーカとを鉛直方向から見た(平面視した)説明図である。 変形例5のオーディオシステムが使用される空間を示す模式図である。
[実施形態1]
以下、実施形態1に係るオーディオシステム100について図を参照して説明する。図1は、オーディオシステム100の構成の一例を示すブロック図である。図2は、鉛直方向から観て、ユーザ5を中心に仮想スピーカの位置を示す模式図である。図2において、紙面の左右方向に一点鎖線で表される方向を左右方向X2とする。また、図2において、紙面の上下方向に一点鎖線で表される方向を前後方向Y2とする。図3は、携帯端末1の構成の一例を示すブロック構成図である。図4は、ヘッドホン2の主要な構成の一例を示すブロック構成図である。図5は、オーディオシステム100が使用される空間4の一例を示す模式図である。図5において、紙面の左右方向に実線で表される方向を前後方向Y1とする。また、図5において、紙面の上下方向に実線で表される方向を鉛直方向Z1とする。さらに、図5において、前後方向Y1と鉛直方向Z1とに直交する実線の示す方向を左右方向X1とする。図6は、ヘッドホン2使用時における音像定位が難しい領域A1を示す模式図である。図6において、紙面の左右方向に一点鎖線で表される方向を前後方向Y2とする。また、図6において、紙面の上下方向に一点鎖線で表される方向を鉛直方向Z2とする。さらに、図6において、前後方向Y2と鉛直方向Z2とに直交する一点鎖線の示す方向を左右方向X2とする。図7は、スピーカ3の主要な構成を示すブロック構成図である。図8は、オーディオシステム100における携帯端末1の動作を示すフローチャートである。
オーディオシステム100は、図1に示すように、携帯端末1と、ヘッドホン2と、スピーカ3とを備えている。この例でいう、携帯端末1は、本願発明のオーディオ信号出力装置の一例である。また、この例でいう、ヘッドホン2は、本願発明のイヤホンの一例である。なお、イヤホンは、外耳道に挿入して用いるインイヤー型に限らず、図1に示すようなヘッドバンドを有するオーバーヘッド型(ヘッドホン)を含む。
オーディオシステム100は、ユーザ5によって選択されたコンテンツを再生する。本実施形態において、コンテンツは、例えば、オーディオコンテンツである。コンテンツは、映像データを含んでいてもよい。本実施形態では、オーディオデータは、複数のチャンネルのそれぞれに対応するオーディオ信号を含む。本実施形態では、オーディオデータは、例えば5チャンネル(Lチャンネル、Rチャンネル。センタCチャンネル、リアLチャンネル及びリアRチャンネル)のそれぞれに対応するオーディオ信号を含む。この例でいう、ユーザ5は、本願発明でいうリスナに対応する。ユーザ5は、オーディオシステム100に関する操作を行う。
オーディオシステム100は、コンテンツに含まれるオーディオデータに基づいて、音をヘッドホン2から出力する。オーディオシステム100において、ユーザ5は、ヘッドホン2を装着する。ユーザ5は、携帯端末1を操作してコンテンツの選択及び再生を指示する。携帯端末1は、例えば、ユーザ5からコンテンツを再生するコンテンツ再生操作を受け付けた場合、オーディオデータに含まれるオーディオ信号を再生する。携帯端末1は、再生した複数のオーディオ信号をヘッドホン2に送信する。ヘッドホン2は、受信したオーディオ信号に基づいて、放音する。
携帯端末1は、複数のチャンネルのそれぞれに対応するオーディオ信号に対して音像定位処理を行う。音像定位処理とは、例えば、頭部伝達関数を使用して仮想的なスピーカ(以下、単に仮想スピーカと称す)の位置を設定し、音が、あたかも仮想スピーカの位置から到達したかのように、音像を定位させる処理である。携帯端末1は、予め記憶部(例えば図2に示すフラッシュメモリ13)に頭部伝達関数を記憶している。頭部伝達関数は、仮想スピーカの位置からユーザ5の頭部(具体的には、ユーザ5の左耳、右耳)に至るまでの伝達関数である。
頭部伝達関数に関してより詳細に説明する。本実施形態において、設定される仮想スピーカの位置は、図2に示すように、ユーザ5から所定の距離、例えば1mで離間し、かつ5チャンネル(Lチャンネル、Rチャンネル、センタCチャンネル、リアLチャンネル及びリアRチャンネル)のそれぞれと一対一に対応している。詳細には、Lチャンネルに対応する仮想スピーカは、仮想スピーカFLである。さらに、Rチャンネルに対応する仮想スピーカは仮想スピーカFRである。センタCチャンネルに対応する仮想スピーカは、仮想スピーカCである。また、リアLチャンネルに対応する仮想スピーカは、仮想スピーカRLである。さらに、リアRチャンネルに対応する仮想スピーカは、仮想スピーカRRである。また、仮想スピーカCは、ユーザ5の正面(前方)方向に位置する。仮想スピーカCの位置する該正面方向が0度である。さらに仮想スピーカFRの方向は30度、仮想スピーカRRの方向は135度、仮想スピーカRLの方向は-135度、仮想スピーカFLの方向は-30度である。
仮想スピーカFL、仮想スピーカFR、仮想スピーカC、仮想スピーカRL、及び仮想スピーカRRのそれぞれの位置からユーザ5の頭部に至る頭部伝達関数は、各仮想スピーカFL、仮想スピーカFR、仮想スピーカC、仮想スピーカRL及び仮想スピーカRRの位置から右耳に至るものと、左耳に至るものと2つある。携帯端末1は、各仮想スピーカFL、仮想スピーカFR、仮想スピーカC、仮想スピーカRL及び仮想スピーカRRに対応する頭部伝達関数を読み出して、各チャンネルのオーディオ信号に右耳に至る頭部伝達関数及び左耳に至る頭部伝達関数を別々に畳み込む。携帯端末1は、右耳に至る頭部伝達関数を畳み込んだ各チャンネルのオーディオ信号をR(右)チャンネルに対応するオーディオ信号としてヘッドホン2に送信する。また、携帯端末1は、左耳に至る頭部伝達関数を畳み込んだ各チャンネルのオーディオ信号をL(左)チャンネルのオーディオ信号としてヘッドホン2に送信する。
ヘッドホン2は、受信したオーディオ信号に基づいて、放音する。
携帯端末1の構成について、図3を参照して説明する。携帯端末1は、図3に示すように、表示器11と、ユーザインタフェース(I/F)12と、フラッシュメモリ13と、RAM14と、通信部15と、制御部16と、を備えている。
表示器11は、制御部16の制御に従って種々の情報を表示する。表示器11は、例えば、LCDによって構成される。表示器11は、ユーザI/F12の一態様であるタッチパネルを積層し、ユーザ5の操作を受け付けるためのGUI(グラフィカルユーザインタフェース)画面を表示する。表示器11は、例えば、スピーカ設定画面、コンテンツ再生画面及びコンテンツ選択画面など、を表示する。
ユーザI/F12は、ユーザ5によるタッチパネルの操作を受け付ける。ユーザI/F12は、例えば、表示器11に表示されたコンテンツ選択画面から、コンテンツを選択するコンテンツ選択操作を受け付ける。また、ユーザI/F12は、例えば、表示器11に表示されたコンテンツ再生画面から、コンテンツ再生操作を受け付ける。
通信部15は、例えば、Wi-Fi(登録商標)、Bluetooth(登録商標)等の規格に準じた無線通信I/Fを含む。また、通信部15は、USB等の規格に準じた有線通信I/Fを含む。通信部15は、例えば、無線通信で、ステレオチャンネルに対応するオーディオ信号をヘッドホン2に送信する。また、通信部15は、無線通信で、スピーカ3にオーディオ信号を送信する。
フラッシュメモリ13は、オーディオシステム100において、携帯端末1の動作に係るプログラムを記憶する。また、フラッシュメモリ13は、頭部伝達関数を記憶する。さらに、フラッシュメモリ13は、コンテンツを記憶する。
制御部16は、記憶媒体であるフラッシュメモリ13に記憶されているプログラムをRAM14に読み出して、種々の機能を実現する。種々の機能は、例えば、オーディオデータ取得処理、定位処理及びオーディオ信号制御処理を含む。より詳細には、制御部16は、オーディオデータ取得処理、定位処理及びオーディオ信号制御処理に関するプログラムをRAM14に読み出す。これにより、制御部16は、オーディオデータ取得部161と、定位処理部162と、オーディオ信号制御部163と、を構成する。
また、制御部16は、オーディオデータ取得処理、定位処理及びオーディオ信号制御処理を実行するプログラムを、例えば、サーバからダウンロードしてもよい。このようにして、制御部16は、オーディオデータ取得部161と、定位処理部162と、オーディオ信号制御部163と、を構成してもよい。
オーディオデータ取得部161は、例えば、ユーザI/F12からユーザ5によるコンテンツ選択操作を受け付けると、コンテンツに含まれるオーディオデータを取得する。オーディオデータは、Lチャンネル、Rチャンネル、センタCチャンネル、リアLチャンネル及びリアRチャンネルのそれぞれに対応するオーディオ信号を含む。
定位処理部162は、複数のチャンネルのそれぞれに対応するオーディオ信号に、各チャンネルで定められた位置に音像を定位させる頭部伝達関数を付与する。定位処理部162は、図2に示すように、頭部伝達関数を使用して、Lチャンネルの仮想スピーカFLをユーザ5の左前(-30度)に、センタCチャンネルの仮想スピーカCをユーザ5の正面(0度)に、Rチャンネルの仮想スピーカFRをユーザ5の右前(30度)に、リアLチャンネルの仮想スピーカRL(-135度)をユーザ5の左後ろに、及びリアRチャンネルの仮想スピーカRRをユーザ5の右後ろ(135度)に、音像を定位させる。定位処理部162は、フラッシュメモリ13から、各仮想スピーカ(仮想スピーカFL、仮想スピーカFR、仮想スピーカC、仮想スピーカRL及び仮想スピーカRR)に対応する頭部伝達関数に対応するものを読み出す。定位処理部162は、各仮想スピーカに対応する頭部伝達関数をそれぞれチャンネルのオーディオ信号に畳み込む。
すなわち、定位処理部162は、仮想スピーカFLに対応する頭部伝達関数を、Lチャンネルに対応するオーディオ信号に畳み込む。定位処理部162は、仮想スピーカFRに対応する頭部伝達関数を、Rチャンネルに対応するオーディオ信号に畳み込む。定位処理部162は、仮想スピーカCに対応する頭部伝達関数を、センタCチャンネルに対応するオーディオ信号に畳み込む。定位処理部162は、仮想スピーカRLに対応する頭部伝達関数を、リアLチャンネルに対応するオーディオ信号に畳み込む。定位処理部162は、仮想スピーカRRに対応する頭部伝達関数を、リアRチャンネルに対応するオーディオ信号に畳み込む。定位処理部162は、各仮想スピーカFL、FR、C、RL、RRの位置から左耳に至る頭部伝達関数を畳み込んだ、ステレオLチャンネルに対応するオーディオ信号と、各仮想スピーカFL、FR、C、RL、RRの位置から右耳に至る頭部伝達関数を畳み込んだ、ステレオRチャンネルに対応するオーディオ信号を生成する。
オーディオ信号制御部163は、定位処理部162によって音像定位処理が行われた、ステレオLチャンネルに対応するオーディオ信号及びステレオRチャンネルに対応するオーディオ信号を含むステレオ信号を、通信部15を介してヘッドホン2に出力する。
また、オーディオ信号制御部163は、オーディオデータに含まれる複数のオーディオ信号のうち、ユーザ5の頭頂方向から前方の位置に対応するチャンネルに対応するオーディオ信号を抽出する。さらに、オーディオ信号制御部163は、抽出したオーディオ信号を、スピーカ3に、通信部15を介して、送信する。ユーザ5の頭頂方向から前方の位置に対応するチャンネルについては後述する。
ヘッドホン2について、図4を参照して説明する。ヘッドホン2は、図4に示すように、通信部21と、フラッシュメモリ22と、RAM23と、ユーザインタフェース(I/F)24と、制御部25と、出力部26とを備えている。
ユーザI/F24は、ユーザ5からの操作を受け付ける。ユーザI/F24は、例えば、コンテンツ再生のオン/オフの切り替え操作、又は、音量レベルの調節操作を受け付ける。
通信部21は、携帯端末1から、オーディオ信号を受信する。また、通信部21は、ユーザI/F24で受け付けたユーザ操作に基づく信号を携帯端末1に送信する。
制御部25は、フラッシュメモリ22に記憶されている動作用プログラムをRAM23に読み出し、種々の機能を実行する。
出力部26は、スピーカユニット263Lと、スピーカユニット263Rとに接続される。出力部26は、信号処理が施されたオーディオ信号をスピーカユニット263L、スピーカユニット263Rに出力する。出力部26は、DAコンバータ(以下、DACと称す)261と、増幅器(以下、AMPと称す)262とを有している。DAC261は、信号処理が施されたデジタル信号をアナログ信号に変換する。AMP262は、スピーカユニット263L、スピーカユニット263Rを駆動するために該アナログ信号を増幅する。出力部26は、増幅されたアナログ信号(オーディオ信号)をスピーカユニット263L、スピーカユニット263Rに出力する。
実施形態1のオーディオシステム100は、図5に示すように、例えば、空間4で使用される。空間4は、例えば、リビングルームである。ユーザ5は、空間4の中央付近でヘッドホン2を介してコンテンツを聴いている。
ところで、ヘッドホン2の使用時において、頭部伝達関数を用いた音像定位を行う際、音像が定位し難いときがある。例えば、ヘッドホン使用時において、仮想スピーカの位置が図6に示すように、ユーザ5の頭頂方向から前方に係る領域A1に含まれている場合、音像が定位し難くなる。特に、ユーザ5は、仮想スピーカの位置が領域A1に存在する場合仮想スピーカとの「前方定位」または「距離感」が得られない場合がある。音像定位は、視覚にも影響する。頭部伝達関数による音像定位は仮想的な定位であるため、携帯端末1は、ユーザ5の領域A1に仮想スピーカを実際に見ることができない。従って、ユーザ5は、仮想スピーカの位置が領域A1に存在するときでも、領域A1に存在する仮想スピーカの音像を知覚できず、ヘッドホン(頭部)2の位置に知覚する場合がある。
これに対して、本実施形態のオーディオシステム100は、ユーザ5の前方にあるスピーカに音を放音させる。例えば、ユーザ5は、図5に示すように、部屋の前方(前後方向Y1の前)を向いてコンテンツを視聴している。空間4の前方(前後方向Y1の前)かつ左右方向X1の中心には、スピーカ3が配置されている。言い換えると、スピーカ3は、ユーザ5の正面に配置されている。この例において、携帯端末1は、ユーザ5の頭頂方向から前方の位置に対応するチャンネルをセンタCチャンネルとする。さらに、携帯端末1は、ユーザ5の正面にあるスピーカ3を、センタCチャンネルに係る音を放音するスピーカとして決定する。携帯端末1は、センタCチャンネルに対応するオーディオ信号をスピーカ3に送信する。
スピーカ3は、ユーザ5の前方の離れた位置から実際にセンタCチャンネルに係る音を放音する。これによって、ユーザ5は、当該センタCチャンネルに係る音像を前方の離れた位置に知覚することができる。従って、本実施形態のオーディオシステム100は、頭部伝達関数では得られない「前方定位」および「距離感」をスピーカ3で補うことで、定位感を向上させることができる。
スピーカ3について、図7を参照して説明する。スピーカ3は、図7に示すように、表示器31と、通信部32と、フラッシュメモリ33と、RAM34と、制御部35と、信号処理部36と、出力部37と、を備えている。
表示器31は、複数のLED又はLCDからなる。表示器31は、例えば、携帯端末1と接続されているかどうかの状態を表示する。また、表示器31は、例えば、再生中のコンテンツ情報を表示してもよい。この場合、スピーカ3は、携帯端末1から、コンテンツに含まれるコンテンツ情報を受信する。
通信部32は、例えば、Wi-Fi(登録商標)、Bluetooth(登録商標)等の規格に準じた無線通信I/Fを含む。通信部32は、携帯端末1から、無線通信で、センタCチャンネルに対応するオーディオ信号を受信する。
制御部35は、記憶媒体であるフラッシュメモリ33に記憶されているプログラムをRAM34に読み出して、種々の機能を実現する。制御部35は、通信部32を介して受信したオーディオ信号を信号処理部36に入力する。
信号処理部36は、1乃至複数のDSPからなる。信号処理部36は、入力したオーディオ信号に種々の信号処理を施す。信号処理部36は、例えば、イコライザ処理等の信号処理をオーディオ信号に施す。
出力部37は、DAコンバータ(DAC)371、増幅器(AMP)372、及びスピーカユニット373を備えている。DAコンバータ371は、信号処理部36で信号処理された、オーディオ信号をアナログ信号に変換する。増幅器372は、アナログ信号を増幅する。スピーカユニット373は、増幅されたアナログ信号をスピーカユニット373から放音する。なお、スピーカユニット373は、別体でもよい。
オーディオシステム100における携帯端末1の動作について、図8を参照して説明する。
携帯端末1は、オーディオデータを取得すると(S11:Yes)、オーディオデータに含まれるオーディオ信号のうち、センタCチャンネルに対応するオーディオ信号があるかどうか判定する(S12)。携帯端末1は、センタCチャンネルに対応するオーディオ信号がある場合(S12:Yes)、センタCチャンネルに対応するオーディオ信号をスピーカ3に送信する(S13)。携帯端末1は、各チャンネルに対応するオーディオ信号に頭部伝達関数を使用して音像定位処理を行う(S14)。携帯端末1は、音像定位処理が行われたオーディオ信号をヘッドホン2に送信する(S15)。
スピーカ3は、携帯端末1から送信されたオーディオ信号を受信する。スピーカ3は、受信したオーディオ信号に基づいて放音する。
携帯端末1は、携帯端末1は、センタCチャンネルに対応するオーディオ信号がない場合(S12:No)、処理を音像定位処理(S14)に移す。
ヘッドホン2は、携帯端末1から送信されたオーディオ信号を受信する。ヘッドホン2は、受信したオーディオ信号に基づいて放音する。
携帯端末1は、ユーザ5がヘッドホン2を使用しているときに、仮想スピーカの音像定位が難しいときがある。この場合、定位感を補うために、ユーザ5の前方に位置するスピーカ(この例ではスピーカ3)に、センタCチャンネルに対応するオーディオ信号を送信する。これにより、ヘッドホン2だけでは音像が定位し難い場合でも、スピーカ3が、センタCチャンネルに対応するオーディオ信号に基づいて放音することで、定位感を補うことができる。携帯端末1は、ヘッドホン2使用時に、ユーザ5にとって音像が定位し難い方向の音像定位を向上させることができる。
なお、上述の例では、スピーカ3にセンタCチャンネルに対応するオーディオ信号を送信する例で説明したが、Lチャンネル及びRチャンネルも、リスナの頭頂方向から前方の位置に対応するチャンネルの一例である。携帯端末1は、例えば、Lチャンネル又はRチャンネルに対応するオーディオ信号をスピーカ3に送信してもよい。また、ユーザ5の前方左側及び前方右側にスピーカが設置されている場合、携帯端末1は、Lチャンネルのオーディオ信号を前方左側のスピーカに送信し、Rチャンネルのオーディオ信号を前方右側のスピーカに送信する。
[実施形態2]
実施形態2でのオーディオシステム100は、携帯端末1Aによって、スピーカ3から方音される音の音量レベルを調節する。実施形態2について、図9及び図10を参照して説明する。図9は、実施形態2の携帯端末1Aの主要な構成の一例を示すブロック構成図である。図10は、実施形態2の携帯端末1Aの動作を示すフローチャートである。なお、実施形態1と同じ構成については、同じ符号を付し、詳細な説明は省略する。
携帯端末1Aは、スピーカ3から放音される音の音量レベルを制御する。携帯端末1Aは、図9に示すように、音量レベル調節部164をさらに備える。音量レベル調節部164は、頭頂方向から前方の位置に対応するチャンネルである、センタCチャンネルに対応するオーディオ信号を受信するスピーカ3から放音される音の音量レベルを調節する。音量レベル調節部164は、スピーカ3に送信するオーディオ信号の音量レベルを調節し、音量レベルを調節したオーディオ信号を、通信部15を介してスピーカ3に送信する。
例えば、実施形態1の例では、スピーカ3からセンタCチャンネルに係る音が放音される。この場合、センタCチャンネルに係る音が、ヘッドホン2及びスピーカ3の両方から放音されるので、センタCチャンネルに係る音の音量レベルは、センタCチャンネル以外のチャンネルに係る音の音量レベルよりも相対的に大きくなってしまうことがある。
そこで、携帯端末1Aは、ユーザ5からの操作に基づいて、スピーカ3に送信するオーディオ信号の音量レベルを調節する。この場合、ユーザ5は、コンテンツを再生する前、又は再生中において、携帯端末1AのユーザI/F12を介して、受け付けた操作に基づいて、スピーカ3に送信するオーディオ信号の音量レベルを調節する。そして、携帯端末1Aは、音量レベルを調節したオーディオ信号をスピーカ3に送信する。スピーカ3は、音量レベルが調節されたオーディオ信号を受信する。
携帯端末1Aによる、音量レベルの調節の動作の一例について、図10を参照して説明する。携帯端末1Aは、ユーザI/F12を介して、音量レベル調節操作を受け付けると(S21:Yes)、音量レベル調節操作に基づいて、スピーカ3に送信するオーディオ信号の音量レベルを調節する(S22)。携帯端末1Aは、音量レベルを調節したオーディオ信号をスピーカ3に送信する(S23)。
このように、実施形態2の携帯端末1Aは、スピーカ3から放音される音の音量レベルをユーザ5からの操作に基づいて調節する。これにより、ユーザ5は、センタCチャンネルに係る音がセンタCチャンネル以外のチャンネルに係る音よりも大き過ぎると感じる場合には、スピーカ3の音の音量レベルを下げることで、違和感無くコンテンツを聴くことができる。なお、ユーザ5は、ヘッドホン2使用時において、定位感が弱いと感じた場合に、スピーカ3の音の音量レベルを上げることで、音像定位を向上させることもできる。
なお、音量レベル調節部164は、音量レベルを示す音量レベル情報を生成し、該音量レベル情報を、通信部15を介してスピーカ3に送信してもよい。より具体的には、音量レベル調節部164は、受け付けた音量レベル調節操作に応じて、スピーカ3から放音される音の音量を調節するための音量レベル情報を、スピーカ3に送信する。スピーカ3は、受信した音量レベル情報に基づいて、放音する音の音量レベルを調節する。
[実施形態3]
実施形態3のオーディオシステム100は、ヘッドホン2Aに設置したマイクを介して外部音を取得する。ヘッドホン2Aは、取得した外部音をスピーカユニット263L及びスピーカユニット263Rから出力する。実施形態3について、図11を参照して説明する。図11は、実施形態3における、ヘッドホン2Aの主要な構成を示すブロック構成図である。なお、実施形態1と同じ構成については、同じ符号を付し、詳細な説明は省略する。
ヘッドホン2Aは、図11に示すように、マイク27L及びマイク27Rを備えている。
マイク27L及びマイク27Rが外部音を収音する。マイク27Lは、例えば、ユーザ5の左耳に装着されるヘッドユニットに設けられている。また、マイク27Rは、例えば、ユーザ5の右耳に装着されるヘッドユニットに設けられている。
ヘッドホン2Aは、例えば、スピーカ3から音が放音されると、マイク27L及びマイク27Rがオンになる。すなわち、ヘッドホン2Aは、例えば、スピーカ3から音が放音されると、マイク27L及びマイク27Rが外部音を収音する。
ヘッドホン2Aは、マイク27L及びマイク27Rが収音した音信号を信号処理部28によってフィルタリングする。ヘッドホン2Aは、収音信号をそのままスピーカユニット263L及びスピーカユニット263Rから放音せず、収音信号と実際の外部音との音質の違いを補正するフィルタ係数でフィルタリングを行う。より具体的には、ヘッドホン2Aは、収音した音をデジタル変換し、信号処理を施す。ヘッドホン2Aは、信号処理を施した音信号をアナログ信号に変換して、スピーカユニット263L及びスピーカユニット263Rから放音する。
このようにして、ヘッドホン2Aは、信号処理が施された音信号を、ユーザ5にとって外部音を直接聴いた場合と同じような音質になるように調節する。これにより、ユーザ5は、外部音を、ヘッドホン2Aを介さずに直接聴いているような感覚で聴くことができる。
実施形態3のオーディオシステム100において、携帯端末1は、ユーザ5の頭頂方向から前方の位置に対応するチャンネルであるセンタCチャンネルに対応するオーディオ信号をスピーカ3に送信する。スピーカ3は、オーディオ信号に基づいて、放音する。ヘッドホン2Aは、マイク27L及びマイク27Rによってスピーカ3が放音した音を収音する。ヘッドホン2Aは、収音した音に基づくオーディオ信号に信号処理を施して、スピーカユニット263L及び263Rから放音する。ユーザ5は、あたかもヘッドホン2Aを装着していないかのように、外部音を聞くことができる。これにより、ユーザ5は、スピーカ3から放音された音を知覚し、仮想スピーカとの距離間をより強く認識することができる。従って、オーディオシステム100は、より音像定位を向上することができる。
なお、実施形態3のヘッドホン2Aは、外部音を収音したタイミングで、センタCチャンネルに対応するオーディオ信号を停止(音量レベルを0レベルに調節)してもよい。この場合、ヘッドホン2Aは、センタCチャンネル以外のチャンネルに係る音のみを放音する。
また、マイク27L及びマイク27Rがスピーカ3からの音を収音しない場合、マイク27L及びマイク27Rは、オフの状態であってもよい。
また、マイク27L及びマイク27Rは、スピーカ3から音が放音されていない場合であっても、外部の音を収音するように、オン状態に設定されていてもよい。この場合、ヘッドホン2Aは、ノイズキャンセリング機能を使用して、外部からのノイズを抑制することができる。ノイズキャンセリング機能とは、収音した音(ノイズ)と逆位相の音を生成して、オーディオ信号に基づく音と共に放音することである。ヘッドホン2Aは、ノイズキャンセリング機能がオンの状態であって、かつ、スピーカ3から音が放音されたときには、ノイズキャンセリング機能をオフにする。より詳細には、ヘッドホン2Aは、マイク27L及びマイク27Rから収音した音が、スピーカ3から放音された音であるか否かを判定する。ヘッドホン2Aは、収音した音がスピーカ3から放音された音であった場合、ノイズキャンセリング機能をオフにして、収音した音に信号処理を施して、放音する。
[実施形態4]
実施形態4のオーディオシステム100では、スピーカ位置情報に基づいて、ヘッドホン2に出力するオーディオ信号の出力タイミングを調節する。実施形態4の携帯端末1Bについて、図12を参照して説明する。図12は、実施形態4の携帯端末1Bの主要な構成を示すブロック構成図である。なお、実施形態1と同じ構成については、同じ符号を付し、詳細な説明は省略する。
スピーカ3から放音される音と、ヘッドホン2から放音される音とのタイミングが異なる場合がある。具体的には、ヘッドホン2は、ユーザ5の耳に装着されて、音が直接耳に放音される。これに対し、スピーカ3はユーザ5との間に空間があり、スピーカ3から放音される音は、空間4を介してユーザ5の耳に届く。このように、スピーカ3から放音される音は、ヘッドホン2から放音される音よりも、遅延してユーザ5の耳に届く。携帯端末1Bは、スピーカ3から放音される音と、ヘッドホン2から放音される音とのタイミングを合わせるために、例えば、ヘッドホン2から放音されるタイミングを遅らせる。
携帯端末1Bは、図12に示すように、信号処理部17を備えている。信号処理部17は、1乃至複数のDSPで構成されている。この例では、携帯端末1Bは、リスニングポジションとスピーカ3の配置場所を記憶している。携帯端末1Bは、例えば、空間4を模した画面を表示する。携帯端末1Bは、リスニングポジションと、スピーカ3との遅延時間を算出する。例えば、携帯端末1Bは、スピーカ3からのテスト音を放音するように、指示信号をスピーカ3に送信する。携帯端末1Bは、スピーカ3からテスト音を受信することで、指示信号を送信した時間とテスト音を受信した時間との差異に基づいて、スピーカ3の遅延時間を算出する。信号処理部17は、リスニングポジションとスピーカ3との遅延時間に応じて、ヘッドホン2に送信するオーディオ信号に遅延処理を施す。
実施形態4の携帯端末1Bは、ヘッドホン2に送信するオーディオ信号に遅延処理を施すことで、スピーカ3から放音される音と、ヘッドホン2から放音される音との到達タイミングを調節する。これにより、ユーザ5は、スピーカ3から放音された音と、ヘッドホン2から放音された音とを同じタイミングで聴くので、同じ音のずれがなく、音質の低下を抑制することができる。従って、センタCチャンネルに係る音がスピーカ3から放音された場合でも、違和感無くコンテンツを聴くことができる。
[変形例1]
変形例1の携帯端末1Cは、センタCチャンネルに対応するセンタスピーカを決定する操作を、ユーザI/F12を介して、受け付ける。また、携帯端末1は、該操作に基づいて、センタCチャンネルに係る音を放音するセンタスピーカを決定する。変形例1の携帯端末1Cについて、図13を参照して説明する。図13は、変形例1の携帯端末1Cの主要な構成を示すブロック構成図である。なお、実施形態1と同じ構成については、同じ符号を付し、詳細な説明は省略する。
携帯端末1Cは、スピーカ決定部165を、備える。携帯端末1Cは、予め各スピーカの位置(例えば、座標)を記憶している。スピーカ決定部165は、ユーザ5からの操作に基づいて、センタスピーカを決定する。スピーカ決定部165は、例えば、表示器11に、空間4を模した画面を表示する。この場合、画面には、携帯端末1Cに接続されているスピーカ及び該スピーカの位置が表示されている。スピーカ決定部165は、例えばユーザ5によってスピーカが選択されることによって、センタCチャンネルに係る音を放音するスピーカを変更する。なお、携帯端末1Cに接続されているスピーカは、PC及び携帯に付属するスピーカも含む。
これにより、ユーザ5はセンタCチャンネルに係る音を放音させたいスピーカを、携帯端末1を使用して自由に選択することができる。
なお、携帯端末1は、自端末と接続されている全てのスピーカのリストを表示させてもよい。
[変形例2]
変形例2の携帯端末1Dは、ユーザ5の向く方向であるセンタ方向を検出し、検出したセンタ方向に基づいてオーディオ信号を送信するスピーカを決定する。変形例2の携帯端末1Dについて図14を参照して説明する。図14は、変形例2の携帯端末の主要な構成を示すブロック構成図である。携帯端末1Dは、図14に示すように、センタ方向検出部166を備えている。センタ方向検出部166は、ユーザ5のセンタ方向に係るセンタ方向情報を、ヘッドホン2から受信し、受信したセンタ方向情報に基づいて、センタCチャンネルに対応するオーディオ信号を送信するスピーカを決定する。
携帯端末1Dは、ユーザ5のセンタ方向を、ヘッドトラッキング機能を使用して検出する。ヘッドトラッキング機能は、ヘッドホン2が有する機能である。ヘッドホン2は、装着しているユーザ5の頭部の動きを追跡する。
センタ方向検出部166は、ユーザ5の操作に基づいて、基準となる方向を決定する。センタ方向検出部166は、例えば、ユーザ5からの操作によって、スピーカ3の方向を受け付けて記憶しておく。例えば、センタ方向検出部166は、表示器11に「センタリセット」と記載されたアイコンを表示し、ユーザ5からの操作を受け付ける。ユーザ5は、スピーカ3の方向を向いている時に当該アイコンをタップする。センタ方向検出部166は、タップされた時点のセンタ方向にスピーカ3が設置されているとみなして、スピーカ3の方向(基準方向)を記憶する。この場合、携帯端末1Dは、スピーカ3をセンタCチャンネルに対応するスピーカとして決定する。なお、携帯端末1Dは、起動時に「センタリセット」の操作を受け付けたものとみなしてもよいし、本実施形態に示すプログラムの起動時に「センタリセット」の操作を受け付けたものとみなしてもよい。
ヘッドホン2は、加速度センサ、ジャイロセンサ等の複数のセンサを備えている。ヘッドホン2は、例えば、加速度センサ又はジャイロセンサを使用して、ユーザ5の頭部の向きを検出する。ヘッドホン2は、加速度センサ又はジャイロセンサの出力値からユーザ5の頭部が動いた変化量を算出する。ヘッドホン2は、算出したデータを携帯端末1に送信する。センタ方向検出部166は、上述の基準方向を基準として、変化した頭部の角度を算出する。センタ方向検出部166は、算出した角度に基づいて、センタ方向を検出する。センタ方向検出部166は、一定の間隔で、頭部の向きが変化した角度を算出し、算出した時点で利用者が向いている方向をセンタ方向としてもよい。
携帯端末1Dは、センタCチャンネル対応するスピーカ(この例では、スピーカ3)にオーディオ信号を送信する。ユーザ5の頭部の向きが平面視して右に30度変化した場合、スピーカ3は、ユーザ5の左30度の方向に存在することになる。この場合、携帯端末1Dは、Lチャンネルに対応するオーディオ信号をスピーカ3に送信してもよい。また、ユーザ5の頭部の向きが平面視して左30度変化した場合、スピーカ3は、ユーザ5の右30度の方向に存在することになる。この場合、携帯端末1Dは、Rチャンネルに対応するオーディオ信号をスピーカ3に送信してもよい。
また、携帯端末1Dは、例えば、ユーザ5がスピーカ3に向かって「センタリセット」を押した後に、ユーザ5が右に90度向くと、センタ方向が右90度になる。すなわち、スピーカ3は、ユーザ5の左横に位置することになる。この場合、携帯端末1Dは、ユーザ5の頭部の向きが平面視して90度以上変化した場合、スピーカ3へのオーディオ信号の送信を停止してもよい。
このように、ヘッドホン2のトラッキング機能を使用することで、携帯端末1Dは、ユーザ5のセンタ方向にスピーカが存在する場合にのみ、当該スピーカからセンタチャンネルに係る音を放音させることができる。従って、携帯端末1Dは、ユーザ5の頭部の向きに応じて適切にスピーカから音を放音させて、音像定位を向上させることができる。
[変形例3]
変形例3の携帯端末1及びスピーカとの相対的位置に係る検出方法について図15を参照して説明する。図15は、変形例3のオーディオシステム100Bが使用される空間4の一例を示す模式図である。変形例3のオーディオシステム100Bは、例えば、複数(5個)のスピーカを含んでいる。すなわち、空間4には、図15に示すように、スピーカSp1、スピーカSp2、スピーカSp3、スピーカSp4及びスピーカSp5が配置されている。
ユーザ5は、例えば、携帯端末1のマイクを使用してスピーカの位置を検出する。より具体的には、携帯端末1のマイクは、例えば、リスニングポジションに近接する3か所で、スピーカSp1から放音されるテスト音を収音する。携帯端末1は、3か所で収音したテスト音に基づいて、スピーカSp1の位置P1とリスニングポジションとの相対位置を算出する。携帯端末1は、3か所のそれぞれについて、テスト音の放音タイミングと該テスト音の収音タイミングとの時間差を算出する。携帯端末1は、算出した時間差に基づいてスピーカSp1とマイクとの距離を求める。携帯端末1はマイクとの距離を3か所それぞれで求め、三角関数(三角測量)の原理により、スピーカSp1の位置1とリスニングポジションとの相対位置を算出する。このように、スピーカSp2~スピーカSp5についても順次同様の方法で、リスニングポジションとの相対位置を算出する。
なお、ユーザ5は、マイクを3つ用意して同時に3か所でテスト音を収音させてもよい。また、リスニングポジションに近接する3か所のうち1箇所は、リスニングポジションであってもよい。
携帯端末1は、スピーカSp1、スピーカSp2、スピーカSp3、スピーカSp4及びスピーカSp5とリスニングポジションとの相対的位置を記憶部に記憶する。
このように、変形例3のオーディオシステム100Bでは、スピーカSp1、スピーカSp2、スピーカSp3、スピーカSp4及びスピーカSp5の位置を自動で検出することができる。
なお、リスニングポジションは、ユーザからの操作によって、設定されてもよい。この場合、例えば、携帯端末1は、空間4を示す模式画面を表示して、ユーザからの操作を受け付ける。
さらに、携帯端末1は、検出したスピーカSp1、スピーカSp2、スピーカSp3、スピーカSp4及びスピーカSp5の位置に基づいて、各スピーカに対応するチャンネルを自動的に割り当てる。この場合、携帯端末1は、例えば、センタ方向が空間4の前後方向Y1の前方かつ左右方向X1の中心に設定されていれば、以下のように、検出した各スピーカにチャンネルを割り当てる。携帯端末1は、例えば、スピーカSp1にLチャンネルを、スピーカSp2にセンタCチャンネルを、スピーカSp3にRチャンネルを、スピーカSp4にリアLチャンネルを、スピーカSp5にリアRチャンネルを割り当てる。
また、携帯端末1は、ユーザ5のセンタ方向が複数のスピーカの間を向いている場合、ユーザ5のセンタ方向を挟んで設置されている2つのスピーカのそれぞれに対応するオーディオ信号に対してセンタCチャンネルの音信号を所定のゲイン比で分配するパンニング処理を行い、ユーザ5のセンタ方向にファントム定位する仮想スピーカを設定してもよい。例えば、ユーザ5のセンタ方向がスピーカSp4とスピーカSp5との間を向いている場合、携帯端末1は、スピーカSp4及びスピーカSp5にセンタCチャンネルに対応するオーディオ信号を所定のゲイン比で分配するパンニング処理を行う。また、同様にして、Lチャンネルのオーディオ信号、あるいはRチャンネルのオーディオ信号に対してパンニング処理を行ってもよい。これにより、携帯端末1は、各チャンネルの方向に実在のスピーカが無い場合でも、複数のスピーカを用いたパンニング処理により、常に最適な方向に仮想スピーカを設定することで、常に適切なスピーカから各チャンネルの音を放音させて、音像定位を向上させることができる。
[変形例4]
変形例4のオーディオシステム100Bは、変形例2に記載のセンタ方向検出部166を備える携帯端末1D及びヘッドトラッキング機能と、変形例3のスピーカ位置の自動検出機能と組み合わせることで、自動的にセンタ方向のスピーカを決定する。変形例4のオーディオシステム100Bについて、図16を参照して説明する。図16は、変形例4のオーディオシステム100Bであって、ユーザ5とスピーカSp1、スピーカSp2、スピーカSp3、スピーカSp4及びスピーカSp5とを鉛直方向から見た(平面視した)説明図である。図16において、紙面の左右方向に一点鎖線で表される方向を左右方向X2とする。また、図16において、紙面の上下方向に一点鎖線で表される方向を前後方向Y2とする。さらに、図16において、紙面の左右方向に実線で表される方向を空間4の左右方向X1とする。また、図16において、紙面の上下方向に実線で表される方向を前後方向Y1とする。
図16は、ユーザ5が、空間4の前方(前後方向Y1の前、且つ左右方向X1の中央)を見ている状態から、後ろ右斜め方向(前後方向Y1の後ろ、且つ左右方向X1の右)を見るように、頭部の向きを変更した場合を示す。ユーザ5が向いている方向は、ヘッドトラッキング機能によって、検出することができる。ここで、携帯端末1Dは、リスニングポジションとの相対的位置(各スピーカの設置されている方向)を記憶している。例えば、携帯端末1Dは、スピーカSp2の設置方向を正面方向(0度)、スピーカSp3の設置方向を30度、スピーカSp5の設置方向を135度、スピーカSp1の設置方向を-30度、スピーカSp4の設置方向を-135度として記憶している。ユーザ5は、例えばスピーカSp2の方向を向いている時に「センタリセット」等のアイコンをタップする。これにより、携帯端末1Dは、スピーカSp2をセンタ方向のスピーカに決定する。この場合、携帯端末1Dは、スピーカSp1にLチャンネルに対応するオーディオ信号を送信する。また、携帯端末1Dは、スピーカSp3にRチャンネルに対応するオーディオ信号を送信する。
携帯端末1Dは、スピーカSp1、スピーカSp2、スピーカSp3、スピーカSp4及びスピーカSp5のうち、ユーザ5のセンタ方向のスピーカを自動的に決定する。例えば、ユーザ5が平面視して右に30度回転すると、携帯端末1Dは、センタ方向のスピーカをスピーカSp2からスピーカSp3に変更する。この場合、携帯端末1Dは、スピーカSp3にセンタCチャンネルに対応するオーディオ信号を送信する。また、携帯端末1Dは、スピーカSp2に、Lチャンネルに対応するオーディオ信号を送信する。さらに、携帯端末1Dは、スピーカSp5にRチャンネルに対応するオーディオ信号を送信する。また、携帯端末1Dは、Rチャンネルに対応するオーディオ信号を所定のゲイン比でスピーカSp3及びスピーカSp5に分配するパンニング処理を行ってもよい。これにより、携帯端末1Dは、ユーザ5の右30度の方向に仮想スピーカを設定して、Rチャンネルの音を右30度の方向から到来させることができる。
図16の例では、ユーザ5は、平面視して右に135度回転した方向を向いている。図16で示されるユーザ5のセンタ方向は、方向d1で示される。この時、ユーザ5のセンタ方向には、スピーカSp5が配置されている。従って、携帯端末1Dは、センタ方向のスピーカをスピーカSp3からSp5に変更する。携帯端末1Dは、スピーカSp5に、センタCチャンネルに対応するオーディオ信号を送信する。携帯端末1Dは、Rチャンネルに対応するオーディオ信号を所定のゲイン比でスピーカSp5及びスピーカSp4に分配するパンニング処理を行う。これにより、携帯端末1Dは、ユーザ5の右30度の方向に仮想スピーカを設定して、Rチャンネルの音を右30度の方向から到来させることができる。さらに、携帯端末1Dは、Lチャンネルに対応するオーディオ信号を所定のゲイン比でスピーカSp5及びスピーカSp3に分配するパンニング処理を行う。これにより、携帯端末1Dは、ユーザ5の左30度の方向に仮想スピーカを設定して、Lチャンネルの音を左30度の方向から到来させることができる。
このようにして、携帯端末1Dは、定期的に、ユーザ5の向いている方向に一致するスピーカを判断して、ユーザ5のセンタ方向に設置されているスピーカが異なるスピーカになったと判断した場合に、センタ方向のスピーカを異なるスピーカに変更し、変更したスピーカにセンタCチャンネルに対応するオーディオ信号を送信する。
また、携帯端末1Dは、ユーザ5のセンタ方向が複数のスピーカの間を向いている場合、ユーザ5のセンタ方向を挟んで設置されている2つのスピーカのうち、いずれかをセンタ方向のスピーカとして決定する。あるいは、携帯端末1Dは、ユーザ5のセンタ方向が複数のスピーカの間を向いている場合、ユーザ5のセンタ方向を挟んで設置されている2つのスピーカのそれぞれにセンタCチャンネルのオーディオ信号を所定のゲイン比で分配するパンニング処理を行い、センタ方向に仮想スピーカを設定してもよい。
このように、携帯端末1Dは、ユーザ5のセンタ方向とスピーカの方向が一致した場合に、ユーザ5のセンタ方向一致する方向のスピーカに、センタCチャンネルに対応するオーディオ信号を送信する。また、携帯端末1Dは、ユーザ5のセンタ方向がスピーカとスピーカとの間を向いていれば、該センタ方向の近くにある複数のスピーカにオーディオ信号を分配してもよい。これにより、携帯端末1Dは、常にユーザ5のセンタ方向にスピーカが存在するように設定することができ、ユーザ5の前方からの音を到達させることができる。
以上のように、変形例4の携帯端末1Dは、ヘッドトラッキング機能及びスピーカ位置の自動検出機能を使用することで、ユーザ5の動きに応じて、センタ方向にあるスピーカを自動的に決定できる。
[変形例5]
変形例5のオーディオシステム100Aは、複数のスピーカにオーディオ信号を送信する。変形例5のオーディオシステム100Aについて図17を参照して説明する。図17は、変形例5のオーディオシステム100Aが使用される空間4を示す模式図である。この例では、スピーカ3L、スピーカ3R及びスピーカ3Cを使用する。また、ユーザ5は、図17に示すように、空間4の前方(前後方向Y1の前)を向いて、コンテンツを視聴している。なお、実施形態1と同じ構成については、同じ符号を付し、詳細な説明は省略する。スピーカ3L、スピーカ3Rは、上述のスピーカ3と同じ構造及び機能を有しているので、詳細な説明は省略する。
携帯端末1は、例えば、空間4の前方に3つのスピーカ(スピーカ3L、スピーカ3R及びスピーカ3C)と接続されていた場合、3つのスピーカのそれぞれから音をさせる。より具体的には、携帯端末1は、ユーザ5の頭頂方向から前方の位置に対応する全てのチャンネルを、複数のスピーカ(この例では、スピーカ3L、スピーカ3R及びスピーカ3C)に対応させる。そして、携帯端末1は、頭頂方向から前方の位置に対応する全てのチャンネルのそれぞれに係る音を対応するスピーカから放音させる。この例では、携帯端末1は、スピーカ3Lには、Lチャンネルに対応するオーディオ信号を送信する。また、携帯端末1は、スピーカ3RにRチャンネルに対応するオーディオ信号を送信する。さらに、携帯端末1は、センタCスピーカにセンタCチャンネルに対応するオーディオ信号を送信する。
変形例5のオーディオシステム100Aでは、頭頂方向から前方の位置に対応する全てのチャンネルを、複数のスピーカ(この例では、スピーカ3L、スピーカ3R及びスピーカ3C)に対応させ、複数のスピーカに各チャンネルのオーディオ信号を出力する。これにより、オーディオシステム100Aは、頭頂方向から前方の位置に対応する複数のスピーカで定位感を補うことで、音像をより正確に定位させることができる。従って、オーディオシステム100Aは、ヘッドホン2の使用時に、音像定位がより向上する。
[変形例6]
変形例6の携帯端末1は、複数のチャンネルのうち、ユーザ5の頭頂方向から前方の位置に対応するセンタCチャンネルに対応するオーディオ信号をスピーカ3に送信し、Lチャンネル、Rチャンネル、リアLチャンネル及びリアRチャンネルに対応するオーディオ信号を、ヘッドホン2に送信する。
定位処理部162は、Lチャンネル、Rチャンネル、リアLチャンネル及びリアRチャンネル対応するオーディオ信号に、各チャンネルで定められた位置に音像を定位させる頭部伝達関数を付与する。ここで、センタCチャンネルに関しては、スピーカ3にセンタCチャンネルに対応するオーディオ信号を送信するので、音像定位処理をしない。定位処理部162は、各仮想スピーカFL、FR、RL、RRの位置(図2参照)から左耳に至る頭部伝達関数を畳み込んだ、ステレオLチャンネルに対応するオーディオ信号と、各仮想スピーカFL、FR、RL、RR(図2参照)の位置から右耳に至る頭部伝達関数を畳み込んだ、ステレオRチャンネルに対応するオーディオ信号を生成する。
オーディオ信号制御部163は、定位処理部162によって音像定位処理が行われた、ステレオLチャンネルに対応するオーディオ信号及びステレオRチャンネルに対応するオーディオ信号を含むステレオ信号を、通信部15を介してヘッドホン2に出力する。
これにより、携帯端末1は、領域A1に存在する仮想スピーカCがヘッドホン(頭部)2の位置に知覚するという現象を軽減させ、スピーカ3から放音されたセンタCチャンネルに係る音を知覚することができる。よって、ユーザ5は、Cチャンネルに係る音の距離間をより強く認識することができる。従って、携帯端末1は、ヘッドホン2の使用時に、ユーザ5にとって音像が定位し難い方向の音像定位を向上させることができる。
[上記以外の変形例]
オーディオシステムで使用されるスピーカは、空間4に配置される固定のスピーカに限定されない。スピーカは、例えば、携帯端末1に付随するスピーカであってもよい。また、スピーカは、例えば、モバイル式のスピーカ、PCのスピーカなどでもよい。
また、上述の例では、オーディオ信号を無線通信で送信する例で説明したが、これに限定されない。携帯端末1、1A、1B、1C、1Dは、有線を使用してオーディオ信号をスピーカ又はヘッドホンに送信してもよい。また、この場合、携帯端末1、1A、1B、1C、1Dは、アナログ信号をスピーカ又はヘッドホンに送信してもよい。
上述の例では、5チャンネルの例で説明したが、これに限定されない。オーディオデータは、3チャンネル、5.1チャンネル、7.1チャンネルなど、サラウンドに対応するオーディオシステムは、ユーザ5にとって音像が定位し難い方向の音像定位を向上させることができる、という効果より発揮できる。
また、スピーカ3がセンタCチャンネルに対応するオーディオ信号に係る音を放音するとき、ヘッドホン2からも、音像定位処理が行われたセンタCチャンネルに対応するオーディオ信号に基づく音を放音してもよい。
最後に、本実施形態の説明は、すべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上述の実施形態ではなく、特許請求の範囲によって示される。さらに、本発明の範囲は、特許請求の範囲と均等の範囲を含む。
1、1A、1B、1C、1D…携帯端末(オーディオ信号出力装置)
2、2A…ヘッドホン(イヤホン)
3、3L、3R、3C…スピーカ
12…ユーザI/F(ユーザインタフェース)
17…信号処理部
27L、27R…マイク
161…オーディオデータ取得部
162…定位処理部
163…オーディオ信号制御部
164…音量レベル調節部
165…スピーカ決定部
166…センタ方向検出部

Claims (23)

  1. 複数のチャンネルのそれぞれに対応するオーディオ信号を含むオーディオデータを取得し、
    前記複数のチャンネルのそれぞれに対応するオーディオ信号に、各チャンネルで定められた位置に音像を定位させる頭部伝達関数を付与し、
    前記頭部伝達関数が付与されたオーディオ信号を、イヤホンに出力し、
    前記オーディオデータに含まれる複数のオーディオ信号のうち、リスナの頭頂方向から前方の位置に対応するチャンネルのオーディオ信号を、スピーカに出力する、
    オーディオ信号出力方法。
  2. 前記リスナの頭頂方向から前方の位置に対応するチャンネルは、センタCチャンネルを含む、
    請求項1に記載のオーディオ信号出力方法。
  3. 前記センタCチャンネルに対応するセンタスピーカを決定する操作を受け付け、
    該操作に基づいて、前記センタスピーカを決定する、
    請求項2に記載のオーディオ信号出力方法。
  4. 前記リスナの向く方向であるセンタ方向を検出し、
    検出した前記センタ方向に基づいて、前記オーディオ信号を出力するスピーカを決定する、
    請求項1乃至3のいずれかに記載のオーディオ信号出力方法。
  5. 前記センタ方向をヘッドトラッキング機能によって検出する、
    請求項4に記載のオーディオ信号出力方法。
  6. 前記スピーカから放音される音の音量レベルを調節する、
    請求項1乃至5のいずれかに記載のオーディオ信号出力方法。
  7. 前記リスナの前方から頭頂の位置に対応するチャンネルが複数のチャンネルを含み、
    前記スピーカは、複数のスピーカを含み、
    前記複数のチャンネルのそれぞれに対応するオーディオ信号を前記複数のスピーカのそれぞれ対応するスピーカに出力する、
    請求項1乃至6のいずれかに記載のオーディオ信号出力方法。
  8. 前記イヤホンに設置したマイクを介して、前記スピーカの出力する音を含む外部音を取得し、
    前記スピーカの出力する音を前記イヤホンから出力する、
    請求項1乃至7のいずれかに記載のオーディオ信号出力方法。
  9. 前記スピーカの位置情報を取得し、
    前記スピーカの位置情報に基づいて、前記イヤホンに出力する前記オーディオ信号の出力タイミングを調節する信号処理を行う
    請求項1乃至8のいずれかに記載のオーディオ信号出力方法。
  10. 前記スピーカの位置情報を計測して取得する、
    請求項9に記載のオーディオ信号出力方法。
  11. 前記複数のチャンネルのうち、前記リスナの頭頂方向から前方の位置に対応する第1チャンネルに対応するオーディオ信号を前記スピーカに出力し、前記第1チャンネルと異なる1乃至複数の第2チャンネルに対応するオーディオ信号を、前記イヤホンに出力する、
    請求項1乃至10のいずれかに記載のオーディオ信号出力方法。
  12. 複数のチャンネルのそれぞれに対応するオーディオ信号を含むオーディオデータを取得するオーディオデータ取得部と、
    前記複数のチャンネルのそれぞれに対応するオーディオ信号に、各チャンネルで定められた位置に音像を定位させる頭部伝達関数を付与する、定位処理部と、
    前記頭部伝達関数が付与されたオーディオ信号を、イヤホンに出力し、前記オーディオデータに含まれる複数のオーディオ信号のうち、リスナの頭頂方向から前方の位置に対応するチャンネルのオーディオ信号を、スピーカに出力するオーディオ信号制御部と、を備える、
    オーディオ信号出力装置。
  13. 前記リスナの前方から頭頂の位置に対応する前記チャンネルは、センタCチャンネルを含む、
    請求項12に記載のオーディオ信号出力装置。
  14. 前記センタCチャンネルに対応するセンタスピーカを決定する操作を受け付けるユーザインタフェースと、
    該と、を備える。
    請求項13に記載のオーディオ信号出力装置。
  15. 前記リスナの向く方向であるセンタ方向を検出し、検出した前記センタ方向に基づいて、前記オーディオ信号を出力するスピーカを決定するセンタ方向検出部をさらに備える、
    請求項12乃至14のいずれかに記載のオーディオ信号出力装置。
  16. 前記センタ方向検出部は、前記センタ方向をヘッドトラッキング機能によって検出する、
    請求項15に記載のオーディオ信号出力装置。
  17. 前記スピーカから放音される音の音量レベルを調節する音量レベル調節部を備える、
    請求項12乃至16のいずれかに記載のオーディオ信号出力装置。
  18. 前記リスナの前方から頭頂の位置に対応するチャンネルは、複数のチャンネルを含み、
    前記スピーカは、複数のスピーカを含み、
    前記複数のチャンネルのそれぞれに対応するオーディオ信号を前記複数のスピーカのそれぞれ対応するスピーカに出力する、
    請求項12乃至17のいずれかに記載のオーディオ信号出力装置。
  19. 前記イヤホンは、前記イヤホンに設置したマイクを介して、前記スピーカの出力する音を含む外部音を取得し、取得した前記外部音を前記イヤホンから出力する、
    請求項12乃至18のいずれかに記載のオーディオ信号出力装置。
  20. 前記オーディオ信号制御部は、前記スピーカのスピーカ位置情報を取得し、前記スピーカ位置情報に基づいて、前記イヤホンに出力する前記オーディオ信号の出力タイミングを調節する信号処理を行う、
    請求項12乃至19のいずれかに記載のオーディオ信号出力装置。
  21. 前記オーディオ信号制御部は、前記スピーカ位置情報を計測して取得する、
    請求項20に記載のオーディオ信号出力装置。
  22. 前記オーディオ信号制御部は、前記複数のチャンネルのうち、前記リスナの頭頂方向から前方の位置に対応する第1チャンネルに対応するオーディオ信号を前記スピーカに出力し、前記第1チャンネルと異なる1乃至複数の第2チャンネルに対応するオーディオ信号を、前記イヤホンに出力する、
    請求項12乃至21のいずれかに記載のオーディオ信号出力装置。
  23. 請求項12乃至22のいずれかに記載の前記オーディオ信号出力装置と、
    前記オーディオ信号出力装置から前記オーディオ信号を受け付ける第1オーディオ信号受付部と、
    前記オーディオ信号に基づいて放音する第1放音部と、を有する、
    イヤホンと、
    前記オーディオ信号出力装置から前記オーディオ信号を受け付ける第2オーディオ信号受付部と、
    前記オーディオ信号を放音する第2放音部と、を有する
    スピーカと、
    を備える、
    オーディオシステム。
JP2021208285A 2021-12-22 2021-12-22 オーディオ信号出力方法、オーディオ信号出力装置及びオーディオシステム Pending JP2023092962A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021208285A JP2023092962A (ja) 2021-12-22 2021-12-22 オーディオ信号出力方法、オーディオ信号出力装置及びオーディオシステム
US18/058,947 US20230199426A1 (en) 2021-12-22 2022-11-28 Audio signal output method, audio signal output device, and audio system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021208285A JP2023092962A (ja) 2021-12-22 2021-12-22 オーディオ信号出力方法、オーディオ信号出力装置及びオーディオシステム

Publications (1)

Publication Number Publication Date
JP2023092962A true JP2023092962A (ja) 2023-07-04

Family

ID=86769322

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021208285A Pending JP2023092962A (ja) 2021-12-22 2021-12-22 オーディオ信号出力方法、オーディオ信号出力装置及びオーディオシステム

Country Status (2)

Country Link
US (1) US20230199426A1 (ja)
JP (1) JP2023092962A (ja)

Also Published As

Publication number Publication date
US20230199426A1 (en) 2023-06-22

Similar Documents

Publication Publication Date Title
JP3435156B2 (ja) 音像定位装置
US10805754B2 (en) Audio reproduction systems and methods
EP2250822B1 (en) A sound system and a method for providing sound
EP3103269B1 (en) Audio signal processing device and method for reproducing a binaural signal
JP3422026B2 (ja) オーディオ再生装置
JP4924119B2 (ja) アレイスピーカ装置
US9769585B1 (en) Positioning surround sound for virtual acoustic presence
CN109769165B (zh) 外耳式耳机装置和方法
JP2002209300A (ja) 音像定位装置、並びに音像定位装置を用いた会議装置、携帯電話機、音声再生装置、音声記録装置、情報端末装置、ゲーム機、通信および放送システム
WO2014069661A1 (ja) 音響再生システム及び音響再生方法
CN101489173B (zh) 信号处理装置和信号处理方法
US9294861B2 (en) Audio signal processing device
JP4735920B2 (ja) 音響処理装置
US6990210B2 (en) System for headphone-like rear channel speaker and the method of the same
US11477595B2 (en) Audio processing device and audio processing method
EP2708038B1 (en) A speaker for reproducing surround sound
KR102609084B1 (ko) 전자장치, 그 제어방법 및 기록매체
JP2023092962A (ja) オーディオ信号出力方法、オーディオ信号出力装置及びオーディオシステム
JP5281695B2 (ja) 音響変換装置
JP2023092961A (ja) オーディオ信号出力方法、オーディオ信号出力装置及びオーディオシステム
US20220141608A1 (en) Systems and methods for providing augmented audio
JP2006352728A (ja) オーディオ装置
EP3726858A1 (en) Lower layer reproduction
KR100636167B1 (ko) 가상음향 알고리즘을 이용한 무선 오디오 시스템
KR20230154069A (ko) 헤드폰들의 세트