JP5672741B2 - 信号処理装置および方法、並びにプログラム - Google Patents

信号処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP5672741B2
JP5672741B2 JP2010080517A JP2010080517A JP5672741B2 JP 5672741 B2 JP5672741 B2 JP 5672741B2 JP 2010080517 A JP2010080517 A JP 2010080517A JP 2010080517 A JP2010080517 A JP 2010080517A JP 5672741 B2 JP5672741 B2 JP 5672741B2
Authority
JP
Japan
Prior art keywords
mixing
sound image
image localization
sound
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010080517A
Other languages
English (en)
Other versions
JP2011216963A (ja
JP2011216963A5 (ja
Inventor
健司 中野
健司 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010080517A priority Critical patent/JP5672741B2/ja
Priority to US13/069,233 priority patent/US9661437B2/en
Priority to CN201110077505.4A priority patent/CN102209288B/zh
Publication of JP2011216963A publication Critical patent/JP2011216963A/ja
Publication of JP2011216963A5 publication Critical patent/JP2011216963A5/ja
Application granted granted Critical
Publication of JP5672741B2 publication Critical patent/JP5672741B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • H04S1/005For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/03Connection circuits to selectively connect loudspeakers or headphones to amplifiers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/07Synergistic effects of band splitting and sub-band processing

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)

Description

本発明は、信号処理装置および方法、並びにプログラムに関し、特に、映像の奥行き感に沿った音場感を提供することができるようにした信号処理装置および方法、並びにプログラムに関する。
映像の世界では、いわゆる立体映像が今後、家庭用コンテンツとして普及する可能性が高くなっている。そのような中、映像に付随する音声にも奥行き感を持たせることが期待されている。
また、立体映像の構成要素である右目用、左目用の映像の差分情報から、映像各所の奥行き情報を抽出する試みなどがされている。さらに、コンテンツに奥行き情報を与えるメタ情報をコンテンツ制作者が埋め込むなど、音声情報以外からの奥行き情報を参照することが可能な状況になりつつある(特許文献1参照)。
しかしながら、現状では、このような映像に付随する音声は従来と変わらない5.1chやステレオといったフォーマットであり、その音場イメージも基本的に映像の奥行きや手前への飛び出しを意識していないものが数多くある。これは主に、不特定多数リスナの同時視聴を想定しなければならない劇場用映画などのコンテンツが多いためである。したがって、現状の再生システムでは、音声(映像側にあるもの、例えば、センター音声)に奥行き感を与えることが容易ではなく、結果的に隣り合う再生スピーカを結ぶような位置への音配置にとどめていることにある。
特開2000−50400号公報
このようなコンテンツを家庭で再生する場合は、不特定多数リスナの同時視聴のような縛りを考える必要性が少なくなる。したがって、音声に奥行き感を持たせるような後工程により、立体映像と音声との融合性を高めるようにできれば、より作品世界への没頭感が増すものと考えられる。
以上のような状況において、現在、映像に付随する音声にも奥行き感を持たせることが早急に求められている。
本発明は、このような状況に鑑みてなされたものであり、映像の奥行き感に沿った音場感を提供することができるものである。
本発明の一側面の信号処理装置は、音声信号の各チャンネルの周波数帯域毎の音像定位位置を決める情報に基づいて、前記各チャンネルの周波数帯域毎の音声信号に対して、音源位置の混合比に応じて混合した後、音像定位処理を行い、出力先毎に混合する音像定位処理手段と、前記音像定位処理手段により出力先毎に混合された前記各チャンネルの音声信号を混合する混合手段とを備える。
前記音像定位位置を決める情報は、音像定位をさせる所定の位置に対する重みの情報である。
前記各チャンネルの周波数帯域毎の音像定位位置を決める情報を記憶する記憶手段をさらに備え、前記音像定位処理手段は、前記記憶手段に記憶されている前記各チャンネルの周波数帯域毎の音像定位位置を決める情報に基づいて、前記各チャンネルの周波数帯域毎の音声信号に対して、音源位置の混合比に応じて混合した後、音像定位処理を行い、出力先毎に混合することができる。
前記音声信号に多重化された前記各チャンネルの周波数帯域毎の音像定位位置を決める情報を抽出する抽出手段をさらに備え、前記音像定位処理手段は、前記音声信号のチャンネル毎に、前記抽出手段に抽出された前記各チャンネルの周波数帯域毎の音像定位位置を決める情報に基づいて、前記各チャンネルの周波数帯域毎の音声信号に対して、音源位置の混合比に応じて混合した後、音像定位処理を行い、出力先毎に混合することができる。
前記音声信号に対応する画像信号における視差情報から、前記各チャンネルの周波数帯域毎の音像定位位置を決める情報を分析する分析手段をさらに備え、前記音像定位処理手段は、前記分析手段に分析された前記各チャンネルの周波数帯域毎の音像定位位置を決める情報に基づいて、前記各チャンネルの周波数帯域毎の音声信号に対して、音源位置の混合比に応じて混合した後、音像定位処理を行い、出力先毎に混合することができる。
本発明の一側面の信号処理方法は、音像定位処理手段と、混合手段とを備える信号処理装置の信号処理方法において、前記音像定位処理手段が、音声信号の各チャンネルの周波数帯域毎の音像定位位置を決める情報に基づいて、前記各チャンネルの周波数帯域毎の音声信号に対して、音源位置の混合比に応じて混合した後、音像定位処理を行い、出力先毎に混合し、前記混合手段が、前記音像定位処理手段により出力先毎に混合された前記各チャンネルの音声信号を混合する。
本発明の一側面のプログラムは、音声信号の各チャンネルの周波数帯域毎の音像定位位置を決める情報に基づいて、前記各チャンネルの周波数帯域毎の音声信号に対して、音源位置の混合比に応じて混合した後、音像定位処理を行い、出力先毎に混合する音像定位処理手段と、前記音像定位処理手段により出力先毎に混合された前記各チャンネルの音声信号を混合する混合手段としてコンピュータを機能させる。
本発明の一側面においては、音声信号の各チャンネルの周波数帯域毎の音像定位位置を決める情報に基づいて、各チャンネルの周波数帯域毎の音声信号に対して、音源位置の混合比に応じて混合された後、音像定位処理が行われ、出力先毎に混合される。そして、前記出力先毎に混合された前記各チャンネルの音声信号が混合される。
なお、上述の信号処理装置は、独立した装置であっても良いし、1つの信号処理装置を構成している内部ブロックであってもよい。
本発明の一側面によれば、映像の奥行き感に沿った音場感を提供することができる。
本発明を適用した信号処理装置の第1の実施の形態の構成を示すブロック図である。 奥行き制御処理部の構成例を示すブロック図である。 図1の信号処理装置の信号処理を説明するフローチャートである。 奥行き制御処理部の他の構成例を示すブロック図である。 奥行き制御情報の例を示す図である。 図4の奥行き制御処理部の場合の図1の信号処理装置の信号処理を説明するフローチャートである。 本発明を適用した信号処理装置の第2の実施の形態の構成を示すブロック図である。 コンピュータのハードウエアの構成例を示すブロック図である。
以下、図を参照して本発明の実施の形態について説明する。
[信号処理装置の構成例]
図1は、本発明を適用した信号処理装置の第1の実施の形態の構成を表している。
図1の信号処理装置11は、例えば、5.1ch(チャンネル)のうち、FL、FR、FCの各chを奥行き制御の対象として、固定位置近距離定位仮想音源と固定位置遠距離仮想音源、実音源との混合による合成音像方式により、奥行き制御処理を行う。奥行き制御処理は、実音源(再生スピーカ)位置に対して、リスナ側に近くなるように音像定位させたり(近距離定位)、リスナに対して遠くなるように音像定位させる(遠距離定位)ものである。
信号処理装置11は、奥行き情報抽出部21、奥行き制御処理部22−1乃至奥行き制御処理部22−3、混合(Mix)部23、再生スピーカ24−1乃至再生スピーカ24−3により構成されている。
図示せぬ前段からのFLch、FCch、FRchの各音声信号は、奥行き情報抽出部21と、各奥行き制御処理部22−1乃至奥行き制御処理部22−3にそれぞれ入力される。
奥行き情報抽出部21は、FLch、FCch、FRchの音声信号から、予めコンテンツ作成者などにより多重化されているFLch、FCch、FRchの各奥行き情報を抽出し、対応する奥行き制御処理部22−1乃至奥行き制御処理部22−3に供給する。
奥行き制御処理部22−1は、FLchの音声信号に対して、奥行き情報抽出部21からのFLch奥行き情報に基づいて、奥行き制御処理を施す。奥行き制御処理部22−1は、FLchの音声信号に対する奥行き制御処理結果のFLスピーカ用出力音声信号、FCスピーカ用出力音声信号、およびFRスピーカ用出力音声信号を混合部23に出力する。
奥行き制御処理部22−2は、FCchの音声信号に対して、奥行き情報抽出部21からのFCch奥行き情報に基づいて、奥行き制御処理を施す。奥行き制御処理部22−2は、FCchの音声信号に対する奥行き制御処理結果のFLスピーカ用出力音声信号、FCスピーカ用出力音声信号、およびFRスピーカ用出力音声信号を混合部23に出力する。
奥行き制御処理部22−3は、FRchの音声信号に対して、奥行き情報抽出部21からのFRch奥行き情報に基づいて、奥行き制御処理を施す。奥行き制御処理部22−3は、FRchの音声信号に対する奥行き制御処理結果のFLスピーカ用出力音声信号、FCスピーカ用出力音声信号、およびFRスピーカ用出力音声信号を混合部23に出力する。
混合部23は、各奥行き制御処理部22−1乃至奥行き制御処理部22−3からの各スピーカ用出力音声信号を、スピーカ毎に混合し、混合した各スピーカ用出力音声信号を、対応する再生スピーカ24−1乃至再生スピーカ24−3にそれぞれ出力する。
再生スピーカ24−1は、混合部23からのFLスピーカ用出力音声信号に対応する音声を出力する。再生スピーカ24−2は、混合部23からのFCスピーカ用出力音声信号に対応する音声を出力する。再生スピーカ24−3は、混合部23からのFRスピーカ用出力音声信号に対応する音声を出力する。
ここで、合成音像方式においては、例えば、FLchの場合、再生スピーカ24−1である実音源、FL遠距離定位仮想音源31−1、FL近距離定位仮想音源32−1の3つの音源間で所定のレベルバランスを与えることにより、それら音源間に合成音像33−1が形成される。図1の例においては、再生スピーカ24−1とFL近距離定位仮想音源32−1との間のほぼ中央に合成音像33−1が形成されている。
FCchの場合、再生スピーカ24−2である実音源、FC遠距離定位仮想音源31−2、FC近距離定位仮想音源32−2の3つの音源間で所定のレベルバランスを与えることにより、それら音源間に合成音像33−2が形成される。図1の例においては、再生スピーカ24−2とFC遠距離定位仮想音源31−2との間の再生スピーカ24−2寄りに合成音像33−2が形成されている。
FRchの場合、再生スピーカ24−3である実音源、FR遠距離定位仮想音源31−3、FR近距離定位仮想音源32−3の3つの音源間で所定のレベルバランスを与えることにより、それら音源間に合成音像33−3が形成される。図1の例においては、再生スピーカ24−3とFR近距離定位仮想音源32−3との間の再生スピーカ24−3寄りに合成音像33−3が形成されている。
以上のように、信号処理装置11においては、各chの奥行き情報に記述された音像位置と、再生音による合成音像33−1乃至合成音像33−3がおおよそ一致するように、奥行き制御処理が行われる。
[奥行き制御処理部の構成例]
図2は、FRchの音声信号に対して奥行き制御処理を行う奥行き制御処理部22−3の構成例を示すブロック図である。
奥行き制御処理部22−3は、奥行き情報記憶部51、奥行き情報選択部52、減衰器53−1乃至減衰器53−3、固定位置遠距離定位処理部54、実音源位置定位処理部55、固定位置近距離定位処理部56、および混合部57−1乃至混合部57−3により構成されている。
奥行き情報記憶部51には、各音源位置の奥行き情報が予め記憶されている。奥行き情報選択部52は、奥行き情報抽出部21からの音源位置毎の奥行き情報と予め記憶されている奥行き情報のどちらか一方を選択する。例えば、奥行き情報選択部52は、奥行き情報抽出部21から奥行き情報が供給されない場合、記憶されている固定の奥行き情報を用い、奥行き情報抽出部21から奥行き情報が供給された場合、供給された奥行き情報を用いる。あるいは、奥行き情報は、ユーザによる設定に応じて選択するように構成してもよい。
奥行き情報選択部52は、選択した奥行き情報を、対応する減衰器53−1乃至減衰器53−3に供給する。
図2の例の場合、奥行き情報には、減衰器53−1乃至減衰器53−3(すなわち、各音源位置)に対する減衰量が記述されている。なお、奥行き情報は、減衰量に限定されず、例えば、混合部57―1乃至混合部57−3に対する混合比(Mix比)であってもよい。この場合、混合部57−1乃至混合部57−3において、混合比を用いた混合が行われる。
減衰器53−1は、遠距離定位音像位置用の減衰器であり、入力されるFRの音声信号に対して、奥行き情報選択部52からの奥行き情報に基づいて減衰を行い、減衰を行った音声信号を、固定位置遠距離定位処理部54に出力する。減衰器53−2は、実音源位置用の減衰器であり、入力されるFRの音声信号に対して、奥行き情報選択部52からの奥行き情報に基づいて減衰を行い、減衰を行った音声信号を、実音源位置定位処理部55に出力する。減衰器53−3は、近距離定位音像位置用の減衰器であり、入力されるFRの音声信号に対して、奥行き情報選択部52からの奥行き情報に基づいて減衰を行い、減衰を行った音声信号を、固定位置近距離定位処理部56に出力する。
固定位置遠距離定位処理部54は、FR遠距離定位仮想音源31−3を形成するための信号処理を行う。固定位置遠距離定位処理部54は、信号処理結果のFLスピーカ用出力音声信号を混合部57−1に出力し、FCスピーカ用出力音声信号を混合部57−2に出力し、FRスピーカ用出力音声信号を混合部57−3に出力する。
実音源位置定位処理部55は、再生スピーカ24−3である実音源を形成するための信号処理を行う。実音源位置定位処理部55は、信号処理結果のFRスピーカ用出力音声信号を混合部57−3に出力する。
固定位置近距離定位処理部56は、FR近距離定位仮想音源32−3を形成するための信号処理を行う。固定位置近距離定位処理部56は、信号処理結果のFLスピーカ用出力音声信号を混合部57−1に出力し、FCスピーカ用出力音声信号を混合部57−2に出力し、FRスピーカ用出力音声信号を混合部57−3に出力する。
なお、実音源位置定位処理部55の場合、対象が実音源位置であるので、入力されるFRの音声信号に対応するFRスピーカ用の音声信号しか生成されない。これに対して、固定位置遠距離定位処理部54や固定位置近距離定位処理部56の場合、FR遠距離定位仮想音源31−3やFR近距離定位仮想音源32−3を形成するためには、入力されるFRの音声信号に対応するFRスピーカ用の音声信号以外のFCスピーカ用やFLスピーカ用の音声信号の生成も必要となる。
混合部57−1は、固定位置遠距離定位処理部54および固定位置近距離定位処理部56からのFLスピーカ用出力音声信号を混合し、混合したFLスピーカ用出力音声信号を、混合部23に出力する。混合部57−2は、固定位置遠距離定位処理部54および固定位置近距離定位処理部56からのFCスピーカ用出力音声信号を混合し、混合したFCスピーカ用出力音声信号を、混合部23に出力する。
混合部57−3は、固定位置遠距離定位処理部54、実音源位置定位処理部55、および固定位置近距離定位処理部56からのFRスピーカ用出力音声信号を混合し、混合したFRスピーカ用出力音声信号を、混合部23に出力する。
なお、図1の奥行き制御処理部22−1および奥行き制御処理部22−2の構成例は、実音源位置定位処理部55からの音声信号の出力先が、混合部57−1乃至混合部57−3のうち、対応するchスピーカ用出力音声信号を混合する混合部に変わることが異なるだけである。すなわち、それ以外は、図2の奥行き制御処理部22−3の構成例と基本的に同じであるので、以下、図2の奥行き制御処理部22−3の構成は、奥行き制御処理部22−1および奥行き制御処理部22−2としても用いられる。
[信号処理の説明]
次に、図3のフローチャートを参照して、図1の信号処理装置11の信号処理を説明する。
図示せぬ前段からのFLch、FCch、FRchの各音声信号は、奥行き情報抽出部21と、各奥行き制御処理部22−1乃至奥行き制御処理部22−3の減衰器53−1乃至減衰器53−3にそれぞれ入力される。
奥行き情報抽出部21は、ステップS11において、FLch、FCch、FRchの音声信号から、予めコンテンツ作成者などにより多重化されているFLch、FCch、FRchの各奥行き情報を抽出する。奥行き情報抽出部21は、対応する奥行き制御処理部22−1乃至奥行き制御処理部22−3の奥行き情報選択部52に供給する。
なお、以降のステップS12乃至S16は、奥行き制御処理部22−1乃至奥行き制御処理部22−3においてそれぞれ実行される処理であるので、代表して、奥行き制御処理部22−3(FRの信号処理)の場合を説明する。
ステップS12において、奥行き制御処理部22−3の奥行き情報記憶部51は、記憶している各音源位置の奥行き情報を読み出し、読み出した奥行き情報を、奥行き情報選択部52に供給する。
奥行き情報選択部52は、ステップS13において、奥行き情報抽出部21からの音源位置毎の奥行き情報と予め記憶されている奥行き情報のどちらか一方を選択する。奥行き情報選択部52は、選択した奥行き情報を、対応する減衰器53−1乃至減衰器53−3に供給する。
ステップS14において、減衰器53−1乃至減衰器53−3は、入力されるFRの音声信号に対して、奥行き情報選択部52からの奥行き情報に基づいて減衰を行う。そして、減衰器53−1は、減衰を行った音声信号を、固定位置遠距離定位処理部54に出力する。減衰器53−2は、減衰を行った音声信号を、実音源位置定位処理部55に出力する。減衰器53−3は、減衰を行った音声信号を、固定位置近距離定位処理部56に出力する。
ステップS15において、固定位置遠距離定位処理部54、実音源位置定位処理部55、および固定位置近距離定位処理部56は、各音源位置に対応する音像定位処理をそれぞれ行う。
具体的には、固定位置遠距離定位処理部54は、FR遠距離定位仮想音源31−3を形成するための信号処理を行う。固定位置遠距離定位処理部54は、信号処理結果のFLスピーカ用出力音声信号を混合部57−1に出力し、FCスピーカ用出力音声信号を混合部57−2に出力し、FRスピーカ用出力音声信号を混合部57−3に出力する。
実音源位置定位処理部55は、再生スピーカ24−3である実音源を形成するための信号処理を行う。実音源位置定位処理部55は、信号処理結果のFRスピーカ用出力音声信号を混合部57−3に出力する。
固定位置近距離定位処理部56は、FR近距離定位仮想音源32−3を形成するための信号処理を行う。固定位置近距離定位処理部56は、信号処理結果のFLスピーカ用出力音声信号を混合部57−1に出力し、FCスピーカ用出力音声信号を混合部57−2に出力し、FRスピーカ用出力音声信号を混合部57−3に出力する。
ステップS16において、混合部57−1乃至混合器57−3は、固定位置遠距離定位処理部54、実音源位置定位処理部55、および固定位置近距離定位処理部56のうち少なくとも1つから入力される音像定位処理後の音声信号を混合し、混合部23に出力する。
すなわち、混合部57−1は、固定位置遠距離定位処理部54および固定位置近距離定位処理部56からのFLスピーカ用出力音声信号を混合し、混合したFLスピーカ用出力音声信号を、混合部23に出力する。混合部57−2は、固定位置遠距離定位処理部54および固定位置近距離定位処理部56からのFCスピーカ用出力音声信号を混合し、混合したFCスピーカ用出力音声信号を、混合部23に出力する。
混合部57−3は、固定位置遠距離定位処理部54、実音源位置定位処理部55、および固定位置近距離定位処理部56からのFRスピーカ用出力音声信号を混合し、混合したFRスピーカ用出力音声信号を、混合部23に出力する。
ステップS17において、混合部23は、各奥行き制御処理部22−1乃至奥行き制御処理部22−3からの奥行き制御処理後の各スピーカ用出力音声信号を、各スピーカ毎に混合する。混合部23は、混合した各スピーカ用出力音声信号を、対応する再生スピーカ24−1乃至再生スピーカ24−3にそれぞれ出力する。
再生スピーカ24−1は、混合部23からのFLスピーカ用出力音声信号に対応する音声を出力する。再生スピーカ24−2は、混合部23からのFCスピーカ用出力音声信号に対応する音声を出力する。再生スピーカ24−3は、混合部23からのFRスピーカ用出力音声信号に対応する音声を出力する。
以上により、例えば、FLchの場合、再生スピーカ24−1である実音源、FL遠距離定位仮想音源31−1、FL近距離定位仮想音源32−1の3つの音源間で所定のレベルバランスを与えることにより、それら音源間に合成音像33−1が形成される。FCchの場合、再生スピーカ24−2である実音源、FC遠距離定位仮想音源31−2、FC近距離定位仮想音源32−2の3つの音源間で所定のレベルバランスを与えることにより、それら音源間に合成音像33−2が形成される。FRchの場合、再生スピーカ24−3である実音源、FR遠距離定位仮想音源31−3、FR近距離定位仮想音源32−3の3つの音源間で所定のレベルバランスを与えることにより、それら音源間に合成音像33−3が形成される。
以上のように、各chに対して奥行き情報を持たせ、それに基づいて音源位置を制御するようにしたので、立体映像の奥行き感やコンテンツ制作者の考えに沿った音場感を提供することができる。
なお、上記説明においては、信号処理装置11に、奥行き情報抽出部21、奥行き情報記憶部51、奥行き情報選択部52を備える例を説明したが、奥行き情報抽出部21または奥行き情報記憶部51のみを備えるように構成することもできる。この場合、奥行き情報選択部52も必要ないので、除くようにしてもよい。
[奥行き制御処理部の構成例]
図4は、FRchの音声信号に対して奥行き制御処理を行う奥行き制御処理部22−3の他の構成例を示すブロック図である。
図4の奥行き制御処理部22−3は、奥行き情報記憶部51、奥行き情報選択部52、および減衰器53−1乃至減衰器53−3が除かれている点が図2の奥行き制御処理部22−3と異なっている。また、図4の奥行き制御処理部22−3は、帯域1抽出処理部71−1、帯域2抽出処理部71−2、…、および帯域n抽出処理部71−n並びに、混合部72−1乃至混合部72−3が追加されている点が図2の奥行き制御処理部22−3と異なっている。
そして、図4の奥行き制御処理部22−3は、固定位置遠距離定位処理部54、実音源位置定位処理部55、固定位置近距離定位処理部56、および混合部57−1乃至57−3を備えている点は、図2の奥行き制御処理部22−3と共通している。
奥行き情報抽出部21からの対応するFRchの奥行き情報は、帯域1抽出処理部71−1、帯域2抽出処理部71−2、…、および帯域n抽出処理部71−n、並びに、混合部72−1乃至混合部72−3にそれぞれ供給される。奥行き情報には、例えば、分割帯域数、および各帯域の範囲などの制御帯域情報、並びに帯域毎の各音源位置に対する重みである混合比などが含まれている。
帯域1抽出処理部71−1は、奥行き情報に基づいて、入力される音声信号から、帯域1の信号を抽出し、抽出した帯域1の音声信号を混合部72−1乃至混合部72−3に供給する。帯域2抽出処理部71−2は、奥行き情報に基づいて、入力される音声信号から、帯域2の信号を抽出し、抽出した帯域2の音声信号を混合部72−1乃至混合部72−3に供給する。以下、同様に、帯域3抽出処理部71−3乃至帯域n抽出処理部71−nは、奥行き情報に基づいて、入力される音声信号から、帯域3乃至帯域nの信号をそれぞれ抽出し、抽出した各帯域3乃至帯域nの音声信号を混合部72−1乃至混合部72−3にそれぞれ供給する。すなわち、図4の例においては、音声信号の帯域を、帯域1乃至帯域nに分け、n個の各帯域がn個の各帯域抽出処理部71でそれぞれ抽出する例が示されている。ここで、n≦1である。
混合部72−1は、各帯域の音声信号に対して、奥行き情報の対応する帯域の遠距離音源位置に対応する混合比を乗算してから混合し、混合した音声信号を固定位置遠距離定位処理部54に出力する。
混合部72−2は、各帯域の音声信号に対して、奥行き情報の対応する帯域の実音源位置に対応する混合比を乗算してから混合し、混合した音声信号を実音源位置定位処理部55に出力する。
混合部72−3は、各帯域の音声信号に対して、奥行き情報の対応する帯域の近距離音源位置に対応する混合比を乗算してから混合し、混合した音声信号を固定位置近距離定位処理部56に出力する。
なお、奥行き制御処理部22−1および奥行き制御処理部22−2の構成例は、実音源位置定位処理部55からの音声信号の出力先が、混合部57−1乃至混合部57−3のうち、対応するchスピーカ用出力音声信号を混合する混合部に変わることが異なるだけである。すなわち、それ以外は、図4に示した奥行き制御処理部22−3の構成例と基本的に同じであるので、以下、図4の奥行き制御処理部22−3の構成は、奥行き制御処理部22−1および奥行き制御処理部22−2としても用いられる。
[奥行き情報の例]
図5は、FRchの奥行き情報の例を示す図である。図5の奥行き情報には、周波数帯域毎の各音源位置に対する重みである混合比wが記述されている。
例えば、周波数帯域1の遠距離仮想音源位置の混合比wは、0.5で、実音源位置の混合比wは、0.2で、近距離仮想音源位置の混合比wは、0.3であることが記述されている。また、周波数帯域2の遠距離仮想音源位置の混合比wは、0で、実音源位置の混合比wは、1で、近距離仮想音源位置の混合比wは、0であることが記述されている。さらに、周波数帯域nの遠距離仮想音源位置の混合比wは、0.3で、実音源位置の混合比wは、0.5で、近距離仮想音源位置の混合比wは、0.2であることが記述されている。なお、周波数帯域3乃至n−1の混合比の例は省略されている。
また、図5の例においては示されていないが、奥行き情報には、分割帯域数、および各帯域の範囲などの制御帯域情報も記述されている。
[信号処理の説明]
次に、図6のフローチャートを参照して、図4の奥行き制御処理部22−3の場合の図1の信号処理装置11の信号処理を説明する。
図示せぬ前段からのFLch、FCch、FRchの各音声信号は、奥行き情報抽出部21と、各奥行き制御処理部22−1乃至奥行き制御処理部22−3の帯域1抽出処理部71−1、帯域2抽出処理部71−2、…、および帯域n抽出処理部71−nにそれぞれ入力される。
奥行き情報抽出部21は、ステップS71において、FLch、FCch、FRchの音声信号から、予めコンテンツ作成者などにより多重化されているFLch、FCch、FRchの各奥行き情報を抽出する。奥行き情報抽出部21は、対応する奥行き制御処理部22−1乃至奥行き制御処理部22−3の帯域1抽出処理部71−1、帯域2抽出処理部71−2、…、および帯域n抽出処理部71−nに並びに、混合部72−1乃至混合部72−3にそれぞれに供給する。
なお、以降のステップS72乃至S75は、奥行き制御処理部22−1乃至奥行き制御処理部22−3においてそれぞれ実行される処理であるので、代表して、奥行き制御処理部22−3(FRの信号処理)の場合を説明する。
ステップS72において、帯域1抽出処理部71−1、帯域2抽出処理部71−2、…、および帯域n抽出処理部71−nは、奥行き情報の分割帯域数、および各帯域の範囲などの制御帯域情に基づいて、入力される音声信号から対応する帯域をそれぞれ抽出する。帯域1抽出処理部71−1、帯域2抽出処理部71−2、…、および帯域n抽出処理部71−nは、抽出した帯域の音声信号を、混合部72−1乃至混合部72−3にそれぞれ出力する。
ステップS73において、混合部72−1乃至混合部72−3は、各帯域の音声信号を、奥行き情報に応じた重み付けで混合する。すなわち、混合部72−1乃至混合部72−3は、各帯域の音声信号に対して、奥行き情報の対応する帯域の各音源位置に対応する混合比を乗算してから混合し、混合した音声信号を対応する定位処理部54乃至56に出力する。
具体的には、混合部72−1は、各帯域の音声信号に対して、奥行き情報の対応する帯域の遠距離音源位置に対応する混合比を乗算してから混合し、混合した音声信号を固定位置遠距離定位処理部54に出力する。混合部72−2は、各帯域の音声信号に対して、奥行き情報の対応する帯域の実音源位置に対応する混合比を乗算してから混合し、混合した音声信号を実音源位置定位処理部55に出力する。混合部72−3は、各帯域の音声信号に対して、奥行き情報の対応する帯域の近距離音源位置に対応する混合比を乗算してから混合し、混合した音声信号を固定位置近距離定位処理部56に出力する。
ステップS74において、固定位置遠距離定位処理部54、実音源位置定位処理部55、および固定位置近距離定位処理部56は、各音源位置に対応する音像定位処理をそれぞれ行う。
ステップS75において、混合部57−1乃至混合器57−3は、固定位置遠距離定位処理部54、実音源位置定位処理部55、および固定位置近距離定位処理部56のうち少なくとも1つから入力される音像定位処理後の音声信号を混合し、混合部23に出力する。
ステップS76において、混合部23は、各奥行き制御処理部22−1乃至奥行き制御処理部22−3からの奥行き制御処理後の各スピーカ用出力音声信号を、各スピーカ毎に混合する。混合部23は、混合した各スピーカ用出力音声信号を、対応する再生スピーカ24−1乃至再生スピーカ24−3にそれぞれ出力する。
なお、上述したステップS74乃至S76の処理は、上述した図3のステップS15乃至S17と基本的に同じ処理を行うので、それらの具体的な処理の説明は繰り返しになるので省略される。
以上のように、図4の例においては、入力音声信号をさらに帯域別に分けることにより、それぞれが独立して奥行き制御される。
これにより、例えば、FCchの音声信号に人の声(セリフ)とそれ以外の背景音が混合されていた場合に、人の声の帯域に関しては実音源位置に、それ以外の帯域については、近距離または遠距離定位させるといった利用方法が可能になる。なお、当然、帯域で分けたとしても、目的音素材以外の音素材も通常は被っていることになるので、目的となる素材の主帯域を選別して指定するなどの工夫は必要となる。
このような制御帯域情報は、上述したように奥行き情報内に含めて、逐次制御帯域並びに音像位置を変更可能にすることもできるし、制御帯域は固定し、例えば、人の声の帯域以外に関してのみ音像位置を変更できるようにすることも可能である。なお、後者の場合は、奥行き情報に制御帯域情報を含める必要はなくなる。
また、奥行き情報を用いず、入力信号の主帯域に応じて奥行き位置を固定した処理としてもよいし、入力信号の主帯域を、例えば、人の声に固定して、奥行き位置を固定した処理としてもよい。
[信号処理装置の構成例]
図7は、本発明を適用した信号処理装置の第2の実施の形態の構成を表している。図7の信号処理装置101は、奥行き情報抽出部21、奥行き制御処理部22−1乃至奥行き制御処理部22−3、混合(Mix)部23、再生スピーカ24−1乃至再生スピーカ24−3を備えている点は、図1の信号処理装置11と共通している。また、図7の信号処理装置101においては、図1の信号処理装置11と同様に、合成音像方式が用いられる。
一方、図7の信号処理装置101は、画像情報抽出部111および判定部112が追加された点が、図1の信号処理装置11と異なっている。すなわち、画像情報抽出部111には、奥行き制御処理部22−1乃至奥行き制御処理部22−3に入力される音声信号に対応する画像信号が入力される。
画像情報抽出部111は、画像信号の立体情報において、FL、FC、FRの対応する位置のどこに情報があって、その情報が前に飛び出しているか、奥にあるかなどの視差情報を分析することにより、奥行き情報を抽出する。画像情報抽出部111は、抽出した奥行き情報を、判定部112に供給する。
判定部112は、画像情報抽出部111からの奥行き情報と、奥行き情報抽出部21が音声信号から抽出した奥行き情報とを比較して、両者がほぼ合っていれば(大きく違っていなければ)、画像情報抽出部111からの奥行き情報を奥行き情報抽出部21に供給する。
奥行き情報抽出部21は、判定部112から奥行き情報が供給された場合、抽出した奥行き情報に加えて、奥行き制御処理部22−1乃至奥行き制御処理部22−3に供給する。すなわち、この例の場合、画像信号からの奥行き情報は補助的に用いられる。
なお、図7の例においては、判定部112を備えるようにしたが、判定部112はなくてもよく、この場合、奥行き情報抽出部21は、音声信号から抽出した奥行き情報を用いてもよいし、画像信号から抽出した奥行き情報を用いてもよい。その判断は、ユーザの設定に応じてなされることも可能である。また、音声信号から奥行き情報が抽出されなかった場合に、画像信号から抽出した奥行き情報を用いてもよい。
また、判定部112において、音声信号からの奥行き情報と画像信号からの奥行き情報のうち、精度のよいものを判定して用いるようにしてもよい。
なお、上記説明においては、合成音像方式において、実音源位置以外に、近距離定位仮想音源と遠距離定位仮想音源を形成する例を説明したが、近距離定位仮想音源だけであってもよいし、遠距離定位仮想音源だけであってもよい。
その場合、奥行き情報は、定位位置の近い側のものとして処理される。すなわち、例えば、実音源位置以外に、近距離定位仮想音源だけ形成される場合、定位処理は、実音源位置定位処理と近距離定位処理となるが、奥行き情報として遠距離定位指定のものがあったときには、実音源位置指定のものとして処理される。
また、上述した奥行き情報は、各chの奥行き情報を与えるものとする。上記説明においては、5.1ch(チャンネル)のうち、FL、FR、FCの各chを奥行き制御の対象の例を説明したが、これに限定されない。例えば、一般的な5.1ch(FL/FR/FC/SL/SR/SW)の場合は、FL/FR/FC/SL/SR/SWの各chについての奥行き情報としてもよい。
ただし、この奥行き情報は、必ずしも全てのchに与える必要はない。例えば、図7を参照して上述したように、画像の立体情報から音源の奥行き情報を抽出する場合には、画像情報のある位置(フロント側)に含まれるchのみについて奥行き情報が与えられることになるので、この場合、5.1chのうち、FL、FR、FCの各chについての奥行き情報が与えられるものとなる。
以上のように、奥行き情報をch毎に与えることで、信号処理をシンプルに構成することができる。従来の音声の5.1ch信号などは、通常、既にいろいろな音がミックスされてしまっているので、音源分離といった大規模な処理をしない限りは、chの奥行き情報だけでもリーズナブルに構成可能である。
また、上述したように、音の奥行き制御を行う信号処理部は、各chに固定させることができるので、信号処理リソースの見積もりが容易など、実用的側面でのメリットが大きい。
そして、本発明においては、このような各chの奥行き情報を利用し、各chの信号に対して奥行き制御処理を施すようにしたので、各chの音像位置を変更することができる。
したがって、映像の奥行き感に沿った音場感を簡単に提供することができる。また、コンテンツ制作者の意図に沿った音場感を提供することができる。
なお、上記説明においては、合成音像方式の例を説明したが、本発明は、他の音像方式の場合にも適用することができる。例えば、音像位置に応じてHRTF(Head-Related Transfer Function:頭部伝達関数)を変更する、いわゆるHRTF方式でもよい。
HRTF方式の場合、奥行き情報として、合成音像方式の混合比や減衰量の代わりに、音像定位の距離情報が与えられる。HRTF方式の場合、データベースを有しているので、距離に応じてデータベースから係数をとって、係数を切り替えて音像定位処理が行われる。
したがって、合成音像方式の場合、HRTF方式と比較して、データベースを持つ必要がないという利点がある。また、HRTF方式の場合、係数の切替タイミングにより音が切れる恐れもあるが、合成音像方式の場合には、その恐れがないという利点もある。
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な汎用のパーソナルコンピュータなどが含まれる。
[パーソナルコンピュータの構成例]
図8は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203は、バス204により相互に接続されている。
バス204には、さらに、入出力インタフェース205が接続されている。入出力インタフェース205には、入力部206、出力部207、記憶部208、通信部209、およびドライブ210が接続されている。
入力部206は、キーボード、マウス、マイクロホンなどよりなる。出力部207は、ディスプレイ、スピーカなどよりなる。記憶部208は、ハードディスクや不揮発性のメモリなどよりなる。通信部209は、ネットワークインタフェースなどよりなる。ドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア211を駆動する。
以上のように構成されるコンピュータでは、CPU201が、例えば、記憶部208に記憶されているプログラムを入出力インタフェース205及びバス204を介してRAM203にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU201)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア211に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア211をドライブ210に装着することにより、入出力インタフェース205を介して、記憶部208にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部209で受信し、記憶部208にインストールすることができる。その他、プログラムは、ROM202や記憶部208に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
11 信号処理装置, 21 奥行き情報抽出部, 22−1乃至22−3 奥行き制御処理部, 23 混合部, 24−1乃至24−3 再生スピーカ, 51 奥行き情報記憶部, 52 奥行き情報選択部, 53−1乃至53−3 減衰器, 54 固定位置遠距離定位処理部, 55 実音源位置定位処理部, 56 固定位置近距離定位処理部, 57−1乃至57−3 混合部, 71−1 帯域1抽出処理部, 71−2 帯域2抽出処理部, 71−3 帯域3抽出処理部, 72−1乃至72−3 混合部, 101 信号処理装置, 111 画像情報抽出部, 112 判定部

Claims (7)

  1. 音声信号の各チャンネルの周波数帯域毎の音像定位位置を決める情報に基づいて、前記各チャンネルの周波数帯域毎の音声信号に対して、音源位置の混合比に応じて混合した後、音像定位処理を行い、出力先毎に混合する音像定位処理手段と、
    前記音像定位処理手段により出力先毎に混合された前記各チャンネルの音声信号を混合する混合手段と
    を備える信号処理装置。
  2. 前記音像定位位置を決める情報は、音像定位をさせる所定の位置に対する重みの情報である
    請求項1に記載の信号処理装置。
  3. 前記各チャンネルの周波数帯域毎の音像定位位置を決める情報を記憶する記憶手段
    をさらに備え、
    前記音像定位処理手段は、前記記憶手段に記憶されている前記各チャンネルの周波数帯域毎の音像定位位置を決める情報に基づいて、前記各チャンネルの周波数帯域毎の音声信号に対して、音源位置の混合比に応じて混合した後、音像定位処理を行い、出力先毎に混合する
    請求項2に記載の信号処理装置。
  4. 前記音声信号に多重化された前記各チャンネルの周波数帯域毎の音像定位位置を決める情報を抽出する抽出手段
    をさらに備え、
    前記音像定位処理手段は、前記音声信号のチャンネル毎に、前記抽出手段に抽出された前記各チャンネルの周波数帯域毎の音像定位位置を決める情報に基づいて、前記各チャンネルの周波数帯域毎の音声信号に対して、音源位置の混合比に応じて混合した後、音像定位処理を行い、出力先毎に混合する
    請求項2に記載の信号処理装置。
  5. 前記音声信号に対応する画像信号における視差情報から、前記各チャンネルの周波数帯域毎の音像定位位置を決める情報を分析する分析手段
    をさらに備え、
    前記音像定位処理手段は、前記分析手段に分析された前記各チャンネルの周波数帯域毎の音像定位位置を決める情報に基づいて、前記各チャンネルの周波数帯域毎の音声信号に対して、音源位置の混合比に応じて混合した後、音像定位処理を行い、出力先毎に混合する
    請求項2に記載の信号処理装置。
  6. 音像定位処理手段と、混合手段とを備える信号処理装置の信号処理方法において、
    前記音像定位処理手段が、音声信号の各チャンネルの周波数帯域毎の音像定位位置を決める情報に基づいて、前記各チャンネルの周波数帯域毎の音声信号に対して、音源位置の混合比に応じて混合した後、音像定位処理を行い、出力先毎に混合し
    前記混合手段が、前記音像定位処理手段により出力先毎に混合された前記各チャンネルの音声信号を混合する
    信号処理方法。
  7. 音声信号の各チャンネルの周波数帯域毎の音像定位位置を決める情報に基づいて、前記各チャンネルの周波数帯域毎の音声信号に対して、音源位置の混合比に応じて混合した後、音像定位処理を行い、出力先毎に混合する音像定位処理手段と、
    前記音像定位処理手段により出力先毎に混合された前記各チャンネルの音声信号を混合する混合手段と
    してコンピュータを機能させるためのプログラム。
JP2010080517A 2010-03-31 2010-03-31 信号処理装置および方法、並びにプログラム Expired - Fee Related JP5672741B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010080517A JP5672741B2 (ja) 2010-03-31 2010-03-31 信号処理装置および方法、並びにプログラム
US13/069,233 US9661437B2 (en) 2010-03-31 2011-03-22 Signal processing apparatus, signal processing method, and program
CN201110077505.4A CN102209288B (zh) 2010-03-31 2011-03-24 信号处理设备和信号处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010080517A JP5672741B2 (ja) 2010-03-31 2010-03-31 信号処理装置および方法、並びにプログラム

Publications (3)

Publication Number Publication Date
JP2011216963A JP2011216963A (ja) 2011-10-27
JP2011216963A5 JP2011216963A5 (ja) 2013-04-25
JP5672741B2 true JP5672741B2 (ja) 2015-02-18

Family

ID=44697915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010080517A Expired - Fee Related JP5672741B2 (ja) 2010-03-31 2010-03-31 信号処理装置および方法、並びにプログラム

Country Status (3)

Country Link
US (1) US9661437B2 (ja)
JP (1) JP5672741B2 (ja)
CN (1) CN102209288B (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9392251B2 (en) * 2011-12-29 2016-07-12 Samsung Electronics Co., Ltd. Display apparatus, glasses apparatus and method for controlling depth
ITTO20120274A1 (it) * 2012-03-27 2013-09-28 Inst Rundfunktechnik Gmbh Dispositivo per il missaggio di almeno due segnali audio.
EP2923502A4 (en) * 2012-11-20 2016-06-15 Nokia Technologies Oy DEVICE FOR ROOM ENHANCEMENT
MX363415B (es) 2014-07-22 2019-03-22 Huawei Tech Co Ltd Un metodo y aparato para manipular una señal de audio de entrada.
SG11202009081PA (en) 2018-04-09 2020-10-29 Sony Corp Information processing device and method, and program
JP2020170939A (ja) * 2019-04-03 2020-10-15 ヤマハ株式会社 音信号処理装置、及び音信号処理方法

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5317283B2 (ja) * 1973-03-07 1978-06-07
US4188504A (en) * 1977-04-25 1980-02-12 Victor Company Of Japan, Limited Signal processing circuit for binaural signals
JP2871387B2 (ja) * 1992-07-27 1999-03-17 ヤマハ株式会社 音像定位装置
US5796843A (en) * 1994-02-14 1998-08-18 Sony Corporation Video signal and audio signal reproducing apparatus
JPH07319487A (ja) * 1994-05-19 1995-12-08 Sanyo Electric Co Ltd 音像制御装置
JP3276528B2 (ja) * 1994-08-24 2002-04-22 シャープ株式会社 音像拡大装置
JP3796776B2 (ja) * 1995-09-28 2006-07-12 ソニー株式会社 映像音声再生装置
GB9603236D0 (en) * 1996-02-16 1996-04-17 Adaptive Audio Ltd Sound recording and reproduction systems
JP3498888B2 (ja) * 1996-10-11 2004-02-23 日本ビクター株式会社 サラウンド信号処理装置と方法及び映像音声再生方法、記録媒体への記録方法及び記録装置、記録媒体、処理プログラムの伝送方法及び受信方法、並びに記録データの伝送方法及び受信方法
JP3900208B2 (ja) * 1997-02-06 2007-04-04 ソニー株式会社 音響再生方式および音声信号処理装置
JPH1146400A (ja) * 1997-07-25 1999-02-16 Yamaha Corp 音像定位装置
FI116990B (fi) * 1997-10-20 2006-04-28 Nokia Oyj Menetelmä ja järjestelmä akustisen virtuaaliympäristön käsittelemiseksi
JP3657120B2 (ja) * 1998-07-30 2005-06-08 株式会社アーニス・サウンド・テクノロジーズ 左,右両耳用のオーディオ信号を音像定位させるための処理方法
JP3330879B2 (ja) * 1998-10-02 2002-09-30 国土交通省関東地方整備局長 色検知機能を利用した対物認証システム
JP4264686B2 (ja) * 2000-09-14 2009-05-20 ソニー株式会社 車載用音響再生装置
JP3646657B2 (ja) * 2001-02-23 2005-05-11 ソニー株式会社 ディジタル信号処理装置及びディジタル信号処理方法、並びに1ビット信号生成装置
FR2847376B1 (fr) * 2002-11-19 2005-02-04 France Telecom Procede de traitement de donnees sonores et dispositif d'acquisition sonore mettant en oeuvre ce procede
EP1548683B1 (en) * 2003-12-24 2010-03-17 Pioneer Corporation Notification control device, system and method
JP4501559B2 (ja) * 2004-07-07 2010-07-14 ヤマハ株式会社 スピーカ装置の指向性制御方法およびオーディオ再生装置
KR100725818B1 (ko) * 2004-07-14 2007-06-11 삼성전자주식회사 최적 가상음원을 제공하는 음향재생장치 및 음향재생방법
KR100608002B1 (ko) * 2004-08-26 2006-08-02 삼성전자주식회사 가상 음향 재생 방법 및 그 장치
JP2006203850A (ja) * 2004-12-24 2006-08-03 Matsushita Electric Ind Co Ltd 音像定位装置
JP2007019907A (ja) * 2005-07-08 2007-01-25 Yamaha Corp 音声伝達システム、および通信会議装置
JP4983012B2 (ja) * 2005-12-08 2012-07-25 ヤマハ株式会社 楽曲再生において立体音響効果を付加する装置およびプログラム
CN1993002B (zh) * 2005-12-28 2010-06-16 雅马哈株式会社 声像定位设备
JP4914124B2 (ja) * 2006-06-14 2012-04-11 パナソニック株式会社 音像制御装置及び音像制御方法
JP4946305B2 (ja) * 2006-09-22 2012-06-06 ソニー株式会社 音響再生システム、音響再生装置および音響再生方法
KR100862663B1 (ko) * 2007-01-25 2008-10-10 삼성전자주식회사 입력되는 신호를 공간상의 위치로 음상 정위하는 방법 및장치
JP5114981B2 (ja) * 2007-03-15 2013-01-09 沖電気工業株式会社 音像定位処理装置、方法及びプログラム
JP4722878B2 (ja) * 2007-04-19 2011-07-13 ソニー株式会社 ノイズ低減装置および音響再生装置
TW200930594A (en) * 2008-01-14 2009-07-16 Sunplus Technology Co Ltd Automotive virtual surround audio system
JP4780119B2 (ja) * 2008-02-15 2011-09-28 ソニー株式会社 頭部伝達関数測定方法、頭部伝達関数畳み込み方法および頭部伝達関数畳み込み装置
JP2009206691A (ja) * 2008-02-27 2009-09-10 Sony Corp 頭部伝達関数畳み込み方法および頭部伝達関数畳み込み装置
JP5174527B2 (ja) * 2008-05-14 2013-04-03 日本放送協会 音像定位音響メタ情報を付加した音響信号多重伝送システム、制作装置及び再生装置
CN101350931B (zh) 2008-08-27 2011-09-14 华为终端有限公司 音频信号的生成、播放方法及装置、处理系统
US20100260360A1 (en) * 2009-04-14 2010-10-14 Strubwerks Llc Systems, methods, and apparatus for calibrating speakers for three-dimensional acoustical reproduction
JP5499513B2 (ja) * 2009-04-21 2014-05-21 ソニー株式会社 音響処理装置、音像定位処理方法および音像定位処理プログラム
JP5274359B2 (ja) * 2009-04-27 2013-08-28 三菱電機株式会社 立体映像および音声記録方法、立体映像および音声再生方法、立体映像および音声記録装置、立体映像および音声再生装置、立体映像および音声記録媒体
JP5540581B2 (ja) * 2009-06-23 2014-07-02 ソニー株式会社 音声信号処理装置および音声信号処理方法

Also Published As

Publication number Publication date
CN102209288B (zh) 2015-11-25
CN102209288A (zh) 2011-10-05
JP2011216963A (ja) 2011-10-27
US9661437B2 (en) 2017-05-23
US20110243336A1 (en) 2011-10-06

Similar Documents

Publication Publication Date Title
AU2018236694B2 (en) Audio providing apparatus and audio providing method
CN104919820B (zh) 双耳音频处理
JP5672741B2 (ja) 信号処理装置および方法、並びにプログラム
AU2007212873B2 (en) Method for encoding and decoding object-based audio signal and apparatus thereof
KR102258784B1 (ko) 음향 신호의 렌더링 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
CN104054126A (zh) 空间音频渲染和编码
TW201246060A (en) Audio spatialization and environment simulation
CN104756524A (zh) 用于创造音频系统中的邻近音响效果的设备和方法
JP2006025439A (ja) 立体音響を生成する装置及び方法(ApparatusandMethodforCreating3DSound)
JP2006033847A (ja) 最適な仮想音源を提供する音響再生装置及び音響再生方法
JP2018201224A (ja) オーディオ信号レンダリング方法及び装置
JP5787128B2 (ja) 音響システム、音響信号処理装置および方法、並びに、プログラム
WO2008084436A1 (en) An object-oriented audio decoder
WO2019229300A1 (en) Spatial audio parameters
CN111492674A (zh) 在3d音频解码器中处理单声道信号以传送双耳内容
Melchior et al. Emerging technology trends in spatial audio
KR20070081735A (ko) 오디오 신호의 인코딩/디코딩 방법 및 장치
KR100942143B1 (ko) 기존 오디오 포맷의 오디오 장면 정보를 유지하는 wfs재생 방법 및 그 장치
KR102380232B1 (ko) 입체 음향 재생 방법 및 장치
KR102559015B1 (ko) 공연과 영상에 몰입감 향상을 위한 실감음향 처리 시스템
KR102443055B1 (ko) 입체 음향 재생 방법 및 장치
US12008998B2 (en) Audio system height channel up-mixing
KR20190079993A (ko) 입체 음향 컨텐츠 저작 방법 및 이를 위한 어플리케이션
KR101758914B1 (ko) 음장 합성 신호의 다운 믹싱 장치 및 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130308

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141215

R151 Written notification of patent or utility model registration

Ref document number: 5672741

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees