JP6074899B2 - 音データ処理装置 - Google Patents

音データ処理装置 Download PDF

Info

Publication number
JP6074899B2
JP6074899B2 JP2012069628A JP2012069628A JP6074899B2 JP 6074899 B2 JP6074899 B2 JP 6074899B2 JP 2012069628 A JP2012069628 A JP 2012069628A JP 2012069628 A JP2012069628 A JP 2012069628A JP 6074899 B2 JP6074899 B2 JP 6074899B2
Authority
JP
Japan
Prior art keywords
sound data
sound
mixing
delay
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012069628A
Other languages
English (en)
Other versions
JP2013201669A (ja
Inventor
広臣 四童子
広臣 四童子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2012069628A priority Critical patent/JP6074899B2/ja
Priority to US14/387,796 priority patent/US9439018B2/en
Priority to PCT/JP2013/058548 priority patent/WO2013146665A1/ja
Publication of JP2013201669A publication Critical patent/JP2013201669A/ja
Application granted granted Critical
Publication of JP6074899B2 publication Critical patent/JP6074899B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/07Applications of wireless loudspeakers or wireless microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/07Generation or adaptation of the Low Frequency Effect [LFE] channel, e.g. distribution or signal processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • H04S5/02Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation  of the pseudo four-channel type, e.g. in which rear channel signals are derived from two-channel stereo signals

Description

この発明は、複数のスピーカに対し音データを供給する技術に関する。
ユーザが音響コンテンツや音声付き映像コンテンツを音空間内で楽しむ際、望ましい音場を作り上げるために、複数のチャンネルの音を複数のスピーカから各々放音するスピーカシステムが用いられることが多い。
例えば、2.1チャンネルのスピーカシステムは、ステレオの音場の生成に用いられる主にフロント左チャンネル(以下、「Lch」という)の音を放音するためのフロント左スピーカ(以下、「Lsp」という)と、主にフロント右チャンネル(以下、「Rch」という)の音を放音するためのフロント右スピーカ(以下、「Rsp」という)に加え、低周波数帯域の成分を多く含む低音域チャンネル(以下、「LFEch」という。なお、「LFE」はLow-Frequency Effectの意)の音を放音するためのサブウーファー(以下、「SW」という)を備える。
なお、SWはLspおよびRspと比較し、低周波数帯域における放音能力が優れたスピーカである。また、LspおよびRspで構成される2チャンネルのスピーカシステムにSWを加えたスピーカシステムを2.1チャンネルのスピーカシステムと称するのは、SWが放音可能な周波数帯域がLspおよびRspと比較して狭く、またSWから放音される低周波数帯域の音は音場における音の定位感にあまり影響を与えずチャンネルとしての独立性が乏しいため、それを0.1とカウントするためである。
また近年では、より自然な音場の生成のために、5.1チャンネル、7.1チャンネル、9.1チャンネルなどのように、チャンネル数がより多いサラウンドシステムが普及しつつある。
多チャンネルのサラウンドシステムにおいて望ましい音場を作り出すための技術として、例えば特許文献1には、SWを含むスピーカシステム(例えば、5.1チャンネル)を用いて、LFEchを含まない音響コンテンツ(例えば、5チャンネル)の再生を行う場合にSWから放音される音が他のスピーカ(メインスピーカ)から放音される音に対して発生する遅延を解消するために、メインスピーカに出力される音データにディレイによる遅延を加える技術が記載されている。
特開2005−27163号公報
近年、ワイヤレスのSWが普及しつつある。SWは聴者の音の定位感にあまり影響を与えない低周波数帯域の音を放音するため、音空間内における配置位置が音場に対しあまり影響を与えない。そのため、メインスピーカと比べ大型である傾向のあるSWは音空間内の邪魔にならない位置に自由に配置したい、というニーズがある。そのニーズに応えるため、SWのワイヤレス化が進んでいる。
プレーヤからメインスピーカにはケーブルを用いた有線接続による音データの伝送が行われ、プレーヤからSWには電波を用いた無線接続による音データの伝送が行われると、一般的に無線接続による伝送速度は有線接続による伝送速度よりも遅いため、メインスピーカから放音される音とSWから放音される音との間にタイミングのずれが生じる。
異なるチャンネルの音の間にタイミングのずれが生じると、聴者が違和感を感じるため望ましくない。有線接続されたメインスピーカに対する音データの出力タイミングを遅らせれば、チャンネル間のタイミングのずれを解消することができる。しかしながら、その場合、プレーヤからAVアンプ等に出力されたタイミングから実際にスピーカから音が放音されるまでの時間が長くなり、例えば音響コンテンツが映像を伴う場合、ディスプレイに表示される映像よりも音が遅れて再生される、といった不都合を生じる。
同様の問題は、例えばサラウンドシステムの多チャンネル化に伴い、プレーヤから離れた位置に配置されるスピーカをワイヤレス化した場合や、サブウーファ内蔵のAVアンプからワイヤレス化されたメインスピーカに音データの送信が行われる場合などにも生じる。
本発明は、上記の事情に鑑み、複数のチャンネルの音が伝送速度の異なる伝送経路を介して伝送される際に生じるチャンネル間の音のずれを解消するとともに従来技術による場合と比較し音データの入力から放音までの時間の遅延を低減することで、聴者にとって違和感の少ない音場を提供することを目的とする。
上記課題を解決するため、本発明は、第1の音を示す第1の音データの入力を受ける第1の入力手段と、第2の音を示す第2の音データの入力を受ける第2の入力手段と、前記第1の音データもしくは前記第1の音データを用いて生成された音データと、前記第2の音データもしくは前記第2の音データを用いて生成された音データとをミキシングしたミキシング音データを生成するミキシング手段と、前記第1の音データもしくは前記第1の音データを用いて生成された音データであって、前記ミキシング手段によるミキシングを経ていない音データを第1のスピーカに対し出力する第1の出力手段と、前記ミキシング手段によりミキシングされた音データを第2のスピーカに対し出力する第2の出力手段と、前記ミキシング手段に入力される音データの分岐点の後段かつ前記第1の出力手段の前段、または前記ミキシング手段の後段かつ前記第2の出力手段の前段に設けられ、音データに対して音響効果を付加する所定の処理を行う処理手段と、記第1の出力手段から出力される音データの前記第1のスピーカへの入力と前記第2の出力手段から出力される音データの前記第2のスピーカへの入力のタイミングの関係が、前記第1の入力手段における前記第1の音データと前記第2の入力手段における前記第2の音データの入力のタイミングの関係と一致するように音データを遅延させる1以上のディレイとを備えるデータ処理装置であって、前記1以上のディレイの全ては、前記ミキシング手段に入力される音データの分岐点の後段かつ第1の出力手段の前段、または前記ミキシング手段の後段かつ前記第2の出力手段の前段に設けられている音データ処理装置を提供する。
そのような音データ処理装置によれば、ミキシング処理を経た音データとミキシング処理を経ない音データの各々がミキシングポイントの後段においてスピーカに入力されるまでに要する時間が異なる場合であっても、ディレイによる遅延処理によりそれらの音の放音におけるタイミングのずれが回避される。その際、ミキシングポイントの後段においてミキシングを経た音データおよびミキシングを経ない音データの少なくとも一方に対し行われる音響効果を付加する処理に要する時間の少なくとも一部と、ミキシングポイントの後段においてそれらの音データがスピーカに入力されるまでに要する時間の少なくとも一部が相殺される結果、システム全体としての遅延が低減される。
また、上記の音データ処理装置において、前記第2の出力手段により出力される音データの伝送速度は前記第1の出力手段により出力される音データの伝送速度よりも遅く、前記処理手段は前記ミキシング手段に入力される音データの分岐点の後段かつ前記第1の出力手段の前段に設けられている、という構成が採用されてもよい。
さらに、そのような音データ処理装置において、前記第2の出力手段は無線により音データを出力する、という構成が採用されてもよい。
もしくは、上記の音データ処理装置において、前記第1の出力手段により出力される音データの伝送速度は前記第2の出力手段により出力される音データの伝送速度よりも遅く、前記処理手段は前記ミキシング手段の後段かつ前記第2の出力手段の前段に設けられている、という構成が採用されてもよい。
さらに、そのような音データ処理装置において、前記第1の出力手段は無線により音データを出力する、という構成が採用されてもよい。
それらの音データ処理装置によれば、一方の出力手段から出力された音データがスピーカに入力されるまでに要する遅延時間と、他方の出力手段から出力される音データに対し行われる音響効果を付加する処理に要する時間とが相殺されるため、システム全体としての遅延が低減される。
第1実施形態にかかるAVシステムの構成を示した図である。 第2実施形態にかかるAVシステムの構成を示した図である。 一変形例における音データ処理装置の機能構成の一部を示した図である。 一変形例における音データ処理装置の機能構成の一部を示した図である。 一変形例における音データ処理装置の機能構成の一部を示した図である。 一変形例における音データ処理装置の構成を示した図である。 従来技術にかかるサウンドシステムの構成を示した図である。
[従来技術]
本発明の一実施形態にかかるサラウンドシステムの説明に先立ち、まず従来技術にかかるサウンドシステム9を図7を用いて説明する。
図7に示されるサウンドシステム9において、プレーヤ91はサウンドシステム9が配置された音空間において再生されるべき2.1チャンネルの音響コンテンツを示す音響データを記録媒体から順次読み出し、HDMI(High-Definition Multimedia Interface)(登録商標)規格に従ったフォーマットで、その音響データを音データ処理装置92に対し出力する。
音データ処理装置92が備えるHDMIレシーバ121は、プレーヤ91から入力される音響データを受け取り、音データ処理装置92が備えるDSP群122に引き渡す。
DSP群122は、制御部129の制御の下でデコーダ1221等の音データを処理する各種機能部として機能する。
デコーダ1221は、HDMIレシーバ121から引き渡された音響データをデコードし、2.1チャンネル、すなわちLch、RchおよびLFEchの3つのチャンネルの音データを生成する。デコーダ1221は、LchおよびRchの音データを各々、処理部1222Lおよび処理部1222Rに引き渡す。
処理部1222Lおよび処理部1222Rは、例えばFIR(Finite Impulse Response)フィルタ処理などの、LchおよびRchの音に対し各種音響効果を付加するための処理を行う。
処理部1222Lおよび処理部1222Rにおいて各種音響効果の付された音データは、ハイパスフィルタ1223Lおよびハイパスフィルタ1223Rに引き渡される。ハイパスフィルタ1223Lおよびハイパスフィルタ1223Rは、カットオフ周波数が例えば500Hzのハイパスフィルタであり、カットオフ周波数以下の周波数帯域の成分を減衰させた音データを生成する。
また、デコーダ1221は、HDMIレシーバ121から引き渡された音響データのデコードにより生成したLFEchの音データをディレイ1224に引き渡す。ディレイ1224は、処理部1222Lおよび処理部1222RがLchおよびRchの音データを処理する際に生じる遅延時間だけ、LFEchの音データのミキシング処理部1225に対する引き渡しを遅延させる。
処理部1222Lおよび処理部1222Rは、音響効果を付加したLchおよびRchの音データを上述したようにハイパスフィルタ1223Lおよびハイパスフィルタ1223Rに引き渡すと同時に、それらの音データをミキシング処理部1225にも引き渡す。また、ディレイ1224はデコーダ1221から引き渡されたLFEの音データを、上述した遅延時間の経過の後、ミキシング処理部1225に引き渡す。
ミキシング処理部1225は、処理部1222L、処理部1222Rおよびディレイ1224から受け取ったLch、RchおよびLFEの音データをミキシングし、ミキシング音データを生成する。
ここで、ディレイ1224によりLFEの音データがミキシング処理部1225に引き渡されるタイミングが処理部1222Lおよび処理部1222Rの処理に要する時間だけ遅らされる理由は、ミキシングされる音データにより示される異なるチャンネルの音のタイミングの関係が、HDMIレシーバ121がプレーヤ91から取得した音響データに含まれる音データが示すそれらの音のタイミングの関係(以下、「本来のタイミングの関係」という)からずれないようにするためである。従って、ディレイ1224のディレイタイムは、処理部1222Lおよび処理部1222Rの処理に要する時間に応じて変化する。
また、ミキシング処理部1225においてLFEの音データにLchおよびRchの音データをミキシングする目的は、LchおよびRchの音に含まれる成分のうち、Lsp13およびRsp14が十分に放音できない500Hz以下の成分をSW15に放音させるための音データを生成することである。
このように、メインスピーカで放音が困難な低周波数帯域の成分をウーファに放音させるために音データのミキシングを行う処理はバスマネジメントと呼ばれる。バスマネジメントにおいては、ミキシング処理においてミキシング対象の異なるチャンネルの音データのタイミングの関係を本来のタイミングの関係とする必要がある。ディレイ1224はそのために設けられている。
ところで、上記のようなバスマネジメントが必要とされる背景には、近年のメインスピーカの小型化がある。例えば、液晶テレビの薄型化と大画面化に伴い、液晶テレビに内蔵されたり、液晶テレビを載置するラックの下などに配置されたりするメインスピーカは、スペース的な制約から小型のものが好まれる。
スピーカは小型化されると、低周波数帯域の放音能力が低下する。そのため、本来は100Hz以上の周波数帯域の音の放音を担うべきメインスピーカが小型化されるに伴い、例えば500Hz以上の周波数帯域の音しか十分に放音できない、という状況が生じている。
一方、スピーカシステムにおいて再生される音響データに含まれるメインスピーカ用の音データは100Hz以上の周波数帯域の成分を含んでいる。これは、一般的な聴者は概ね100Hz以上の周波数帯域の音に定位を感じることができるため、100Hz以上の周波数帯域の音は然るべき位置に配置されたメインスピーカにより放音されることが望ましいためである。
従って、小型化されたメインスピーカを用いる場合、そのままでは、例えば100Hz〜500Hzの周波数帯域の音がメインスピーカにより十分に放音されない、という問題が生じる。そこで、メインスピーカ用の音データをSW用の音データにミキシングし、ローパスフィルタにより低周波数成分を取り出してSWに出力することで、100Hz〜500Hzの周波数帯域の音の欠落を回避することが行われる。バスマネジメントは、そのために必要なミキシング処理および周波数帯域の分離処理である。
図7に戻り、サウンドシステム9の説明を続ける。ミキシング処理部1225は生成したミキシング音データをローパスフィルタ1226に引き渡す。ローパスフィルタ1226は、カットオフ周波数が例えば500Hzのローパスフィルタであり、カットオフ周波数以下上の周波数帯域の成分を減衰させた音データを生成する。なお、ローパスフィルタ1226の次数はハイパスフィルタ1223Lおよびハイパスフィルタ1223Rの次数と同じであり、これらのフィルタの処理に伴う遅延時間は同一である。そのため、これらのフィルタ処理によりチャンネル間のタイミングのずれは生じない。
上記のように、DSP群122により処理の行われたLchおよびRchの音データは、ハイパスフィルタ1223Lおよびハイパスフィルタ1223Rからディレイ1227Lおよびディレイ1227Rに引き渡される。ディレイ1227Lおよびディレイ1227Rは、音データ処理装置92からLsp13およびRsp14への音データの伝送経路(有線データ通信経路)と音データ処理装置92からSW15への音データの伝送経路(無線データ通信経路)との伝送時間の差だけ、音データ処理装置92からLsp13およびRsp14に対する音データの出力タイミングを遅らせる。なお、ディレイ1227のディレイタイムは通常、変化することはない。
ディレイ1227Lおよびディレイ1227Rは、上記のように出力タイミングを遅らせて、音データをDAコンバータ123LおよびDAコンバータ123Rに引き渡す。DAコンバータ123は引き渡された音データ(デジタルデータ)をアナログの音データに変換し、アンプ124Lおよびアンプ124Rに出力する。
アンプ124Lおよびアンプ124Rは、DAコンバータ123から入力された音データをスピーカ駆動レベルまで増幅した後、音データ処理装置92にケーブルで接続されているLsp13およびRsp14に出力する。Lsp13およびRsp14は音データ処理装置92から入力された音データに応じて、LchおよびRchの音を音空間に対し放音する。なお、Lsp13およびRsp14は小型のスピーカであり、500Hz以下の音の放音能力が乏しい。
一方、DSP群122により処理の行われたミキシング音データは、ローパスフィルタ1226からトランスミッタ125に引き渡される。トランスミッタ125は引き渡されたミキシング音データを電波によりSW15に対し送信する。
SW15は、Lsp13およびRsp14と比べ大型で、500Hz以下の周波数帯域を含む低周波数帯域の音の放音能力が優れている。SW15はレシーバ151を備え、音データ処理装置92のトランスミッタ125から無線で送信されてくるミキシング音データを受信する。
レシーバ151は受信したミキシング音データをDAコンバータ152に引き渡す。DAコンバータ123は引き渡されたミキシング音データ(デジタルデータ)をアナログの音データに変換し、アンプ153に出力する。アンプ153は、DAコンバータ152から入力された音データをスピーカ駆動レベルまで増幅する。アンプ153はアンプ153により増幅した音データに応じて、LchおよびRchの音の低周波数帯域の成分がミキシングされたLFEの音を音空間に対し放音する。
Lsp13、Rsp14およびSW15から放音された音は、ディレイ1227Lおよびディレイ1227Rによるタイミング調整のための遅延処理によって、聴者Aに本来のタイミングの関係で到達する。その結果、聴者Aはメインスピーカから放音される音とサブウーファから放音される音の間の放音タイミングのずれを感じることなく、プレーヤ91により再生される音響コンテンツを快適に楽しむことができる。
ただし、サウンドシステム9による場合、プレーヤ91から音データが入力されてから音空間内に音が放音されるまでのタイムラグが長い。ミキシング処理部1225に入力される音データのタイミングを調整するためのディレイ1224のディレイタイムと、メインスピーカおよびサブウーファへの音データの伝送時間によるタイミングのずれを解消するためのディレイ1227Lおよびディレイ1227Rによるディレイタイムが伴うためである。従って、音響コンテンツのみを再生する場合はさほどの問題を伴わないが、例えば映像を伴う音響コンテンツ(AVコンテンツ)の再生にサウンドシステム9を用いた場合、以下のような不都合が生じる。
まず、映像と音の間にタイミングのずれが生じる、という問題である。多くのプレーヤは音の発音タイミングに映像の表示タイミングを合わせるために映像信号の出力を遅延させる機能を備えていない。その場合、聴者Aは映像に対する音の遅れを感じてしまい、AVコンテンツを快適に楽しむことができない、といった状況が生じる場合がある。
また、一部のプレーヤはリップシンクと呼ばれる機能を持ち、映像信号と音信号のいずれかの出力タイミングを遅延させることにより、同じAVコンテンツに含まれる映像の表示タイミングと音の発音タイミングのタイムラグを低減させることができる。しかしながら、その場合であっても、例えば音を用いたゲームや対戦型ゲームのように、インタラクティブでリアルタイム性が重視されるゲームのAVコンテンツを表示および放音する場合、ユーザの操作のタイミングとその操作に対する応答としての表示や発音のタイミングとの間に、ユーザに認識される程のタイムラグが生じると、やはりユーザはそのAVコンテンツを快適に楽しむことができない。そのため、音データ処理装置における遅延を出来るだけ小さくする必要がある。
[第1実施形態]
続いて、本発明の第1実施形態にかかるAVシステム1を説明する。AVシステム1は、サウンドシステム9と同様に異なるチャンネルの音の間にタイミングのずれを伴わないにもかかわらず、音響コンテンツの再生に伴うシステム遅延が短くなるようにその構成に改善が加えられている。
図1は、AVシステム1の構成を示した図である。なお図1において、サウンドシステム9と共通の構成部には同じ符号が用いられている。
AVシステム1が備える音データ処理装置12においては、処理部1222Lおよび処理部1222Rが音データ処理装置92における位置、すなわちデコーダ1221からミキシング処理部1225へと向かうLchおよびRchの音データの伝送経路上にではなく、ミキシング処理部1225への音データの分岐点からLsp13およびRsp14へと向かう音データの伝送経路上に配置されている。
すなわち、図1に示される例では、処理部1222Lはハイパスフィルタ1223Lの後ろ側に、また処理部1222Rはハイパスフィルタ1223Rの後ろ側に、各々配置されている。
ここで、処理部1222Lおよび処理部1222Rは、Lsp13およびRsp14から放音される音に関しては効果が高く、SW15から放音される音に関しては効果が低い音響効果を付加する処理を行う。そのため、処理部1222Lおよび処理部1222Rがミキシング処理部1225への分岐点より後ろ側に配置されても、AVシステム1により実現される音場にはあまり影響がない。
また、音データ処理装置12においてはディレイ1224が設けられていない。その理由は以下のとおりである。サウンドシステム9において、仮にディレイ1224が設けられなければ、LchおよびRchの音データは処理部1222Lおよび処理部1222Rの処理に要する時間だけ、そのような処理を伴わないLFEchの音データよりも遅れてミキシング処理部1225に入力される。しかしながら、ミキシング処理部1225においては各チャンネルの音データのタイミングが本来のタイミングの関係と一致しなければならない、という条件がある。そこで、LFEchの音データがLchおよびRchの音データと本来のタイミングの関係でミキシング処理部1225に入力されるように、ディレイ1224がLFEchの音データに対し処理遅延を行う。ディレイ1224はそのために設けられていた。
これに対し、AVシステム1においてはミキシング処理部1225に入力される前のLchおよびRchの音データには処理部1222Lおよび処理部1222Rの処理が伴わないため、ミキシング処理部1225に入力される際にLFEchの音データと比べ遅延を伴わず、従って、ディレイ1224が不要となっている。
上記のような構成を備えるため、AVシステム1がプレーヤ11による再生処理から実際に音を放音するまでに要する遅延時間は、サウンドシステム9と比べ短い。ディレイ1224による遅延が不要となるとともに、トランスミッタ125からレシーバ151への音データの無線送信に伴う遅延時間の一部が、処理部1222Lおよび処理部1222Rの処理に伴う遅延時間と相殺されるためである。
以下に具体例を用いて説明する。例えば、処理部1222Lおよび処理部1222Rの処理に伴う遅延時間が30ミリ秒であり、トランスミッタ125からレシーバ151への音データの無線による送信に伴う遅延時間が50ミリ秒であるものとする。
従来技術にかかる音データ処理装置92(図7)による場合、上記の条件下では、ディレイ1224のディレイタイムは処理部1222Lおよび処理部1222Rの処理に伴う遅延時間と同じ30ミリ秒、ディレイ1227のディレイタイムは無線送信に伴う遅延時間と同じ50ミリ秒となる。従って、サウンドシステム9がチャンネル間のタイミングのずれを補正するために要するディレイタイムの合計は80ミリ秒となる。
一方、本発明の第1実施形態にかかる音データ処理装置12(図1)による場合、上記の条件下では、ディレイ1227のディレイタイムを、無線送信に伴う遅延時間である50ミリ秒から、処理部1222Lおよび処理部1222Rの処理に伴う遅延時間である30ミリ秒を差し引いた20ミリ秒とすることとができる。AVシステム1においてはディレイ1224が不要であるため、AVシステム1がチャンネル間のタイミングのずれを補正するために要するディレイタイムの合計は20ミリ秒となる。このように、AVシステム1において要するディレイタイムがサウンドシステム9において要するディレイタイムと比べ短くなるのは、SW15に対し出力される音データの無線送信に伴う遅延時間(50ミリ秒)の一部(30ミリ秒)が、LspおよびRspに対し出力される音データのために行われる処理部1222Lおよび処理部1222Rの処理に伴う遅延時間(30ミリ秒)と相殺されるためである。
この場合、従来技術にかかる音データ処理装置92と本発明の第1実施形態にかかる音データ処理装置12の構成は、上述した点以外は同様であるため、AVシステム1が音の放音に要するシステム全体の遅延時間は、サウンドシステム9が音の放音に要するシステム全体の遅延時間と比べ、60ミリ秒だけ短くなる。
また、AVシステム1はディスプレイ16を備えている。AVシステム1が備えるプレーヤ11は、音声付き映像コンテンツの再生が可能であり、例えばHDMIケーブル等により映像データをディスプレイ16に出力する。ディスプレイ16はプレーヤ11から入力される映像データに従い、映像の表示を行う。
映像の表示を伴うシステムにおいては、一般的に音声の放音タイミングと映像の表示タイミングとの関係が本来の関係から50ミリ秒以上ずれると視聴者が違和感を感じるようになる。そのため、音の放音に要する時間が例えば60ミリ秒短縮されるならば、視聴者に与える効果は甚大である。
仮に映像の表示に要する時間が20ミリ秒であり、音の放音に要する時間がタイミングのずれ防止のためのディレイタイムを除いて同じく20ミリ秒であったとする。その場合、音データ処理装置92の構成によれば映像と音のずれは80ミリ秒となり、多くの視聴者にとって違和感を感じさせるものとなる。一方、音データ処理装置12の構成によれば映像と音のずれは20ミリ秒となるため、多くの視聴者にとって知覚されにくくなり望ましい。
ところで、音データ処理装置12においては、例えばユーザの操作に応じて、制御部129の制御の下で処理部1222Lおよび処理部1222Rが様々な異なる処理を行う。処理部1222Lおよび処理部1222Rが行う処理の例としては、例えば、シネマモード、ミュージックモード、ナイトモードなどの音響効果を音データに付与する処理などがある。
処理部1222Lおよび処理部1222Rが行う処理の内容が変われば、当然ながらその処理に要する遅延時間も変化する。制御部129は処理部1222Lおよび処理部1222Rに対し処理内容の変更を指示する際、変更後の処理部1222Lおよび処理部1222Rの処理に要する遅延時間を無線送信に要する遅延時間から差し引いた時間を新たなディレイタイムとしてディレイ1227Lおよびディレイ1227Rに指示する。その結果、処理部1222Lおよび処理部1222Rの処理内容が変わっても、LspおよびRspから放音される音と、SW15から放音される音の間にタイミングのずれが生じることはない。
[第2実施形態]
続いて、本発明の第2実施形態にかかるAVシステム2を説明する。AVシステム2は、AVシステム1に対し、リップシンク処理を可能とする構成を加えたものである。
図2に示すように、AVシステム2の音データ処理装置22は、音データ処理装置22が音の放音に要する遅延時間を示す遅延時間データをプレーヤ21に送信するHDMIトランスミッタ221(遅延時間データ送信部)を備えている。
また、AVシステム2のプレーヤ21は、音データ処理装置22から送信されてくる遅延時間データを受信する遅延時間データ受信部211と、リップシンク処理部212を備えている。
リップシンク処理部212は、遅延時間データ受信部211が受信した遅延時間データにより示される遅延時間に応じたディレイタイムだけディスプレイ16に対する映像データの送信タイミングを遅延させることで、ディスプレイ16による映像の表示タイミングと、Lsp13、Rsp14およびSW15による音の放音タイミングとの関係を、本来のタイミングと一致させる。
音データ処理装置12と同様に、音データ処理装置22においても、例えばユーザの操作に応じて、制御部129の制御の下で処理部1222Lおよび処理部1222Rが異なる処理を行うことで、シネマモード、ミュージックモード、ナイトモードなど、異なる音響効果の付された音データの生成が行われる。
制御部129はモードの変更を行う際、変更後のモードに応じた音データ処理装置22におけるシステム遅延時間を示す遅延時間データを生成し、HDMIトランスミッタ221に引き渡す。HDMIトランスミッタ221はそのように制御部129から引き渡された遅延時間データをプレーヤ21に送信する。その結果、音データ処理装置22における音響効果に関するモードの切り替えが行われても、プレーヤ21は適切なディレイタイムでリップシンク処理を行うことができる。
ところで、AVシステム2における処理部1222Lおよび処理部1222Rの配置をサウンドシステム9における処理部1222Lおよび処理部1222Rの配置に置き換え、ディレイ1224を設けた場合であっても、リップシンク機能により映像と音のずれは生じない。しかしながら、プレーヤ21から音響データおよび映像データの出力が行われたタイミングから音の放音および映像の表示までに要する遅延時間は長くなる。従って、例えばインタラクティブなゲームコンテンツなどのリアルタイム性が重視されるコンテンツの視聴においては、図2に示される構成の方が望ましい。
[変形例]
上述した実施形態は本発明の一具体例であって、様々に変形可能である。以下にそれらの変形の例を示す。
上述した実施形態においては、ミキシング音データをSW15に伝送する伝送経路に無線データ通信経路を用い、LchおよびRchの音データをLsp13およびRsp14に伝送する伝送経路に有線データ通信経路を用い、前者が後者よりも長い遅延時間を伴う、という構成が採用されている。
これに対し、例えばミキシング音データをSW15に伝送する伝送経路に有線データ通信経路を用い、LchおよびRchの音データをLsp13およびRsp14に伝送する伝送経路に無線データ通信経路を用い、後者が前者よりも長い遅延時間を伴う、という構成が採用されてもよい。
図3は、そのような変形例における音データ処理装置の機能構成の一部を示した図である。この変形例においては、LchおよびRchの音データはワイヤレス化されたLspおよびRspに対し無線で伝送される。また、ミキシング音データはSWに対し有線で伝送される。
また、この変形例においては、ミキシング処理部からSWへとミキシング音データが伝送される伝送経路上に処理部1222Lおよび処理部1222Rに相当する処理部が配置されている。この処理部は、例えばハイパスフィルタであり、ミキシング音データに含まれる超低周波数帯域(例えば40Hz以下、SWでも放音能力が不足する帯域)の成分を減衰させることで、歪みの少ない望ましい音場を実現するために設けられている。
また、この変形例においては、LchおよびRchの音データがデコーダからLspおよびRspへ出力される伝送経路のうち、ミキシング処理部への分岐点より後ろ側の部分にディレイ1227に相当するディレイが設けられている。
この変形例のように、ミキシング音データのスピーカへの伝送経路の伝送速度がミキシングされていない音データのスピーカへの伝送経路の伝送速度より速い場合であっても、伝送速度の遅い側の伝送経路上(ミキシング処理への分岐点より後ろ側)に比較的長い処理遅延時間を伴う処理部を配置することで、全体としての遅延時間を短縮することができる。
また、上述した実施形態においては、伝送速度が速い伝送経路上にチャンネル間のタイミングのずれを回避するためのディレイを配置する構成が採用されているが、ディレイの配置位置はそれに限られない。具体的には、処理部における処理遅延時間が伝送時間の差を上回る場合には、伝送速度が遅い伝送経路上にチャンネル間のタイミングのずれを回避するためのディレイを配置する構成が採用されることになる。図4はそのような変形例の一例における音データ処理装置の機能構成の一部を示した図である。
また、上述した実施形態においては、ディレイ1227がハイパスフィルタ1223の後ろ側に配置されているが、ディレイ1227の配置位置は、デコーダ1221からLsp13およびRsp14へと向かう伝送経路のうちミキシング処理部1225への分岐点より後ろ側であれば、いずれの位置であってもよい。図5はそのような変形例の一例における音データ処理装置の機能構成の一部を示した図である。すなわち、この例ではディレイがミキシング処理部への分岐点より後ろ側かつハイパスフィルタの前側に配置されている。
また、上述した実施形態およびその変形例においては、ミキシング処理部1225に入力されミキシングされる音データは、プレーヤ11から音データ処理装置12に入力され、デコーダ1221によりデコードされた音データそのものであるが、ミキシング処理部1225に入力される音データは、音データ処理装置12に入力された音データを用いて生成された新たな音データであってもよい。図6はそのような変形例の一例における音データ処理装置の機構構成の一部を示した図である。
また、上述した実施形態においては、ミキシング処理部1225がバスマネジメントを目的とする音データのミキシングを行う構成が採用されているが、ミキシング処理部1225のミキシングの目的はバスマネジメントに限定されない。
バスマネジメント以外を目的とするミキシングとしては、例えば隣り合う2つのチャンネルに応じたスピーカの間の位置に仮想的なスピーカを定位させる目的でそれらの音データを適当なレベル比および遅延でミキシングする場合などがある。そのような場合、ハイパスフィルタ1223およびローパスフィルタ1226は必ずしも必要ではない。
また、上述した実施形態においては、ミキシング音データの伝送経路とミキシングされていない音データの伝送経路との間の遅延時間の差が、無線データ通信経路を含むか否かによりもたらされる。本発明はその点に関し限定されず、例えば両者がいずれも無線データ通信経路を含むが、その方式が異なるために伝送速度に差があり、その結果、遅延時間に差を生じる場合などにも適用可能である。
さらに、伝送経路の方式等は同一であっても、一方の伝送経路上と他方の伝送経路上に異なる遅延時間を伴う処理部が配置されていることにより、それらの伝送経路上を伝送される音データに異なる時間の遅延が伴う場合などにも本発明は適用可能である。
なお、上述した実施形態においては、2.1チャンネルの音響コンテンツを2.1チャンネルのスピーカシステムを用いて再生する場合を例に説明したが、本発明は複数のチャンネル数であればいずれのチャンネル数の音響コンテンツをいずれのチャンネル数のスピーカシステムで再生する場合にも適用可能である。
また、上述した実施形態においては、プレーヤから音データ処理装置に対しHDMI規格に従った音響データの伝送が行われるものとしたが、他の如何なるDIR(Digital Audio Interface Receiver)が音データ処理装置のDIRとして採用されてもよい。また、プレーヤがアナログの音データを出力する場合、音データ処理装置がADコンバータを備え、プレーヤから入力される音データをデジタルデータに変換した後、DSP群に引き渡す構成が採用されてもよい。
1…AVシステム、2…AVシステム、9…サウンドシステム、11…プレーヤ、12…音データ処理装置、13…Lsp、14…Rsp、15…SW、16…ディスプレイ、21…プレーヤ、22…音データ処理装置、91…プレーヤ、92…音データ処理装置、121…HDMIレシーバ、122…DSP群、123…DAコンバータ、124…アンプ、125…トランスミッタ、129…制御部、151…レシーバ、152…DAコンバータ、153…アンプ、211…遅延時間データ受信部、212…リップシンク処理部、221…HDMIトランスミッタ、1221…デコーダ、1222…処理部、1223…ハイパスフィルタ、1224…ディレイ、1225…ミキシング処理部、1226…ローパスフィルタ、1227…ディレイ

Claims (5)

  1. 第1の音を示す第1の音データの入力を受ける第1の入力手段と、
    第2の音を示す第2の音データの入力を受ける第2の入力手段と、
    前記第1の音データもしくは前記第1の音データを用いて生成された音データと、前記第2の音データもしくは前記第2の音データを用いて生成された音データとをミキシングしたミキシング音データを生成するミキシング手段と、
    前記第1の音データもしくは前記第1の音データを用いて生成された音データであって、前記ミキシング手段によるミキシングを経ていない音データを第1のスピーカに対し出力する第1の出力手段と、
    前記ミキシング手段によりミキシングされた音データを第2のスピーカに対し出力する第2の出力手段と、
    前記ミキシング手段に入力される音データの分岐点の後段かつ前記第1の出力手段の前段、または前記ミキシング手段の後段かつ前記第2の出力手段の前段に設けられ、音データに対して音響効果を付加する所定の処理を行う処理手段と、
    記第1の出力手段から出力される音データの前記第1のスピーカへの入力と前記第2の出力手段から出力される音データの前記第2のスピーカへの入力のタイミングの関係が、前記第1の入力手段における前記第1の音データと前記第2の入力手段における前記第2の音データの入力のタイミングの関係と一致するように音データを遅延させる1以上のディレイと
    を備えるデータ処理装置であって、
    前記1以上のディレイの全ては、前記ミキシング手段に入力される音データの分岐点の後段かつ第1の出力手段の前段、または前記ミキシング手段の後段かつ前記第2の出力手段の前段に設けられている
    音データ処理装置。
  2. 前記第2の出力手段により出力される音データの伝送速度は前記第1の出力手段により出力される音データの伝送速度よりも遅く、
    前記処理手段は前記ミキシング手段に入力される音データの分岐点の後段かつ前記第1の出力手段の前段に設けられている
    請求項1に記載の音データ処理装置。
  3. 前記第2の出力手段は無線により音データを出力する
    請求項2に記載の音データ処理装置。
  4. 前記第1の出力手段により出力される音データの伝送速度は前記第2の出力手段により出力される音データの伝送速度よりも遅く、
    前記処理手段は前記ミキシング手段の後段かつ前記第2の出力手段の前段に設けられている
    請求項2に記載の音データ処理装置。
  5. 前記第1の出力手段は無線により音データを出力する
    請求項4に記載の音データ処理装置。
JP2012069628A 2012-03-26 2012-03-26 音データ処理装置 Active JP6074899B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012069628A JP6074899B2 (ja) 2012-03-26 2012-03-26 音データ処理装置
US14/387,796 US9439018B2 (en) 2012-03-26 2013-03-25 Audio data processing device and audio data processing method
PCT/JP2013/058548 WO2013146665A1 (ja) 2012-03-26 2013-03-25 音データ処理装置及び音データ処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012069628A JP6074899B2 (ja) 2012-03-26 2012-03-26 音データ処理装置

Publications (2)

Publication Number Publication Date
JP2013201669A JP2013201669A (ja) 2013-10-03
JP6074899B2 true JP6074899B2 (ja) 2017-02-08

Family

ID=49259916

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012069628A Active JP6074899B2 (ja) 2012-03-26 2012-03-26 音データ処理装置

Country Status (3)

Country Link
US (1) US9439018B2 (ja)
JP (1) JP6074899B2 (ja)
WO (1) WO2013146665A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105338393A (zh) * 2015-10-29 2016-02-17 小米科技有限责任公司 媒体同步方法和装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE38405E1 (en) * 1992-07-30 2004-01-27 Clair Bros. Audio Enterprises, Inc. Enhanced concert audio system
JP2003264898A (ja) * 2002-03-08 2003-09-19 Hiroaki Suzuki ブロードバンド・シアタシステム
JP2004328513A (ja) * 2003-04-25 2004-11-18 Pioneer Electronic Corp 音声データ処理装置、音声データ処理方法、そのプログラム、および、そのプログラムを記録した記録媒体
JP2005027163A (ja) * 2003-07-04 2005-01-27 Pioneer Electronic Corp 音声データ処理装置、音声データ処理方法、そのプログラム、および、そのプログラムを記録した記録媒体
JP2005094150A (ja) * 2003-09-12 2005-04-07 Victor Co Of Japan Ltd オーディオ再生装置
US8340313B2 (en) * 2003-09-24 2012-12-25 Thomson Licensing Wireless digital transmission of low frequency effects and surround channels for surround sound system
JP2005210504A (ja) * 2004-01-23 2005-08-04 Sharp Corp 音響システム
JP2005341257A (ja) * 2004-05-27 2005-12-08 Yamaha Corp コードレススピーカ用アダプタ、コードレススピーカ用送信機およびオーディオアンプ
JP4304636B2 (ja) * 2006-11-16 2009-07-29 ソニー株式会社 音響システム、音響装置及び最適音場生成方法

Also Published As

Publication number Publication date
WO2013146665A1 (ja) 2013-10-03
JP2013201669A (ja) 2013-10-03
US20150092945A1 (en) 2015-04-02
US9439018B2 (en) 2016-09-06

Similar Documents

Publication Publication Date Title
JP4487316B2 (ja) 映像信号並びにマルチチャネル音声信号の伝送信号処理装置およびこれを含む映像音声再生システム
JP2011130496A (ja) 音声出力装置、音声出力方法
JP2010004520A (ja) Avシステム
WO2020182020A1 (zh) 一种音频信号播放方法及显示设备
JP5776597B2 (ja) 音信号処理装置
JP2015126460A (ja) ソース機器
JP2009260458A (ja) 音響再生装置、および、これを含む映像音声視聴システム
JP2008312096A (ja) 音響再生装置及びテレビ受像機
EP2708038B1 (en) A speaker for reproducing surround sound
JP2008035399A (ja) 映像音声再生システム及び映像音声再生方法
US20220345845A1 (en) Method, Systems and Apparatus for Hybrid Near/Far Virtualization for Enhanced Consumer Surround Sound
JP4703747B2 (ja) 音声出力装置、音声出力方法
JP4719111B2 (ja) 音声再生装置、映像音声再生装置、及びその音場モード切り替え方法
JP6074899B2 (ja) 音データ処理装置
JP2009283997A (ja) 音声出力装置、プログラム、および記録媒体
JP2008301149A (ja) 音場制御方法、音場制御プログラム、音声再生装置
JP3740780B2 (ja) マルチチャンネル再生装置
JP2010050544A (ja) 映像音声再生装置
JP2007243460A (ja) 中継装置、av再生システムおよびavソース装置
TWI739429B (zh) 喇叭聲道音訊控制系統
US11924622B2 (en) Centralized processing of an incoming audio stream
WO2021039189A1 (ja) 送信装置、送信方法、受信装置および受信方法
WO2019016905A1 (ja) 音響処理装置及び音響出力装置
JP2013201651A (ja) Avアンプ
KR20160077284A (ko) 오디오 일체형 셋톱박스, 및 그 영상신호 및 오디오신호 처리방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160510

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161226

R151 Written notification of patent or utility model registration

Ref document number: 6074899

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151