JP5361689B2 - オーディオデータ処理装置、オーディオ装置、オーディオデータ処理方法、プログラム及び記録媒体 - Google Patents

オーディオデータ処理装置、オーディオ装置、オーディオデータ処理方法、プログラム及び記録媒体 Download PDF

Info

Publication number
JP5361689B2
JP5361689B2 JP2009279794A JP2009279794A JP5361689B2 JP 5361689 B2 JP5361689 B2 JP 5361689B2 JP 2009279794 A JP2009279794 A JP 2009279794A JP 2009279794 A JP2009279794 A JP 2009279794A JP 5361689 B2 JP5361689 B2 JP 5361689B2
Authority
JP
Japan
Prior art keywords
audio data
sound source
virtual sound
speaker
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009279794A
Other languages
English (en)
Other versions
JP2011124724A (ja
Inventor
純生 佐藤
永雄 服部
嬋斌 倪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2009279794A priority Critical patent/JP5361689B2/ja
Priority to PCT/JP2010/071491 priority patent/WO2011070957A1/ja
Priority to US13/514,902 priority patent/US20120269350A1/en
Priority to CN201080055731.6A priority patent/CN102656906B/zh
Publication of JP2011124724A publication Critical patent/JP2011124724A/ja
Application granted granted Critical
Publication of JP5361689B2 publication Critical patent/JP5361689B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/403Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers loud-speakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/40Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
    • H04R2201/403Linear arrays of transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Stereophonic System (AREA)

Description

本発明は、オーディオデータ処理装置、オーディオ装置、オーディオデータ処理方法、プログラム及び当該プログラムを記録した記録媒体に関する。
近年、欧州を中心に波面合成技術(Wave Field Synthesis:WFS)を基本原理とするオーディオシステムの研究が盛んに行われている(例えば、非特許文献1参照)。WFSとは、アレイ状に並べられた複数のスピーカ(以下、「スピーカアレイ」と呼ぶ。)から放射される音の波面をホイヘンスの原理に基づき合成する技術である。
WFSによって提供される音響空間内においてスピーカアレイと対面して音を聴いている受聴者は、実際にはスピーカアレイから放射される音が、スピーカアレイの後方に仮想的に存在する音源(以下、「仮想音源」と呼ぶ。)から放射されているかのような感覚を受ける(例えば、図1参照)。
WFSシステムを適用することが可能な装置としては、映画、オーディオシステム、テレビ、AVラック、テレビ会議システム、テレビゲーム等がある。例えば、ディジタルコンテンツが映画の場合、俳優の存在が仮想音源という形でメディアに記録されている。したがって、会話をしながらスクリーン内を俳優が移動する場合、スクリーン内の俳優の動き方向に合わせて仮想音源をスクリーンに対して左右、前後及び任意の方向に定位させることができる。例えば特許文献1には、仮想音源を移動可能にするシステムが記載されている。
特表2007−502590号公報
ベルクハウト、ド ブリース、フォーゲル(A. J. Berkhout, D. de Vries, and P. Vogel)著、「アコースティック コントロール バイ ウェーブフィールド シンセシス (Acoustic control by wave field synthesis)」(オランダ)、第93(5)版、ジャーナル・オブ・ジ・アコースティカル・ソサイエティ・オブ・アメリカ(J. Acoust. Soc)、1993年5月、p.2764−2778
音波の発生源である音源及び受聴者の相対的な速度によって音波の周波数が異なって観測される物理現象としてドップラー効果が知られている。ドップラー効果によると、音波の発生源である音源が受聴者に近付く場合には音波の振動が詰められて周波数が高くなり、逆に観測者から遠ざかる場合には音波の振動が伸ばされて低くなる。これは、音源が移動しても音源から到達する音波の波の数は変わらないことを意味する。しかし、非特許文献1に記載のものは、仮想音源は動かずに固定されていることを前提としており、仮想音源の移動に伴って発生するドップラー効果に対しては検討がなされていない。そのため、仮想音源をスピーカから遠ざかる方向に移動させる場合又は近づく方向に移動させる場合に、スピーカが発する音の基となるオーディオ信号の波の数が変化し、その波の数の変化により波形に歪みが生ずる。波形に歪みが発生すると受聴者はそれをノイズとして知覚するため、波形の歪みを解消する手段を講ずる必要がある。尚、波形の歪みの詳細については後述する。
一方、特許文献1に記載のものは、仮想音源の移動に伴って発生するドップラー効果を考慮し、オーディオ信号の基となるオーディオデータ内のあるセグメント内の適当な標本データからその次のセグメント内の適当な標本データまでの範囲のオーディオデータに対する重み係数を変化させることによって、その範囲のオーディオデータを補正する方法である。ここで、「セグメント」とは、オーディオデータの処理単位である。オーディオデータを補正することによってオーディオ信号波形の極端な歪みはある程度解消され、波形の歪みによって発生するノイズを低減することができる。しかし、特許文献1に記載のものは、単純にオーディオデータの平滑化を試みているだけである。すなわち、特許文献1に記載のものは、仮想音源のスピーカに対する接近及び離隔に応じて波形の歪みを特定し当該特定された波形の歪みに応じて異なる補正を行うものではない。このことから、特許文献1に記載のものは、波形の歪みが残される場合が多く、そのため、波形の歪みに起因するノイズを回避するという効果を十分に得られないという課題を有する。
本発明はかかる課題に鑑みてなされたものであり、仮想音源のスピーカに対する接近及び離隔に応じて波形の歪みの場所を特定し、波形の歪みに応じて異なる補正を行うことによって、仮想音源を移動させる場合に発生する波形の歪みを解消し、ひいては、波形の歪みに起因するノイズを回避するオーディオデータ処理装置等を提供することを目的とする。
本発明のオーディオデータ処理装置は、移動する仮想音源が発する音に対応するオーディオデータ、該仮想音源の位置及び前記オーディオデータに基づき音を放射するスピーカの位置を入力し、前記仮想音源の位置及び前記スピーカの位置に基づいて前記オーディオデータを補正するオーディオデータ処理装置において、相前後する時点での前記スピーカの位置から前記仮想音源の位置までそれぞれの第1及び第2の距離を算出する算出手段と、前記第1及び第2の距離を比較する比較手段と、比較の結果、前記第1及び第2の距離が異なる場合、前後の時点における前記オーディオデータにある歪みの部分を特定する特定手段と、前記仮想音源の前記スピーカに対する接近及び離隔に応じて、特定された部分の前記オーディオデータに対して異なる補正を行う補正手段とを備えることを特徴とする。
本発明のオーディオデータ処理装置において、前記オーディオデータは標本データを含み、前記特定手段は、前記仮想音源の前記スピーカに対する離隔に起因する標本データの繰り返し部分を特定し、前記補正手段は、特定された前記繰り返し部分に対して補正を行う第1の補正手段を備えることを特徴とする。
本発明のオーディオデータ処理装置において、前記オーディオデータは標本データを含み、前記特定手段は、前記仮想音源の前記スピーカに対する接近に起因する標本データの欠落部分を特定し、前記補正手段は、特定された前記欠落部分を挟む前後の部分に対して補正を行う第2の補正手段を備えることを特徴とする。
本発明のオーディオデータ処理装置において、前記オーディオデータは標本データを含み、前記特定手段は、前記仮想音源の前記スピーカに対する接近及び離隔に起因する標本データの繰り返し部分又は標本データの欠落部分を特定し、前記補正手段は、特定された前記繰り返し部分に対して補正を行う第1の補正手段と、特定された前記欠落部分を挟む前後の部分に対して補正を行う第2の補正手段とを備えることを特徴とする。
本発明のオーディオデータ処理装置において、前記補正を行う部分は、前記第1及び第2の距離を音波が伝播する時間幅の差、又は、前記差に比例する時間幅であることを特徴とする。
本発明のオーディオデータ処理装置において、前記第1の補正手段は、特定された前記繰り返し部分に含まれる標本データを、該標本データにより形成される2つの波形の内の1つの波形を2倍の時間幅に均等に伸張することにより得られる標本データに置き換えることを特徴とする。
本発明のオーディオデータ処理装置において、前記第2の補正手段は、特定された前記欠落部分及び該欠落部分の前後の部分に含まれる標本データを、該標本データにより形成される波形を2/3倍の時間幅に均等に圧縮することにより得られる標本データに置き換えることを特徴とする。
本発明のオーディオデータ処理装置において、前記補正手段により補正が行われたオーディオデータに対して利得制御を行う手段を更に備えることを特徴とする。
本発明のオーディオデータ処理装置において、前記仮想音源の数は1つ又は複数であることを特徴とする。
本発明のオーディオ装置は、移動する仮想音源が発する音に対応するオーディオデータ、該仮想音源の位置及び前記オーディオデータに基づき音を放射するスピーカの位置を用い、前記仮想音源の位置及び前記スピーカの位置に基づいて前記オーディオデータを補正するオーディオ装置において、前記オーディオデータ及び前記仮想音源の位置を含むディジタルコンテンツを入力するディジタルコンテンツ入力部と、前記ディジタルコンテンツ入力部が入力したディジタルコンテンツを解析し、該ディジタルコンテンツに含まれるオーディオデータ及び仮想音源の位置のデータを分離するコンテンツ情報分離部と、前記コンテンツ情報分離部が分離した仮想音源の位置のデータ及び前記スピーカの位置のデータに基づいて、前記コンテンツ情報分離部が分離したオーディデータを補正するオーディオデータ処理部と、補正されたオーディオデータに基づき前記スピーカへのオーディオ信号を生成するオーディオ信号生成手段とを備え、前記オーディオデータ処理部は、相前後する時点での前記スピーカの位置から前記仮想音源の位置までそれぞれの第1及び第2の距離を算出する手段と、前記第1及び第2の距離を比較する手段と、比較の結果、前記第1及び第2の距離が異なる場合、前後の時点における前記オーディオデータにある歪みの部分を特定する手段と、前記仮想音源の前記スピーカに対する接近及び離隔に応じて、特定された部分の前記オーディオデータに対して異なる補正を行う手段とを備えることを特徴とする。
本発明のオーディオ装置において、前記ディジタルコンテンツ入力部は、ディジタルコンテンツを格納する記録媒体、ネットワークを介してディジタルコンテンツを配信するサーバ又はディジタルコンテンツを放送する放送局からディジタルコンテンツを入力することを特徴とする。
本発明のオーディオデータ処理方法は、移動する仮想音源が発する音に対応するオーディオデータ、該仮想音源の位置及び前記オーディオデータに基づき音を放射するスピーカの位置を入力し、前記仮想音源の位置及び前記スピーカの位置に基づいて前記オーディオデータを補正するオーディオデータ処理装置におけるオーディオデータ処理方法において、相前後する時点での前記スピーカの位置から前記仮想音源の位置までそれぞれの第1及び第2の距離を算出するステップと、前記第1及び第2の距離を比較するステップと、比較の結果、前記第1及び第2の距離が異なる場合、前後の時点における前記オーディオデータにある歪みの部分を特定するステップと、前記仮想音源の前記スピーカに対する接近及び離隔に応じて、特定された部分の前記オーディオデータに対して異なる補正を行うステップとを含むことを特徴とする。
本発明のプログラムは、移動する仮想音源が発する音に対応するオーディオデータ、該仮想音源の位置及び前記オーディオデータに基づき音を放射するスピーカの位置を入力し、前記仮想音源の位置及び前記スピーカの位置に基づいて前記オーディオデータを補正させるプログラムにおいて、コンピュータに、相前後する時点での前記スピーカの位置から前記仮想音源の位置までそれぞれの第1及び第2の距離を算出するステップと、前記第1及び第2の距離を比較するステップと、比較の結果、前記第1及び第2の距離が異なる場合、前後の時点における前記オーディオデータにある歪みの部分を特定するステップと、前記仮想音源の前記スピーカに対する接近及び離隔に応じて、特定された部分の前記オーディオデータに対して異なる補正を行うステップとを実行させることを特徴とする。
本発明の記録媒体は、前述に記載のプログラムを記録したことを特徴とする。
本発明のオーディオデータ処理装置にあっては、第1及び第2の距離が異なる場合、前後の時点におけるオーディオデータにある歪みの部分を特定し、仮想音源のスピーカに対する接近及び離隔に応じて、特定された部分のオーディオデータに対して異なる補正を行うため、仮想音源を移動させることによって発生する波形の歪みを解消することができる。
本発明のオーディオデータ処理装置にあっては、仮想音源のスピーカに対する離隔に起因する標本データの繰り返し部分に対して補正を行うため、仮想音源をスピーカに対して離隔させる場合に発生する波形の歪みを解消することができる。
本発明のオーディオデータ処理装置にあっては、仮想音源のスピーカに対する接近に起因する標本データの欠落部分に対して補正を行うため、仮想音源をスピーカに対して接近させる場合に発生する波形の歪みを解消することができる。
本発明のオーディオデータ処理装置にあっては、仮想音源のスピーカに対する接近及び離隔に起因する標本データの繰り返し部分及び標本データの欠落部分に対して補正を行うため、仮想音源をスピーカに対して離隔及び接近させる場合に発生する波形の歪みを解消することができる。
本発明のオーディオデータ処理装置にあっては、上記の補正がされた標本データに対して更に利得制御による補正を行うため、仮想音源のスピーカに対する接近及び離隔に起因する波形の歪みを補正することができる。
本発明のオーディオ装置にあっては、第1及び第2の距離が異なる場合、前後の時点におけるオーディオデータにある歪みの部分を特定し、仮想音源のスピーカに対する接近及び離隔に応じて、特定された部分のオーディオデータに対して異なる補正を行うため、仮想音源を移動させることによって発生する波形の歪みが解消されたオーディオ信号を出力することができる。
本発明のオーディオデータ処理方法にあっては、第1及び第2の距離が異なる場合、前後の時点におけるオーディオデータにある歪みの部分を特定し、仮想音源のスピーカに対する接近及び離隔に応じて、特定された部分のオーディオデータに対して異なる補正を行うため、仮想音源を移動させることによって発生する波形の歪みを解消することができる。
本発明のプログラムにあっては、第1及び第2の距離が異なる場合、前後の時点におけるオーディオデータにある歪みの部分を特定し、仮想音源のスピーカに対する接近及び離隔に応じて、特定された部分のオーディオデータに対して異なる補正を行うため、仮想音源を移動させることによって発生する波形の歪みを解消することができる。
本発明のコンピュータ読み取り可能な記録媒体にあっては、第1及び第2の距離が異なる場合、前後の時点におけるオーディオデータにある歪みの部分を特定し、仮想音源のスピーカに対する接近及び離隔に応じて、特定された部分のオーディオデータに対して異なる補正を行うため、仮想音源を移動させることによって発生する波形の歪みを解消することができる。
本発明に係るオーディオデータ処理装置等によれば、仮想音源を移動させる際にオーディオデータを補正するため、仮想音源の移動によって発生する波形の歪みが解消され、ひいては、波形の歪みに起因するノイズを回避することができる。
WFSにより提供される音響空間の一例の説明図である。 オーディオ信号を一般的に説明する説明図である。 オーディオデータにより形成されるオーディオ信号波形の一部の説明図である。 第1のセグメント内のオーディオデータにより形成されるオーディオ信号波形の一例の説明図である。 第2のセグメント内のオーディオデータにより形成されるオーディオ信号波形の一例の説明図である。 図4に示すオーディオデータにより形成されるオーディオ信号波形及び図5に示すオーディオデータにより形成されるオーディオ信号波形を結合したオーディオ信号波形の一例の説明図である。 第1のセグメント内のオーディオデータにより形成されるオーディオ信号波形の一例の説明図である。 第2のセグメント内のオーディオデータにより形成されるオーディオ信号波形の一例の説明図である。 第1のセグメント内の最初の部分のオーディオデータにより形成されるオーディオ信号波形及び第2のセグメント内の最後の部分のオーディオデータにより形成されるオーディオ信号波形の間に4点分の欠落部分が発生している状態を示す説明図である。 図7に示すオーディオデータにより形成されるオーディオ信号波形及び図8に示すオーディオデータにより形成されるオーディオ信号波形を結合したオーディオ信号波形の一例の説明図である。 実施の形態1に係るオーディオデータ処理部を備えるオーディオ装置の構成例を示すブロック図である。 実施の形態1に係るオーディオデータ処理部の内部構成例を示すブロック図である。 入力オーディオデータバッファの一構成例の説明図である。 音波伝播時間データバッファの一構成例の説明図である。 補正後のオーディオデータにより形成されるオーディオ信号波形の説明図である。 補正後のオーディオデータにより形成されるオーディオ信号波形の説明図である。 実施の形態1に係るデータ処理の流れを示すフローチャートである。 波形の歪みの部分の特定及び補正の処理の流れを示すフローチャートである。 実施の形態2に係るオーディオ装置の内部構成例を示すブロック図である。
実施の形態1
まず始めに、WFSにより提供される音響空間内で仮想音源が移動しないことを前提とした演算モデル及び仮想音源の移動を考慮した演算モデルについて説明し、次いで、実施の形態の説明に移る。
図1は、WFSにより提供される音響空間の一例の説明図である。図1に示す音響空間には、M個のスピーカ103_1〜103_Mから構成されるスピーカアレイ103及びスピーカアレイ103と対面して音を聴いている受聴者102が存在する。この音響空間においては、M個のスピーカ103_1〜103_Mから放射される音の波面はホイヘンスの原理に基づいて波面合成され、合成波面104として音響空間内を伝わる。このとき、受聴者102は、実際にはスピーカアレイ103から放射される音が、スピーカアレイ103の後方に定位された実際には存在しないN個の仮想音源101_1〜101_Nから放射されているかのような感覚を受ける。仮想音源101_1〜101_Nを総称して仮想音源101と呼ぶ。
一方、図2は、オーディオ信号を一般的に説明する説明図である。オーディオ信号を理論的に取り扱うとき、一般的には、オーディオ信号は、連続信号S(t)として表現される。図2(a)は連続信号S(t)を示し、(b)はサンプリング間隔Δtのインパルス列を示し、(c)は連続信号S(t)がサンプリング間隔Δtで標本化されかつ量子化されたデータs(bΔt)を示す図である(ただし、b=正の整数)。例えば、図2(a)に示すように、連続信号S(t)は、時間tの軸でも、振幅Sの軸でも連続である。標本化は、連続信号S(t)から時間的に離散的な信号を得ることを目的とする。これは、連続信号S(t)を離散的な時刻bΔtにおけるデータs(bΔt)で表現しようとするものである。理論的には標本化間隔は可変でもよいが、一定間隔にするほうが実際的である。標本化及び量子化操作は、サンプリング間隔をΔtとすると、図2(c)に示すように、連続信号S(t)を間隔Δtのインパルス列(図2(b))で打ち抜き、それらを量子化することにより行われる。尚、以後の説明においては、量子化されたデータs(bΔt)のことを「標本データ」と呼ぶ。
本演算モデルでは、スピーカアレイ103に含まれるm番目のスピーカ(以下、「スピーカ103_m」と呼ぶ。)に与えるオーディオ信号の時刻tにおける標本データを生成する。ここでは、図1に示したとおり、仮想音源101の数はNであり、スピーカアレイ103を構成するスピーカの台数はMであるとする。
Figure 0005361689
但し、
n (t):N個の仮想音源101の内のn番目の仮想音源(以下、「仮想音源101_n」と呼ぶ。)から放射されて、M個の内のスピーカ103_mに到達した音波の離散時刻tにおける標本データ
m (t):スピーカ103_mに与えるオーディオ信号の離散時刻tにおける標本データ
Figure 0005361689
但し、
n :仮想音源101_nに対する利得係数
n (t):仮想音源101_nに与えるオーディオ信号の離散時刻tにおける標本データ
τmn:仮想音源101_nの位置及びスピーカ103_mの位置の間の距離に起因する音波伝播時間の分のサンプル数
Figure 0005361689
但し、
w:重み定数
n :仮想音源101_nの位置ベクトル(固定値)
m :スピーカ103_mの位置ベクトル(固定値)
Figure 0005361689
ここで、フロア記号とは、「与えられた値を超えない整数のうち、最大のもの」を示す。数式(3)及び(4)からわかるように、本演算モデルにおいては、仮想音源101_nに対する利得係数Gn は、仮想音源101_nからスピーカ103_mまでの距離の平方根に反比例する。これは、スピーカ103_mの集合を線音源としてモデル化しているからである。一方、τmnは、仮想音源101_nからスピーカ103_mまでの距離に比例する。
上記の数式(1)から(4)は、仮想音源101_nが移動せずに、ある位置に静止している状態を前提としている。しかし、現実世界においては、人は歩きながら会話を行い、自動車はエンジン音を鳴らして走行する。つまり、現実世界では音源は静止している場合もあれば、移動する場合もある。したがって、そのような場合に対処するため、音源が移動する場合を考慮した新たな演算モデル(実施の形態に係る演算モデル)を導入する。以下、新たな演算モデルについて説明する。
仮想音源101_nが移動する場合を考慮すると、数式(2)から(4)は、以下に示す数式(5)から(7)に置き換えられる。
Figure 0005361689
但し、
n,t :離散時刻tにおける仮想音源101_nに対する利得係数
τmn,t:離散時刻tにおける仮想音源101_n及びスピーカ103_mの間の距離に起因する音波伝播時間の分のサンプル数
Figure 0005361689
但し、
n,t :離散時刻tにおける仮想音源101_nの位置ベクトル
Figure 0005361689
仮想音源101_nは移動しているため、数式(5)から(7)からわかるように、仮想音源101_nに対する利得係数、仮想音源101_nの位置及び音波伝播時間はいずれも離散時刻tに応じて変動する。
オーディオデータは通常セグメント単位で信号処理されるのが一般的である。「セグメント」とは、オーディオデータの処理単位であり「フレーム」とも呼ばれる。1セグメントは、例えば、256個の標本データ又は512個の標本データから構成される。よって数式(1)のlm (t)(スピーカ103_mに与えるオーディオ信号の離散時刻tにおける標本データ)は、セグメント単位で算出される。そこで、本演算モデルでは、離散時刻tにおいて算出されるスピーカ103_mに与えるオーディオ信号を形成するオーディオデータのセグメントをベクトルとし、Lm,t と表す。その場合、Lm,t は、離散時刻t−a+1から離散時刻tまでの1セグメント内に含まれるa個の標本データ(例えば、256個、512個等の標本データ)から構成されるベクトルデータであり、数式(8)で表される。
Figure 0005361689
オーディオデータがセグメント単位で処理されることに伴いrn,t もセグメント毎に求められるのが実際的である。ただし、rn の更新の頻度は必ずしもセグメント単位と一致していなくてもよい。そして、離散時刻t0 における仮想音源位置rn,t0及び離散時刻(t0 −a)における仮想音源位置rn,t0-aを比較することにより、仮想音源位置rn,t0は、離散時刻(t0 −a)から離散時刻t0 の間に仮想音源101_nが移動した距離だけ変化したことになる。ここで、仮想音源101_nがスピーカ103_mから遠ざかる方向に移動(仮想音源101_nがスピーカ103_mに対して離隔)する場合及び近づく方向に移動(仮想音源101_nがスピーカ103_mに対して接近)する場合を説明する。
n,t 及びτmn,tもまた、離散時刻(t0 −a)から離散時刻t0 の間に仮想音源101_nが移動した距離に応じて変動する。以下に示す数式(9)及び(10)は、離散時刻(t0 −a)から離散時刻t0 の間に仮想音源101_nが移動した距離に応じて変動する利得係数の変動量及び音波伝播時間分のサンプル数の変動量を表す。例えば、ΔGn,t0は、離散時刻t0 における利得係数の、離散時刻(t0 −a)における利得係数からの変動量を表し、Δτmn,t0 は、離散時刻t0 における音波伝播時間分のサンプル数の、離散時刻(t0 −a)における音波伝播時間分のサンプル数からの変動量(「時間幅」とも呼ぶ)を表す。これらの変動量は、仮想音源が離散時刻(t0 −a)から離散時刻t0 にかけて移動した場合、仮想音源101_nが移動する方向に応じて正の値又は負の値のいずれか一方をとる。
Figure 0005361689
Figure 0005361689
仮想音源101_nがスピーカ103_mから遠ざかる又は近づくことによって、ΔGn,t0及び時間幅Δτmn,t0 が生じるため、離散時刻t0 において波形の歪みが発生する。ここで、「波形の歪み」が発生した状態とは、オーディオ信号波形が連続的に変化するのではなく、受聴者がその部分をノイズとして知覚するほど不連続に変化した状態を意味する。
例えば、仮想音源101_nがスピーカ103_mから遠ざかる方向に移動することによって音波伝播時間が増加した場合、すなわち、時間幅Δτmn,t0 が正である場合、離散時刻t0 を起点とするセグメントの最初の部分に、その1つ前のセグメント内の最後の部分のオーディオデータが時間幅Δτmn,t0 だけ再度現れる。以下、離散時刻t0 を起点とするセグメントの1つ前のセグメントを第1のセグメントと呼び、離散時刻t0 を起点とするセグメントを第2のセグメントと呼ぶ。その結果、波形に歪みが生ずる。
一方、仮想音源101_nがスピーカ103_mに近づく方向に移動することによって音波伝播時間が減少した場合、すなわち、時間幅Δτmn,t0 が負である場合、第1のセグメント内の最後の部分のオーディオデータ及び第2のセグメント内の最初の部分のオーディオデータの間に時間幅Δτmn,t0 だけ欠落が生じる。その結果、オーディオ信号波形に不連続点が生じる。これもまた波形の歪みである。以下、波形の歪みの具体例を、図面を用いて説明する。
図3は、オーディオデータにより形成されるオーディオ信号波形の一部の説明図である。図3に示すオーディオデータは、標本データ301〜標本データ328の計28個の標本データによって表されるとする。以下、図3に示すオーディオ信号を基にして、仮想音源101_nがスピーカ103_mから遠ざかる方向に移動する場合及び近づく方向に移動する場合において波形の歪みが発生する理由を説明する。
まず、仮想音源101_nがスピーカ103_mから遠ざかる方向に移動することによって仮想音源101_nの位置およびスピーカ103_mの位置の間の距離に対する音波伝播時間が増加する場合、すなわち、時間幅Δτmn,t0 が正の場合について説明する。図4は、第1のセグメント内のオーディオデータにより形成されるオーディオ信号波形の一例の説明図である。第1のセグメントの最後の部分には、標本データ301〜312が含まれる。図5は、第2のセグメント内のオーディオデータにより形成されるオーディオ信号波形の一例の説明図である。第2のセグメントの最初の部分には、標本データ308’〜318が含まれる。
本例では、仮想音源101_nがスピーカ103_mから遠ざかる方向に移動することによって、第2のセグメントにおける仮想音源101_nからスピーカ103_mまでの距離に対する音波伝播時間分のサンプル数が第1のセグメントにおける仮想音源101_nからスピーカ103_mまでの距離に対する音波伝播時間分のサンプル数よりも例えば5(=Δτmn,t)点の分だけ増加したとする。音波伝播時間が増加した結果、図4に示す第1のセグメント内の最後の部分の標本データ308,309,310,311,312が、図5に示す第2のセグメント内の最初の部分に、標本データ308’,309’,310’,311’,312’として再び現れる。そのため、図4に示すオーディオデータにより形成されるオーディオ信号波形及び図5に示すオーディオデータにより形成されるオーディオ信号波形が結合されると結合部分に波形の歪みが発生する。図6は、図4に示すオーディオデータにより形成されるオーディオ信号波形及び図5に示すオーディオデータにより形成されるオーディオ信号波形を結合したオーディオ信号波形の一例の説明図である。図6から、標本データ308’の近傍においてオーディオデータが不連続となり、波形の歪みが発生していることがわかる。この波形の歪みは、ノイズとして受聴者に知覚される。
これとは逆に、仮想音源101_nがスピーカ103_mに近づく方向に移動することによって音波伝播時間が減少する場合、すなわち、時間幅Δτmn,t0 が負の場合について説明する。図7は、第1のセグメント内のオーディオデータにより形成されるオーディオ信号波形の一例の説明図である。第1のセグメントの最後の部分には、標本データ301〜312が含まれる。その内容は、図5に示したものと同じである。図8は、第2のセグメント内のオーディオデータにより形成されるオーディオ信号波形の一例の説明図である。第2のセグメントの最初の部分には、標本データ317〜328が含まれる。本例では、仮想音源101_nがスピーカ103_mに近づく方向に移動することによって、第2のセグメントにおける仮想音源101_nからスピーカ103_mまでの距離に対する音波伝播時間分のサンプル数が第1のセグメントにおける仮想音源101_nからスピーカ103_mまでの距離に対する音波伝播時間分のサンプル数よりも例えば4(=Δτmn,t)点の分だけ減少したとする。図9は、第1のセグメント内の最初の部分のオーディオデータにより形成されるオーディオ信号波形及び第2のセグメント内の最後の部分のオーディオデータにより形成されるオーディオ信号波形の間に4点分の欠落部分が発生している状態を示す説明図である。音波伝播時間が減少した結果、図9に示すように、第1のセグメント内の最後の部分のオーディオデータにより形成されるオーディオ信号波形及び第2のセグメント内の最初の部分のオーディオデータにより形成されるオーディオ信号波形の間に4点分(標本データ313〜316)の欠落部分が生じる。そのため、図7に示すオーディオデータにより形成されるオーディオ信号波形及び図8に示すオーディオデータにより形成されるオーディオ信号波形を結合すると結合部分に波形の歪みが発生する。図10は、図7に示すオーディオデータにより形成されるオーディオ信号波形及び図8に示すオーディオデータにより形成されるオーディオ信号波形を結合したオーディオ信号波形の一例の説明図である。図10からわかるように、標本データ317の近傍においてオーディオデータが不連続となり、波形の歪みが発生している。この波形の歪みも同様にノイズとして受聴者に知覚される。
以上、仮想音源101_nが移動することによって波形の歪みが発生する理由を説明した。次いで、オーディオデータを補正することによって波形の歪みを解消する本発明に係わる実施の形態を、図面を参照して具体的に説明する。
図11は、実施の形態1に係るオーディオデータ処理部を備えるオーディオ装置の構成例を示すブロック図である。オーディオ装置1100は、実施の形態1に係るオーディオデータ処理部1101、コンテンツ情報分離部1102、オーディオデータ格納部1103、仮想音源位置データ格納部1104、スピーカ位置データ入力部1105、スピーカ位置データ格納部1106、D/A変換部1107、M個の増幅器1108_1〜1108_M、再生部1109及び通信インタフェース部1110を備える。オーディオ装置1100は、上記各部を統括的に制御するCPU(Central Processing Unit)1111、CPU1111が実行するコンピュータプログラムを格納するROM(Read-Only Memory)1112及びコンピュータプログラムの実行中に処理するデータや変数等を格納すRAM(Random-Access Memory)1113を更に備える。オーディオ装置1100は、スピーカアレイ103に補正後のオーディオデータに対応するオーディオ信号を出力する。
再生部1109は、ディジタルコンテンツ(映画、コンピュータゲーム、ミュージックビデオ等)を格納する記録媒体1117から当該ディジタルコンテンツを読み出し、コンテンツ情報分離部1102に出力する。記録媒体1117は、例えば、CD−R(Compact Disc Recordable)、DVD(Digital Versatile Disk)、ブルーレイ・ディスク(Blu-ray Disk,登録商標)である。ディジタルコンテンツには、仮想音源101_1〜101_Nの各々に対応する複数のオーディオデータのファイル及び仮想音源101_1〜101_Nに対応する仮想音源位置データが関連付けて記録されている。
通信インタフェース部1110は、インターネット1114等の通信ネットワークを介してディジタルコンテンツを配信するサーバ1115からディジタルコンテンツを取得し、コンテンツ情報分離部1102に出力する。また、通信インタフェース部1110は、アンテナ又はチューナ等の機器(図示せず)を備え、放送局1116が放送する番組を受信し、それをディジタルコンテンツとしてコンテンツ情報分離部1102に出力する。
コンテンツ情報分離部1102は、再生部1109又は通信インタフェース部1110からディジタルコンテンツを取得し、当該ディジタルコンテンツを解析し、当該ディジタルコンテンツからオーディオデータ及び仮想音源位置データを分離する。次いで、コンテンツ情報分離部1102は、分離したオーディオデータ及び仮想音源位置データの各々をオーディオデータ格納部1103及び仮想音源位置データ格納部1104に出力する。仮想音源位置データとは、例えば、ディジタルコンテンツがミュージックビデオである場合、当該ビデオ画面に映し出されるシンガーや複数の楽器の相対的位置に対応する位置データである。仮想音源位置データは、オーディオデータと共にディジタルコンテンツ内に格納されている。
オーディオデータ格納部1103は、コンテンツ情報分離部1102から取得したオーディオデータを格納し、仮想音源位置データ格納部1104は、コンテンツ情報分離部1102から取得した仮想音源位置データを格納する。スピーカ位置データ格納部1106は、スピーカアレイ103の各々のスピーカ103_1〜103_Mが配置されている音響空間内の位置を示すスピーカ位置データをスピーカ位置データ入力部1105から取得し、格納する。スピーカ位置データは、スピーカアレイ103を構成するスピーカ103_1〜103_Mの各々の位置に基づいてユーザによって設定される情報である。当該情報は、例えば、音響空間内のオーディオ装置に対して固定されている1平面内(X−Y座標系)における座標によって表される。ユーザは、スピーカ位置データ入力部1105を操作してスピーカ位置データをスピーカ位置データ格納部1106に格納する。実装上の制約からスピーカアレイ103の配置が予め決められている場合には、スピーカ位置データは固定値として設定される。一方、ユーザがスピーカアレイ103の配置をある程度自由に決めることができる場合には、スピーカ位置データは可変値として設定される。
オーディオデータ処理部1101は、仮想音源101_1〜101_Nの各々に対応するオーディオファイルをオーディオデータ格納部1103から読み出す。また、オーディオデータ処理部1101は、各仮想音源101_1〜101_Nに対応する仮想音源位置データを仮想音源位置データ格納部1104から読み出す。さらに、オーディオデータ処理部1101は、スピーカアレイ103の各スピーカ103_1〜103_Mに対応するスピーカ位置データをスピーカ位置データ格納部1106から読み出す。オーディオデータ処理部1101は、読み出した仮想音源位置データ及びスピーカ位置データに基づいて、読み出したオーディオデータに対して実施の形態に係わる処理を行う。すなわち、オーディオデータ処理部1101は、仮想音源101_1〜101_Nの移動を考慮した上述の演算モデルに基づいた演算処理を行うことによってスピーカ103_1〜103_Mに与えるオーディオ信号を形成するオーディオデータを生成する。オーディオデータ処理部1101が生成したオーディオデータは、D/A変換部1107によりオーディオ信号として出力され、増幅部1108_1〜1108_Mを介して、スピーカ103_1〜103_Mに出力される。スピーカ103_1〜103_Mは、このオーディオ信号に基づいて音を生成し、音響空間に放射する。
図12は、実施の形態1に係るオーディオデータ処理部1101の内部構成例を示すブロック図である。オーディオデータ処理部1101は、距離データ算出部1201、音波伝播時間データ算出部1202、音波伝播時間データバッファ1203、利得係数データ算出部1204、利得係数データバッファ1205、入力オーディオデータバッファ1206、出力オーディオデータ生成部1207及び出力オーディオデータ重畳部1208を備える。距離データ算出部1201は、仮想音源位置データ格納部1104及びスピーカ位置データ格納部1106に接続される。入力オーディオデータバッファ1206は、オーディオデータ格納部1103に接続される。出力オーディオデータ重畳部1208は、D/A変換部1107に接続される。
距離データ算出部1201は、仮想音源位置データ格納部1104及びスピーカ位置データ格納部1106から仮想音源位置データ及びスピーカ位置データを取得し、それらに基づき仮想音源101_n及び各スピーカ103_1〜103_Mの間の距離データ(|rn,t −rm |)を算出し、音波伝播時間データ算出部1202及び利得係数データ算出部1204に出力する。音波伝播時間データ算出部1202は、距離データ算出部1201から取得した距離データ(|rn,t −rm |)に基づき、音波伝播時間データ(音波伝播時間の分のサンプル数)τmn,tを算出する(数式(7)参照)。音波伝播時間データバッファ1203は、音波伝播時間データ算出部1202から音波伝播時間データτmn,tを取得し、その内の複数セグメント分の音波伝播時間データを一時的に格納する。利得係数データ算出部1204は、距離データ算出部1201から取得した距離データ(|rn,t −rm |)に基づき、利得係数データGn,t を算出する(数式(6)参照)。
入力オーディオデータバッファ1206は、オーディオデータ格納部1103から各仮想音源101_1〜101_Nに対応する入力オーディオデータを取得し、その内の複数セグメント分の入力オーディオデータを一時的に格納する。1セグメントは、例えば、256個又は512個のオーディオデータの標本データから構成される。出力オーディオデータ生成部1207は、音波伝播時間データ算出部1202が算出した音波伝播時間データτmn,t及び利得係数データ算出部1204が算出した利得係数データGn,t を用いて、入力オーディオデータバッファ1206に一時的に格納されている入力オーディオデータに対応する出力オーディオデータを生成する。出力オーディオデータ重畳部1208は、出力オーディオデータ生成部1207が生成した出力オーディオデータに対応する音のオーディオデータを仮想音源101の数に応じて合成する。
図13は、入力オーディオデータバッファ1206の一構成例の説明図である。入力オーディオデータバッファ1206は、FIFO(First-In,First-Out:先入れ先出し)方式でデータを一時的に格納し、古いデータは捨てていく。バッファサイズは通常、仮想音源とスピーカ間の距離の最大値のサンプル数幅に基づいて設定すればよい。例えばその最大値を仮に34メートルとする場合、サンプリング周波数が44100ヘルツ、音速が340メートルとして、44100×34÷340=4410サンプル以上用意しておけばよい。入力オーディオデータバッファ1206は、自己のバッファサイズに応じてオーディオデータ格納部1103から入力オーディオデータを読み出し、格納後、出力オーディオデータ生成部1207に出力する。すなわち、古いデータから順に出力オーディオデータ生成部1207に出力される訳ではない。図13において四角のブロックの各々は標本データ格納領域を表し、当該標本データ格納領域には、セグメント内の1標本データが一時的に格納される。図13によれば、例えば、標本データ格納領域1300_1には最新のセグメント内の先頭部分の1標本データが一時的に格納され、標本データ格納領域1300_1+a−1には最新のセグメント内の最後の部分の1標本データ、つまり最新の1標本データが一時的に格納される。ここで、aは、セグメント長であり、1セグメントに含まれる標本データの個数である。
図14は、音波伝播時間データバッファ1203の一構成例の説明図である。音波伝播時間データバッファ1203もまた、FIFO(First-In,First-Out:先入れ先出し)方式でデータの入出力を行う一時格納部である。図14において四角のブロックの各々はデータ格納領域を表し、当該データ格納領域には、各セグメントの音波伝播時間データが一時的に格納される。また、図14は、音波伝播時間データバッファ1203に3セグメント分の音波伝播時間が一時的に格納されることを示す。さらに、図14は、音波伝播時間データバッファ1203のデータ格納領域1203_1には最も古い音波伝播時間データが一時的に格納され、データ格納領域1203_3には最も新しい音波伝播時間データが一時的に格納されることを示す。また、図示しないが、利得係数データバッファ1205は、音波伝播時間データバッファ1203と同じ構成をとる。
図12から図14を参照して、実施の形態における主要な動作を説明する。入力オーディオデータバッファ1206は、離散時刻t1 から離散時刻(t1 +a−1)までの1セグメントの入力オーディオデータをオーディオデータ格納部1103から読み出し、一時的に格納する。図13を参照して説明すると、標本データ格納領域1300_1から標本データ格納領域(1300_1+a−1)には、離散時刻t1 から離散時刻(t1 +a−1)までの標本データが順番に格納される。また、標本データ格納領域1300_1〜1300_1+a−1以外のデータ格納領域には、離散時刻t1 以前の複数セグメント分の入力オーディオデータが既に格納されている。
距離データ算出部1201は、離散時刻t1 における、1番目の仮想音源(以下、「仮想音源101_1」と呼ぶ。)及び1番目のスピーカ(以下、「スピーカ103_1」と呼ぶ。)の距離を示す距離データ(|r1,t1−r1 |)を算出し、音波伝播時間データ算出部1202及び利得係数データ算出部1204に出力する。
音波伝播時間データ算出部1202は、数式(7)を用いて、距離データ算出部1201から取得した距離データ(|r1,t1−r1 |)に基づいて音波伝播時間データτ11,t1 を算出し、音波伝播時間データバッファ1203に出力する。
音波伝播時間データバッファ1203は、音波伝播時間データ算出部1202から取得した音波伝播時間データτ11,t1 を格納する。図14を参照すると、データ格納領域1203_2に既に格納されていたデータは1203_1に移動され、1203_3に既に格納されていたデータは1203_2に移動された後、音波伝播時間データτ11,t1 は、データ格納領域1203_3に格納される。尚、音波伝播時間データバッファは、スピーカ数×時刻t1 時点で存在する仮想音源の数だけ用意されている。すなわち、音波伝播時間データバッファは、少なくともM×N個備えられており、それぞれ過去2セグメント分の音波伝播時間データと現在の音波伝播時間データが格納されている。
利得係数データ算出部1204は、数式(6)を用いて、距離データ算出部1201から取得した距離データ(|r1,t1−r1 |)に基づいて利得係数データG1,t1を算出し、利得係数データバッファ1205に出力する。利得係数データバッファ1205は、音波伝播時間データバッファ1203と同様な形で、利得係数データG1,t1を格納する。尚、利得係数データバッファは、スピーカ数×時刻t1 時点で存在する仮想音源の数だけ用意されている。すなわち、利得係数データバッファは、少なくともM×N個備えられており、それぞれ過去2セグメント分の利得係数データと現在の利得係数データが格納されている。
上記処理をスピーカの個数(M個)に応じた回数繰り返すことによって、音波伝播時間データバッファ1203には、スピーカ103_1〜103_Mの音波伝播時間データτmn,t1 が格納され、利得係数データバッファ1205には、スピーカ103_1〜103_Mの利得係数データGn,t1が格納される。
次に、入力オーディオデータバッファ1206は、次のセグメントである離散時刻(t1 +a)から離散時刻(t1 +2a−1)までの1セグメント内の入力オーディオデータをオーディオデータ格納部1103から読み出し、一時的に格納する。そして、音波伝播時間データ算出部1202及び利得係数データ算出部1204は、上記処理と同じ処理を行い、スピーカ103_1〜103_Mの音波伝播時間データτmn,(t1+a) 及び利得係数データGn,t1+aを算出し、各々を、音波伝播時間データバッファ1203及び利得係数データバッファ1205に一時的に格納する。このとき、音波伝播時間データバッファ1203にはそれぞれ離散時刻(t1 −a)、t1 、そして(t1 +a)を起点とする3つのセグメントに対応する音波伝播時間データτmn,(t1-a) 、τmn,t1 、τmn,(t1+a) が格納されている。また、利得係数データバッファ1205にはそれぞれ離散時刻(t1 −a)、t1 、そして(t1 +a)を起点とする3つのセグメントに対応する利得係数データGn,(t1-a)、n,t1、Gn,(t1+a)が格納されている。
出力オーディオデータ生成部1207は、仮想音源101_1のために、各スピーカ103_1〜103_Mへ与えるオーディオ信号を形成する出力オーディオデータを生成する。出力オーディオデータ生成部1207は、離散時刻t1における出力オーディオデータを生成するために、入力オーディオデータバッファ1206から離散時刻(t1 −τmn,t1 )から離散時刻(t1 −τmn,t1 +a−1)までのオーディオデータを読み出し、それぞれにGn,t1を乗算することとなる。
ここで、離散時刻t1 から離散時刻(t1 +a)の間に、仮想音源101_nがスピーカ103_mから遠ざかる方向に移動したとする。その場合、音波伝播時間データτmn,(t1+a) は、音波伝播時間データτmn,t1 よりも大きくなる。したがって、(Δτmn,(t1+a) =τmn,(t1+a) −τmn,t1 )であることから、時間幅Δτmn,(t1+a) は、正となる。この場合、離散時刻(t1 +a)を起点とするセグメント内の最初の部分に、その1つ前のセグメント、すなわち、離散時刻t1 を起点とするセグメント内の最後の部分のオーディオデータが時間幅Δτmn,(t1+a) 分だけ繰り返される。さらに、離散時刻(t1 −a)から離散時刻t1 の間にも仮想音源101_nがスピーカ103_mから遠ざかる方向に移動したとする。この場合も同様に、音波伝播時間データτmn,tは、音波伝播時間データτmn,(t1-a) よりも大きくなる。したがって、(Δτmn,t1 =τmn,t1 −τmn,(t1-a) )であることから、時間幅Δτmn,t1 は正となる。よって、離散時刻t1 を起点とするセグメント内の最初の部分のオーディオデータに、その1つ前のセグメント、すなわち、離散時刻(t1 −a)を起点とするセグメント内の最後の部分のオーディオデータが時間幅Δτmn,t1 分だけ繰り返される。その結果、離散時刻t1 を起点とするセグメントは、その前後のセグメント、すなわち、離散時刻(t1 −a)を起点とするセグメント及び離散時刻(t1 +a)を起点とするセグメントのいずれのセグメントとの間に波形の歪みが発生する。この時点、すなわち離散時刻t1においては、補正対象セグメントは離散時刻t1 を起点とするセグメントである。そして、そのセグメント内の補正対象区間は、そのセグメントの1つ前のセグメントとの波形歪みを含む、時間幅Δτmn,t1サンプル分と、そのセグメントの1つ後のセグメントとの波形歪みを含む、時間幅Δτmn,(t1+a) サンプル分の2つの区間となる。このとき、当然のことながら補正対象セグメントの前後のセグメントも対称にそれぞれ時間幅Δτmn,t1 サンプル分と時間幅Δτmn,(t1+a) サンプル分の補正対象区間が含まれているが、1つ前のセグメントは離散時刻(t1 −a)の時点における補正処理でその区間が既に補正され、1つ後のセグメントは後に離散時刻(t1 +a)の時点における補正処理においてその区間が補正されることとなる。ここで、補正対象セグメント内における上述の2箇所の補正区間について、その処理内容は同じであるため、以下では補正対象セグメントの後ろ側、すなわち1つ後のセグメントとの関係で生じた歪み波形の補正区間部分についてのみ図を用いて説明する。
再び図6を参照すると、オーディオデータの補正前においては、補正対象セグメント内の補正区間、すなわち離散時刻(t1 +a−Δτmn,(t1+a) )から離散時刻(t1 +a−1)までのオーディオデータは、離散時刻t1 を起点とするセグメント内の標本データ308、309、310、311、312をつなぎ合わせることにより得られるオーディオデータである。このオーディオデータは、補正対象セグメントより1つ後のセグメントである、離散時刻(t1 +a)を起点とするセグメントにおける離散時刻(t1 +a)から離散時刻(t1 +a+Δτmn,(t1+a) −1)までの標本データ308、309、310、311、312をつなぎ合わせることにより得られるオーディオデータとして再び現れる。その結果、上述の通り、離散時刻t1 を起点とするセグメント及び離散時刻(t1 +a)を起点とするセグメントの間に波形の歪みが発生する。そこで、オーディオデータの補正処理を行うことによって、オーディオ信号波形を伸張して波形の歪みを解消する。
図15は、補正後のオーディオデータにより形成されるオーディオ信号波形の説明図である。まず、標本データ309の離散時刻の値として、標本データ308’及び標本データ309’の平均値を採用する(1501)。そして、標本データ310として、標本データ309’を採用する(1502)。そして、標本データ311として標本データ309’及び標本データ310’の平均値を採用する(1503)。そして、標本データ312として、標本データ310’を採用する(1504)。ここで、補正対象セグメントの1つ後のセグメントはこの時点では補正処理が行われないが、ここでは説明のために、そのセグメントで後に行われる補正処理についても記述する。すなわち、上述に引き続き、標本データ308’として標本データ310’及び標本データ311’の平均値を採用する(1505)。そして、標本データ309’として標本データ311’を採用する(1506)。そして、標本データ310’として標本データ311’及び標本データ312’の平均値を採用する(1507)。そして、標本データ311’として標本データ312’を採用する(1508)。さらに、標本データ312’として標本データ312’及び標本データ313の平均値を採用する(1509)。以上のような処理は結局のところ、時間幅Δτmn,(t1+a) の波形が2回繰り返されている区間全体にわたり、その1回分の波形を2倍の時間幅に均等に伸長している処理、つまり、0.5毎の標本値を採用する形となっている。ただし、例えば時刻1.5の標本値など、指定した時刻に該当する標本値が存在しない場合は、上述のようにその前後の標本値の平均値を採用する。また、この例では、補正対象セグメントとその1つ後のセグメントにそれぞれ存在する補正区間の時間幅を、繰り返された2回の波形の1回分の時間幅と等しいとしたが、それぞれ、その時間幅に比例する長さであってもよい。このように標本データの置き換え処理を行うことによって、離散時刻t1 を起点とするセグメント及び離散時刻(t1 +a)を起点とするセグメントの間のオーディオデータが補正される。
その結果、図15からわかるように、離散時刻(t1 +a)の近傍においてオーディオ信号波形の繰り返しがなくなり、発生していた波形の歪みが解消され、オーディオ信号波形は滑らかな曲線を描く。同様に、離散時刻t1 を起点とするセグメント及び離散時刻(t1 −a)を起点とするセグメントの間の波形の歪みに対しても、音波伝播時間データバッファ1203に格納されているτmn,(t1-a) とτmn,t1 により算出した時間幅Δτmn,t1 を用い、上述したオーディオデータの補正処理を行う。これによって、離散時刻t1 を起点とするセグメントに対し、その前後にあるセグメントとの間に発生していた波形の歪みを解消することができる。
次に、上述の例とは逆に、離散時刻t1 から離散時刻(t1 +a)の間に、仮想音源101_nがスピーカ103_mに近づく方向に移動したとする。その場合、音波伝播時間データτmn,(t1+a) は、音波伝播時間データτmn,t1 よりも小さくなる。したがって、(Δτmn,(t1+a) =τmn,(t1+a) −τmn,t1 )であることから、時間幅Δτmn,(t1+a) は負となる。この場合、離散時刻t1 を起点とするセグメント及び離散時刻(t1 +a)を起点とするセグメントの間でオーディオデータが欠落する。さらに、離散時刻(t1 −a)から離散時刻t1 の間でも仮想音源101_nがスピーカ103_mに近づく方向に移動したとする。その場合も、音波伝播時間データτmn,t1 は、音波伝播時間データτmn,(t1-a) よりも小さくなる。したがって、(Δτmn,t1 =τmn,t1 −τmn,(t1-a) )であることから、時間幅Δτmn,t1 は負となる。この場合、離散時刻(t1 −a)を起点とするセグメント及び離散時刻t1 を起点とするセグメントの間でオーディオデータが欠落する。
上記の場合、離散時刻t1 を起点とするセグメントは、その前後のセグメント、すなわち、離散時刻(t1 −a)を起点とするセグメント及び離散時刻(t1 +a)を起点とするセグメントのいずれに対しても波形の歪みが発生する。この時点、すなわち離散時刻t1においては、上述の例と同様、補正対象セグメントは離散時刻t1 を起点とするセグメントである。そして、そのセグメント内の補正対象区間は、そのセグメントの1つ前のセグメントとの波形歪みを含む、時間幅Δτmn,t1 サンプル分と、そのセグメントの1つ後のセグメントとの波形歪みを含む、時間幅Δτmn,(t1+a) サンプル分の2つの区間となる。このとき、当然のことながら補正対象セグメントの前後のセグメントも対称にそれぞれ時間幅Δτmn,t1 サンプル分と時間幅Δτmn,(t1+a) サンプル分の補正対象区間が含まれているが、1つ前のセグメントは離散時刻(t1 −a)の時点における補正処理でその区間が既に補正され、1つ後のセグメントは後に離散時刻(t1 +a)の時点における補正処理においてその区間が補正されることとなる。ここで、補正対象セグメント内における上述の2箇所の補正区間について、その処理内容は同じであるため、以下では補正対象セグメントの後ろ側、すなわち1つ後のセグメントとの関係で生じた歪み波形の補正区間部分についてのみ、図を用いて説明する。
再び図10を参照すると、オーディオデータの補正前においては、対象補正区間、すなわち離散時刻(t1 +a−Δτmn,(t1+a) )から離散時刻(t1 +a−1)までのオーディオデータは、離散時刻t1 を起点とするセグメント内の標本データ309、310、311、312をつなぎ合わせることにより得られるオーディオデータである。そして、図9に示す標本データ313〜316の4点が欠落しているため、次のセグメントの起点である標本データ317で波形が不連続となっている。そこで、オーディオデータの補正処理を行うことによって、オーディオ信号波形を圧縮してこの波形の歪みを解消する。図16は、補正後のオーディオデータにより形成されるオーディオ信号波形の説明図である。まず、標本データ309の離散時刻の値として、標本データ309を採用する(1601)。そして、標本データ310の離散時刻の値として、標本データ310と311の平均値を採用する(1602)。そして、標本データ311として、標本データ312を採用する(1603)。そして、標本データ312として、標本データ313と標本データ314の平均値を採用する(1604)。ここで、補正対象セグメントの1つ後のセグメントはこの時点では補正処理が行われないが、ここでは説明のために、そのセグメントで後に行われる補正処理についても記述する。すなわち、上述に引き続き、標本データ317として標本データ315を採用する(1605)。そして、標本データ318として、標本データ316と標本データ317の平均値を採用する(1606)。そして、標本データ319として、標本データ318を採用する(1607)。そして、標本データ320として、標本データ319と標本データ320の平均値を採用する(1608)。以上のような処理は結局のところ、時間幅Δτmn,(t1+a) の波形が欠落している区間の前後それぞれ時間幅Δτmn,(t1+a) の両区間にわたり、その区間の波形に欠落部分の波形を加えた、時間幅(3×Δτmn,(t1+a) )分の波形を2/3倍の時間幅に均等に圧縮する処理、つまり1.5毎の標本値を採用する形となっている。ただし、上述と同様、例えば時刻1.5の標本値など、指定した時刻に該当する標本値が存在しない場合は、上述のようにその前後の標本値の平均値を採用する。また、この例では、欠落部分の両側に存在する補正区間の時間幅を欠落部分の時間幅と等しいとしたが、それぞれ、その時間幅に比例する長さであってもよい。さらに、ここではいずれの例も、時間幅Δτmn,t1 と時間幅Δτmn,(t1+a) は同じ符号としたが、それぞれ異なる符号であっても構わないし、値が0であっても構わない。それらの場合、その値が0であれば補正処理は行われず、また0ではない場合はその値の符号に応じて上述の例のいずれかの補正処理を行うことになる。
次の仮想音源101_nに対しても同様に計算し、出力オーディオデータ重畳部1208は、仮想音源101_n毎の出力オーディオデータを重畳し、オーディオデータの合成を行う。そして、この処理をスピーカの個数分繰り返す。この例では、離散時刻t1 における出力オーディオデータのセグメント内の最初の部分の補正幅は時間幅Δτmn,t1 としたが、時間幅Δτmn,t1 の倍数であってもよい。また、図16に示すように、滑らかなオーディオ信号波形が得られれば、標本データの置き換えの方法は他の方法であってもよい。
以上のように、オーディオデータを補正することによって波形の歪みを解消した後、利得係数データに基づいた補正処理を更に行う。前述した通り、仮想音源101_nが移動した場合、利得係数データも変化する。そこで、補正区間幅に亘って、徐々に利得係数を変化させる。補正対象セグメントの利得係数をG1とし、補正対象セグメントに隣接する1つ後のセグメントの利得係数をG2とすると、着目する補正区間内の各点での利得係数G=qG2+(1−q)G1となる。ここでqを補正区間内に亘って0から0.5まで変化させる。ちなみに、この1つ後のセグメント内の最初の補正区間においては、その補正処理時に、このqをその補正区間内に亘って0.5から1まで変化させることとなる。変化のさせ方は線形でも何かの関数でもよい。これにより、波形の歪みを作ることなく利得係数を変化させることができる。
以上の処理を仮想音源101_nの数及びスピーカ103_mの数に応じて繰り返し実行することによって、仮想音源101_nが移動した場合に発生する波形の歪みを解消することができ、それによって、波形の歪みに起因するノイズを大幅に低減することができる。
図17は、実施の形態1に係るデータ処理の流れを示すフローチャートである。本データ処理は、CPU1111による制御のもと、オーディオデータ処理部1101により実行される。オーディオデータ処理部1101は、まず、仮想音源101_nの番号nに1を代入し、スピーカ103_mの番号mに1を代入する。すなわち、1番目の仮想音源101_1及び1番目のスピーカ103_1を指定する(S10)。オーディオデータ処理部1101は、n番目の仮想音源101_nに対するオーディオファイルをオーディオデータ格納部1103より入力する(S11)。さらに、オーディオデータ処理部1101は、仮想音源101_nに対応する仮想音源位置データ及びスピーカ位置データの各々を仮想音源位置データ格納部1104及びスピーカ位置データ格納部1106から入力する(S12)。オーディオデータ処理部1101は、入力した仮想音源位置データ及びスピーカ位置データに基づいて、仮想音源101_n及びスピーカ103_mの距離データ(|rn,t −rm |)を算出する(S13)。オーディオデータ処理部1101は、算出した距離データ(|rn,t −rm |)に基づき、2つ前のセグメントと1つ前のセグメントそれぞれに対応する距離データ(以下、第1及び第2の距離)を比較する(S15)。同様に、1つ前のセグメントと最新のセグメントそれぞれに対応する距離データ(以下、第2及び第3の距離)を比較する(S18)。すなわち、S15では、オーディオデータ処理部1101は、2つ前のセグメントの時点から1つ前のセグメントの時点にかけて仮想音源101_nがスピーカ103_mに対して移動していたか静止していたかを判定する。同様に、S18では、1つ前のセグメントの時点から最新のセグメントの時点にかけて仮想音源101_nがスピーカ103_mに対して移動していたか静止していたかを判定する。
S15にて第1及び第2の距離が異なると判定した場合(S15:YES)、すなわち、仮想音源101_nが移動したと判定した場合、オーディオデータ処理部1101は、補正対象セグメントとその1つ前のセグメントとの関係によって生じた波形の歪みの部分の特定及び補正を行う(S16)。これに対して、第1及び第2の距離が同じと判定した場合(S15:NO)、すなわち、仮想音源101_nが静止していたと判定した場合には、オーディオデータ処理部1101は、S18の処理に進む。S18の詳細については後述する。次いでオーディオデータ処理部1101は、利得制御を行う(S17)。次いでオーディオデータ処理部1101は、第2及び第3の距離についてS15と同様に比較を行う(S18)。S18にて第2及び第3の距離が異なると判定した場合(S18:YES)、すなわち、仮想音源101_nが移動したと判定した場合、オーディオデータ処理部1101は、補正対象セグメントとその1つ後ろのセグメントとの関係によって生じた波形の歪みの部分の特定及び補正を行い(S19)、利得制御を行う(S20)。これに対して、第2及び第3の距離が同じと判定した場合(S18:NO)、すなわち、仮想音源101_nが静止していたと判定した場合には、オーディオデータ処理部1101は、S21の処理に進む。次いでオーディオデータ処理部1101は、仮想音源101_nの番号nに1を加算し(S21)、仮想音源101_nの番号nが最大値Nであるかどうかを判定する(S22)。S21で判定した結果、仮想音源101_nの番号nが最大値Nでない場合(S22:NO)には、S11の処理に戻り、続いて、2番目の仮想音源101_2及び1番目のスピーカ103_1に対して、S11〜S21の処理を行う。これに対して、仮想音源101_nの番号nが最大値Nである場合(S22:YES)、オーディオデータの合成を行う(S23)。次いでオーディオデータ処理部1101は、仮想音源101_nの番号nに1を代入し(S24)、スピーカの番号mに1を加算する(S25)。次いでオーディオデータ処理部1101は、スピーカの番号mが最大値Mであるかどうか判定し(S26)、スピーカの番号mが最大値Mでない場合(S26:NO)にはS11の処理に戻り、スピーカの番号mが最大値Mの場合(S26:YES)には処理を終了する。
図18は、波形の歪みの部分の特定及び補正の処理(図17におけるS16およびS19)の流れを示すフローチャートである。この部分ではS16及びS19のいずれの処理から移動してくるにせよ、補正対象セグメント内に対してのみ処理を施す。S16から移動してきた場合は、補正対象セグメントとその1つ前のセグメントとの関係によって生じた波形歪みを補正する。そして、S19から移動してきた場合は、補正対象セグメントとその1つ後ろのセグメントとの関係によって生じた波形歪みを補正する。オーディオデータ処理部1101は、仮想音源101_nがスピーカ103_mに対して離隔していたか接近していたかを判定する(S30)。オーディオデータ処理部1101は、後ろのセグメントの音波伝播時間が前のセグメントの音波伝播時間よりも増加している場合には仮想音源101_nはスピーカ103_mから離隔していたと判定し(S30:離隔)、S31の処理に進む。これに対して、オーディオデータ処理部1101は、後ろのセグメントの音波伝播時間が前のセグメントの音波伝播時間よりも減少している場合には仮想音源101_nはスピーカ103_mに接近していると判定し(S30:接近)、S32の処理に進み、標本データの欠落部分を特定する(S32)。オーディオデータ処理部1101は、標本データの繰り返し部分を特定する(S31)。すなわち、前述した通り、この繰り返し部分は、前のセグメント内の最後の部分及び後ろのセグメント内の最初の部分に現れる。
オーディオデータ処理部1101は、繰り返し部分に含まれる標本データを他のデータに置き換える(S33)。図6を参照すると、もし、S16から移動してきた場合、すなわち補正対象セグメントが後ろのセグメントである場合、標本データ308’として標本データ310’及び標本データ311’の平均値を採用する(1505)。そして、標本データ309’として標本データ311’を採用する(1506)。そして、標本データ310’として標本データ311’及び標本データ312’の平均値を採用する(1507)。そして、標本データ311’として標本データ312’を採用する(1508)。さらに、標本データ312’として標本データ312’及び標本データ313の平均値を採用する(1509)。逆に、補正対象セグメントが前のセグメントである場合、標本データ309の離散時刻の値として、標本データ308’及び標本データ309’の平均値を採用する(1501)。そして、標本データ310として、標本データ309’を採用する(1502)。そして、標本データ311として標本データ309’及び標本データ310’の平均値を採用する(1503)。そして、標本データ312として、標本データ310’を採用する(1504)。これは、一般的には、時間幅Δτmn,(t1+a) の波形が2回繰り返されている区間全体にわたり、その1回分の波形を2倍の時間幅に均等に伸長している処理、つまり、0.5毎の標本値を採用する処理となっている。ただし、例えば時刻1.5の標本値など、指定した時刻に該当する標本値が存在しない場合は、上述のようにその前後の標本値の平均値を採用する。
一方、オーディオデータ処理部1101は、欠落部分及びその前後の部分を含む領域を圧縮し、圧縮された領域の標本データを他のデータに置き換える(S34)。例えば、図9及び図16を参照すると、標本データ317の近傍で波形が不連続となっている。もし、S16から移動してきた場合、すなわち補正対象セグメントが後ろのセグメントである場合、標本データは317として標本データ315を採用する(1605)。そして、標本データ318として、標本データ316と317の平均値を採用する(1606)。そして、標本データ319として、標本データ318を採用する(1607)。そして、標本データ320として、標本データ319と320の平均値を採用する(1608)。逆に、S19から移動してきた場合、すなわち補正対象セグメントが前のセグメントである場合、標本データ310として、標本データ310と311の平均値を採用する(1602)。そして、標本データ311として、標本データ312を採用する(1603)。そして、標本データ312として、標本データ313と標本データ314の平均値を採用する(1604)。これは、一般的には、時間幅Δτmn,(t1+a) の波形が欠落している区間の前後それぞれ時間幅Δτmn,(t1+a) の両区間にわたり、その区間の波形に欠落部分の波形を加えた、時間幅3×Δτmn,(t1+a) 分の波形を2/3倍の時間幅に均等に圧縮する処理、つまり1.5毎の標本値を採用する形となっている。ただし、上述と同様、例えば時刻1.5の標本値など、指定した時刻に該当する標本値が存在しない場合は、上述のようにその前後の標本値の平均値を採用する処理となっている。
以上の処理を仮想音源101の数及びスピーカ103の数に応じて実行することによって、仮想音源101が移動した場合に発生する波形の歪みを解消することができ、それにより、波形の歪みに起因するノイズを大幅に低減することができる。
実施の形態2
図19は、実施の形態2に係るオーディオ装置の内部構成例を示すブロック図である。実施の形態2は、実施の形態1がオーディオ装置1100内のROM1112に記憶してあるプログラムを実行するのに対して、書き換え可能なEEPROM( Electrically Erasable Programmable Read-Only Memory )又は内部記憶装置25に記憶されたプログラムを読み出して実行するようにしてある。オーディオ装置1100は、EEPROM24、内部記憶装置25及び記録媒体読込部23を備える。CPU17は、記録媒体読込部23に挿入されたCD( Compact Disk )−ROM又はDVD( Digital Versatile Disk )−ROM等の記録媒体230からプログラム231を読み込んでEEPROM24又は内部記憶装置25に記憶するようにしてある。CPU17は、EEPROM24又は内部記憶装置25に記憶したプログラム231をRAM18に読み出して実行する構成となっている。
本発明に係るプログラム231は、記録媒体230から読み出してEEPROM24又は内部記憶装置25に記憶される場合に限るものではなく、メモリカード等の外部メモリに記憶させても良い。この場合、CPU17に接続される図示しない外部メモリからプログラム231を読み出してEEPROM24又は内部記憶装置25に記憶させる。さらにCPU17に接続された図示しない通信部と外部のコンピュータとの間で通信を確立し、プログラム231をEEPROM24又は内部記憶装置25へダウンロードしても良い。
101 仮想音源
1100 オーディオ装置
1101 オーディオデータ処理部
1102 コンテンツ情報分離部
1109 再生部
1110 通信インタフェース部
1115 サーバ
1116 放送局

Claims (14)

  1. 移動する仮想音源が発する音に対応するオーディオデータ、該仮想音源の位置及び前記オーディオデータに基づき音を放射するスピーカの位置を入力し、前記仮想音源の位置及び前記スピーカの位置に基づいて前記オーディオデータを補正するオーディオデータ処理装置において、
    相前後する時点での前記スピーカの位置から前記仮想音源の位置までそれぞれの第1及び第2の距離を算出する算出手段と、
    前記第1及び第2の距離を比較する比較手段と、
    比較の結果、前記第1及び第2の距離が異なる場合、前後の時点における前記オーディオデータにある歪みの部分を特定する特定手段と、
    前記仮想音源の前記スピーカに対する接近及び離隔に応じて、特定された部分の前記オーディオデータに対して異なる補正を行う補正手段と
    を備えることを特徴とするオーディオデータ処理装置。
  2. 前記オーディオデータは標本データを含み、
    前記特定手段は、前記仮想音源の前記スピーカに対する離隔に起因する標本データの繰り返し部分を特定し、
    前記補正手段は、特定された前記繰り返し部分に対して補正を行う第1の補正手段を備えることを特徴とする請求項1記載のオーディオデータ処理装置。
  3. 前記オーディオデータは標本データを含み、
    前記特定手段は、前記仮想音源の前記スピーカに対する接近に起因する標本データの欠落部分を特定し、
    前記補正手段は、特定された前記欠落部分を挟む前後の部分に対して補正を行う第2の補正手段を備えることを特徴とする請求項1記載のオーディオデータ処理装置。
  4. 前記オーディオデータは標本データを含み、
    前記特定手段は、前記仮想音源の前記スピーカに対する接近及び離隔に起因する標本データの繰り返し部分又は標本データの欠落部分を特定し、
    前記補正手段は、
    特定された前記繰り返し部分に対して補正を行う第1の補正手段と、
    特定された前記欠落部分を挟む前後の部分に対して補正を行う第2の補正手段と
    を備えることを特徴とする請求項1記載のオーディオデータ処理装置。
  5. 前記補正を行う部分は、前記第1及び第2の距離を音波が伝播する時間幅の差、又は、前記差に比例する時間幅であることを特徴とする請求項2から4のいずれか1項に記載のオーディオデータ処理装置。
  6. 前記第1の補正手段は、特定された前記繰り返し部分に含まれる標本データを、該標本データにより形成される2つの波形の内の1つの波形を2倍の時間幅に均等に伸張することにより得られる標本データに置き換えることを特徴とする請求項2又は4に記載のオーディオデータ処理装置。
  7. 前記第2の補正手段は、特定された前記欠落部分及び該欠落部分の前後の部分に含まれる標本データを、該標本データにより形成される波形を2/3倍の時間幅に均等に圧縮することにより得られる標本データに置き換えることを特徴とする請求項3又は4に記載のオーディオデータ処理装置。
  8. 前記補正手段により補正が行われたオーディオデータに対して利得制御を行う手段を更に備えることを特徴とする請求項1から7のいずれか1項に記載のオーディオデータ処理装置。
  9. 前記仮想音源の数は1つ又は複数であることを特徴とする請求項1から8のいずれか1項に記載のオーディオデータ処理装置。
  10. 移動する仮想音源が発する音に対応するオーディオデータ、該仮想音源の位置及び前記オーディオデータに基づき音を放射するスピーカの位置を用い、前記仮想音源の位置及び前記スピーカの位置に基づいて前記オーディオデータを補正するオーディオ装置において、
    前記オーディオデータ及び前記仮想音源の位置を含むディジタルコンテンツを入力するディジタルコンテンツ入力部と、
    前記ディジタルコンテンツ入力部が入力したディジタルコンテンツを解析し、該ディジタルコンテンツに含まれるオーディオデータ及び仮想音源の位置のデータを分離するコンテンツ情報分離部と、
    前記コンテンツ情報分離部が分離した仮想音源の位置のデータ及び前記スピーカの位置のデータに基づいて、前記コンテンツ情報分離部が分離したオーディデータを補正するオーディオデータ処理部と、
    補正されたオーディオデータに基づき前記スピーカへのオーディオ信号を生成するオーディオ信号生成部と
    を備え、
    前記オーディオデータ処理部は、
    相前後する時点での前記スピーカの位置から前記仮想音源の位置までそれぞれの第1及び第2の距離を算出する手段と、
    前記第1及び第2の距離を比較する手段と、
    比較の結果、前記第1及び第2の距離が異なる場合、前後の時点における前記オーディオデータにある歪みの部分を特定する手段と、
    前記仮想音源の前記スピーカに対する接近及び離隔に応じて、特定された部分の前記オーディオデータに対して異なる補正を行う手段と
    を備えることを特徴とするオーディオ装置。
  11. 前記ディジタルコンテンツ入力部は、ディジタルコンテンツを格納する記録媒体、ネットワークを介してディジタルコンテンツを配信するサーバ又はディジタルコンテンツを放送する放送局からディジタルコンテンツを入力することを特徴とする請求項10に記載のオーディオ装置。
  12. 移動する仮想音源が発する音に対応するオーディオデータ、該仮想音源の位置及び前記オーディオデータに基づき音を放射するスピーカの位置を入力し、前記仮想音源の位置及び前記スピーカの位置に基づいて前記オーディオデータを補正するオーディオデータ処理装置におけるオーディオデータ処理方法において、
    相前後する時点での前記スピーカの位置から前記仮想音源の位置までそれぞれの第1及び第2の距離を算出するステップと、
    前記第1及び第2の距離を比較するステップと、
    比較の結果、前記第1及び第2の距離が異なる場合、前後の時点における前記オーディオデータにある歪みの部分を特定するステップと、
    前記仮想音源の前記スピーカに対する接近及び離隔に応じて、特定された部分の前記オーディオデータに対して異なる補正を行うステップと
    を含むことを特徴とするオーディオデータ処理方法。
  13. 移動する仮想音源が発する音に対応するオーディオデータ、該仮想音源の位置及び前記オーディオデータに基づき音を放射するスピーカの位置を入力し、前記仮想音源の位置及び前記スピーカの位置に基づいて前記オーディオデータを補正させるプログラムにおいて、
    コンピュータに、
    相前後する時点での前記スピーカの位置から前記仮想音源の位置までそれぞれの第1及び第2の距離を算出するステップと、
    前記第1及び第2の距離を比較するステップと、
    比較の結果、前記第1及び第2の距離が異なる場合、前後の時点における前記オーディオデータにある歪みの部分を特定するステップと、
    前記仮想音源の前記スピーカに対する接近及び離隔に応じて、特定された部分の前記オーディオデータに対して異なる補正を行うステップと
    を実行させるプログラム。
  14. 請求項13に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2009279794A 2009-12-09 2009-12-09 オーディオデータ処理装置、オーディオ装置、オーディオデータ処理方法、プログラム及び記録媒体 Expired - Fee Related JP5361689B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2009279794A JP5361689B2 (ja) 2009-12-09 2009-12-09 オーディオデータ処理装置、オーディオ装置、オーディオデータ処理方法、プログラム及び記録媒体
PCT/JP2010/071491 WO2011070957A1 (ja) 2009-12-09 2010-12-01 オーディオデータ処理装置、オーディオ装置、オーディオデータ処理方法、プログラム及び記録媒体
US13/514,902 US20120269350A1 (en) 2009-12-09 2010-12-01 Audio data processing apparatus, audio apparatus, and audio data processing method
CN201080055731.6A CN102656906B (zh) 2009-12-09 2010-12-01 音频数据处理装置、音频装置、以及音频数据处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009279794A JP5361689B2 (ja) 2009-12-09 2009-12-09 オーディオデータ処理装置、オーディオ装置、オーディオデータ処理方法、プログラム及び記録媒体

Publications (2)

Publication Number Publication Date
JP2011124724A JP2011124724A (ja) 2011-06-23
JP5361689B2 true JP5361689B2 (ja) 2013-12-04

Family

ID=44145502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009279794A Expired - Fee Related JP5361689B2 (ja) 2009-12-09 2009-12-09 オーディオデータ処理装置、オーディオ装置、オーディオデータ処理方法、プログラム及び記録媒体

Country Status (4)

Country Link
US (1) US20120269350A1 (ja)
JP (1) JP5361689B2 (ja)
CN (1) CN102656906B (ja)
WO (1) WO2011070957A1 (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3528808B2 (ja) * 2001-04-03 2004-05-24 日本電気株式会社 相互相関関数計算方法および装置
DE10321980B4 (de) * 2003-05-15 2005-10-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Berechnen eines diskreten Werts einer Komponente in einem Lautsprechersignal
DE10328335B4 (de) * 2003-06-24 2005-07-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Wellenfeldsyntesevorrichtung und Verfahren zum Treiben eines Arrays von Lautsprechern
JP4584203B2 (ja) * 2006-07-31 2010-11-17 株式会社コナミデジタルエンタテインメント 音声シミュレーション装置、音声シミュレーション方法、ならびに、プログラム
CN103716748A (zh) * 2007-03-01 2014-04-09 杰里·马哈布比 音频空间化及环境模拟

Also Published As

Publication number Publication date
JP2011124724A (ja) 2011-06-23
CN102656906A (zh) 2012-09-05
CN102656906B (zh) 2015-04-22
US20120269350A1 (en) 2012-10-25
WO2011070957A1 (ja) 2011-06-16

Similar Documents

Publication Publication Date Title
WO2011070956A1 (ja) オーディオデータ処理装置、オーディオ装置、オーディオデータ処理方法、プログラム及び当該プログラムを記録した記録媒体
US8219394B2 (en) Adaptive ambient sound suppression and speech tracking
CN108476367B (zh) 用于沉浸式音频回放的信号的合成
WO2018008395A1 (ja) 音場形成装置および方法、並びにプログラム
US10728688B2 (en) Adaptive audio construction
JP6361000B2 (ja) 改良された復元のために音声信号を処理するための方法
JP5931182B2 (ja) 付加的な出力チャンネルを提供するためのステレオ出力信号を生成する装置、方法およびコンピュータプログラム
JP2007502590A (ja) スピーカ信号内のコンポーネントの離散値を算出する装置および方法
WO2022014326A1 (ja) 信号処理装置および方法、並びにプログラム
JP6970366B2 (ja) 音像再現装置、音像再現方法及び音像再現プログラム
JP2001296894A (ja) 音声処理装置および音声処理方法
JP5361689B2 (ja) オーディオデータ処理装置、オーディオ装置、オーディオデータ処理方法、プログラム及び記録媒体
JP6968108B2 (ja) 音響装置、及び音響制御装置
JP7065801B2 (ja) 音響信号の合成装置及びプログラム
JP6355049B2 (ja) 音響信号処理方法、及び音響信号処理装置
JP5224586B2 (ja) オーディオ信号補間装置
KR20160122029A (ko) 스피커 정보에 기초하여, 오디오 신호를 처리하는 방법 및 장치
JP6774912B2 (ja) 音像生成装置
JP7212747B2 (ja) 音響信号の合成装置及びプログラム
WO2022034805A1 (ja) 信号処理装置および方法、並びにオーディオ再生システム
JP2018121225A (ja) 音響再生装置
US11076252B2 (en) Audio signal processing apparatus and audio signal processing method
JP2015119393A (ja) 音響信号受聴装置
KR20100138182A (ko) 오디오 변속처리 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130813

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130903

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees