JP2012181469A - 送信装置、受信装置、送信方法、受信方法、通信システム - Google Patents
送信装置、受信装置、送信方法、受信方法、通信システム Download PDFInfo
- Publication number
- JP2012181469A JP2012181469A JP2011045842A JP2011045842A JP2012181469A JP 2012181469 A JP2012181469 A JP 2012181469A JP 2011045842 A JP2011045842 A JP 2011045842A JP 2011045842 A JP2011045842 A JP 2011045842A JP 2012181469 A JP2012181469 A JP 2012181469A
- Authority
- JP
- Japan
- Prior art keywords
- transmission
- data
- unit
- audio data
- amplification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Circuit For Audible Band Transducer (AREA)
Abstract
【課題】ビット数の少ない伝送路を介してオーディオデータ等の通信を行う場合の音質低下を抑える。
【解決手段】オーディオデータを伝送するシステムの場合、送信装置は、送信オーディオデータ入力部に入力されたオーディオデータについて、所定のタイムフレーム毎に、タイムフレーム内の最大音量レベルに応じた増幅処理を行う。そしてタイムフレーム毎に増幅値情報を対応づけてオーディオデータを送信する。受信装置では、受信したオーディオデータについて増幅値情報に基づいてタイムフレーム毎に減衰処理を行う。これにより、低ビットの伝送路で消失する下位ビットの有効データを最小限とする。
【選択図】図4
【解決手段】オーディオデータを伝送するシステムの場合、送信装置は、送信オーディオデータ入力部に入力されたオーディオデータについて、所定のタイムフレーム毎に、タイムフレーム内の最大音量レベルに応じた増幅処理を行う。そしてタイムフレーム毎に増幅値情報を対応づけてオーディオデータを送信する。受信装置では、受信したオーディオデータについて増幅値情報に基づいてタイムフレーム毎に減衰処理を行う。これにより、低ビットの伝送路で消失する下位ビットの有効データを最小限とする。
【選択図】図4
Description
本開示は送信装置、受信装置、送信方法、受信方法、通信システムに関しする。特に送信装置、受信装置で処理するデジタルデータの量子化ビット数より少ない量子化ビット数の伝送路を介してのデータ通信に関する。
音声再生の分野においては、従来のCD(Compact Disc)のような2チャンネル(ステレオ)から、DVD(Digital Versatile Disc),BD(Blu-ray Disc(登録商標))に見られる5.1チャンネル,7.1チャンネルのようなマルチチャンネル化が進んでいる。
それに伴い、再生システムにおけるスピーカの設置本数や、AVアンプなどによる音場設定、再生ストリーム自体のチャンネル数などに応じて、さまざまなチャンネル数での音声再生が行われている。
それに伴い、再生システムにおけるスピーカの設置本数や、AVアンプなどによる音場設定、再生ストリーム自体のチャンネル数などに応じて、さまざまなチャンネル数での音声再生が行われている。
また、機器間の配線の煩わしさから、オーディオデータの送受信の無線化も進んでいる。例えば、ホームシアターシステムにおいては、オーディオデータを送信する送信装置とオーディオデータを受信するスピーカなどの受信装置とをワイヤレスで接続することにより、スピーカなどのレイアウトの自由度を高めようとする試みがなされている。
このようにオーディオデータを複数の装置間で伝送して処理する場合に、伝送路の制限上、オーディオデータの量子化ビット数を下げる場合がある。
例えば送信装置と受信装置が24ビットのオーディオデータの処理を行う機器であるにもかかわらず、著作権保護の要請や、通信帯域の制限等の事情で、伝送路では16ビットのオーディオデータで送受信を行わなければならないことがある。
当然、24ビットのオーディオデータを16ビットデータとして伝送することで、受信装置側でのオーディオデータの品質(例えばダイナミックレンジ)は低下せざるを得ない。このため、受信装置側で、本来の性能が生かせず音質低下が生じていた。
例えば送信装置と受信装置が24ビットのオーディオデータの処理を行う機器であるにもかかわらず、著作権保護の要請や、通信帯域の制限等の事情で、伝送路では16ビットのオーディオデータで送受信を行わなければならないことがある。
当然、24ビットのオーディオデータを16ビットデータとして伝送することで、受信装置側でのオーディオデータの品質(例えばダイナミックレンジ)は低下せざるを得ない。このため、受信装置側で、本来の性能が生かせず音質低下が生じていた。
本開示では、このような問題に鑑みて、送受信装置間で、それらの装置で扱う量子化ビット数より低い量子化ビット数のオーディオデータ等を伝送する場合に、受信装置側での信号品質(例えばダイナミックレンジ向上による音質向上)を実現することを目的とする。
本開示の送信装置は、第1の量子化ビット数のデジタルデータを伝送する伝送路を用いて伝送するデジタルデータとして、上記第1の量子化ビット数よりビット数の多い第2の量子化ビット数のデジタルデータを入力する送信データ入力部と、上記送信データ入力部に入力されたデジタルデータについて、所定のタイムフレーム毎に、タイムフレーム内の最大レベルに応じた増幅処理を行うとともに、増幅値情報を発生させる伝送用調整部と、上記伝送用調整部で処理されたデジタルデータを、そのタイムフレーム毎に上記増幅値情報を対応づけるとともに、上記第1の量子化ビット数のデジタルデータとして、上記伝送路に送信する送信処理部とを備える。
本開示の受信装置は、第1の量子化ビット数のデジタルデータを伝送する伝送路を用いて伝送されてきたデジタルデータを受信し、上記第1の量子化ビット数よりビット数の多い第2の量子化ビット数のデジタルデータとして出力する受信処理部と、上記受信処理部から出力されるデジタルデータについて、所定のタイムフレーム毎に対応づけられた増幅値情報に基づいて減衰値を決定し、タイムフレーム内のデジタルデータについての減衰処理を行う伝送データ調整部とを備える。
本開示の送信方法は、第1の量子化ビット数のデジタルデータを伝送する伝送路を用いて伝送するデジタルデータとして、上記第1の量子化ビット数よりビット数の多い第2の量子化ビット数のデジタルデータを入力し、入力されたデジタルデータについて、所定のタイムフレーム毎に、タイムフレーム内の最大レベルに応じた増幅処理を行うとともに、増幅値情報を発生させ、上記増幅処理されたデジタルデータについて、上記タイムフレーム毎に上記増幅値情報を対応づけるとともに、上記第1の量子化ビット数のデジタルデータとして、上記伝送路に送信する。
本開示の受信方法は、第1の量子化ビット数のデジタルデータを伝送する伝送路を用いて伝送されてきたデジタルデータを受信して、上記第1の量子化ビット数よりビット数の多い第2の量子化ビット数のデジタルデータとして出力し、第2の量子化ビット数のデジタルデータについて、所定のタイムフレーム毎に対応づけられた増幅値情報に基づいて減衰値を決定し、タイムフレーム内のデジタルデータについての減衰処理を行う。
本開示の通信システムは、上記の送信装置と受信装置が、第1の量子化ビット数のデジタルデータを伝送する伝送路を用いて通信を行う通信システムである。
本開示の受信方法は、第1の量子化ビット数のデジタルデータを伝送する伝送路を用いて伝送されてきたデジタルデータを受信して、上記第1の量子化ビット数よりビット数の多い第2の量子化ビット数のデジタルデータとして出力し、第2の量子化ビット数のデジタルデータについて、所定のタイムフレーム毎に対応づけられた増幅値情報に基づいて減衰値を決定し、タイムフレーム内のデジタルデータについての減衰処理を行う。
本開示の通信システムは、上記の送信装置と受信装置が、第1の量子化ビット数のデジタルデータを伝送する伝送路を用いて通信を行う通信システムである。
このような本開示の技術は、送信側では、送信するオーディオデータ等のデジタルデータについて、タイムフレーム(所定のデータ区間)毎に、タイムフレーム内の最大レベル(例えば最大音量レベル)に応じた増幅処理を行う。これは、各デジタルデータについて、使用していない上位ビット部分に有効な情報を配置するものとなる。
例えば小音量のオーディオデータを増幅し、量子化データの上位ビット側に、有効なデータを配置すれば、伝送路でカットされる下位ビット部分の一部又は全部はゼロデータとすることができる。
一方受信側では、受信したデジタルデータについて増幅値情報に基づいてタイムフレーム毎に減衰処理を行う。つまり送信側で増幅した分を元のレベル(例えば元の音量レベル)に戻す。
タイムフレーム毎の増幅値情報をタイムフレーム毎に対応づけて伝送し、受信側でその増幅値情報に基づいて減衰処理を行えば、伝送されるデジタルデータストリームの全ての時間部分で、受信後に元のレベル状態に復元できる。
その上で、送信時にはできるだけ上位ビットに有効なデータが配置されるようにしているため、少ないビット数の伝送路で伝送されることで消失する有効なデータ(元々のデジタルデータの下位ビット部分)を最小限とすることができる。結果として、デジタルデータのダイナミックレンジの減少を抑制できる。
例えば小音量のオーディオデータを増幅し、量子化データの上位ビット側に、有効なデータを配置すれば、伝送路でカットされる下位ビット部分の一部又は全部はゼロデータとすることができる。
一方受信側では、受信したデジタルデータについて増幅値情報に基づいてタイムフレーム毎に減衰処理を行う。つまり送信側で増幅した分を元のレベル(例えば元の音量レベル)に戻す。
タイムフレーム毎の増幅値情報をタイムフレーム毎に対応づけて伝送し、受信側でその増幅値情報に基づいて減衰処理を行えば、伝送されるデジタルデータストリームの全ての時間部分で、受信後に元のレベル状態に復元できる。
その上で、送信時にはできるだけ上位ビットに有効なデータが配置されるようにしているため、少ないビット数の伝送路で伝送されることで消失する有効なデータ(元々のデジタルデータの下位ビット部分)を最小限とすることができる。結果として、デジタルデータのダイナミックレンジの減少を抑制できる。
本開示の技術によれば、量子化ビット数の少ない伝送路でオーディオデータ等のデジタルデータの送受信を行う場合に、受信側でのデータ品質の向上、例えばオーディオデータの音質向上(ダイナミックレンジの向上)が実現できる。
以下、本開示の実施の形態について次の順序で説明する。
<1.通信システム>
<2.第1の実施の形態>
<3.第2の実施の形態>
<4.具体的な通信システム例>
<5.第3の実施の形態>
<6.第4の実施の形態>
<7.変形例>
<1.通信システム>
<2.第1の実施の形態>
<3.第2の実施の形態>
<4.具体的な通信システム例>
<5.第3の実施の形態>
<6.第4の実施の形態>
<7.変形例>
<1.通信システム>
実施の形態の通信システムを図1に示す。
この通信システムは、送信装置1と受信装置2から構成される。送信装置1は、無線又は有線の伝送路3を介して受信装置2にオーディオデータ等の送信を行うシステムである。
実施の形態の通信システムを図1に示す。
この通信システムは、送信装置1と受信装置2から構成される。送信装置1は、無線又は有線の伝送路3を介して受信装置2にオーディオデータ等の送信を行うシステムである。
この場合、伝送路3で伝送されるオーディオデータは、第1の量子化ビット数のオーディオデータである。第1の量子化ビット数は、以下では16ビットであるとする例で説明していく。
一方、送信装置1、受信装置2は、第1の量子化ビット数よりビット数の多い第2の量子化ビット数、例えば24ビットのオーディオデータを扱う機器であるとする。
つまり、送信装置1は、24ビットのオーディオデータを、伝送路3に送信出力するオーディオデータとして処理するが、送信処理の際に、16ビットのオーディオデータに変換する。その16ビットのオーディオデータについて、所定の伝送用フォーマットに応じたエンコード処理、送信のためのRF変調処理等を行って送信する。
一方、送信装置1、受信装置2は、第1の量子化ビット数よりビット数の多い第2の量子化ビット数、例えば24ビットのオーディオデータを扱う機器であるとする。
つまり、送信装置1は、24ビットのオーディオデータを、伝送路3に送信出力するオーディオデータとして処理するが、送信処理の際に、16ビットのオーディオデータに変換する。その16ビットのオーディオデータについて、所定の伝送用フォーマットに応じたエンコード処理、送信のためのRF変調処理等を行って送信する。
受信装置2では、伝送路3を介して送られてきた伝送信号を受信復調し、所定のデコード処理を行ってオーディオデータを得る。このオーディオデータは16ビットデータである。そこでこの16ビットデータの下位8ビットとして、例えば「00000000」を付加して24ビットのオーディオデータとし、その後の処理を行う。
このオーディオデータは、例えばその後、受信装置2に内蔵又は接続されたスピーカから音声として出力されるなどする。
このオーディオデータは、例えばその後、受信装置2に内蔵又は接続されたスピーカから音声として出力されるなどする。
本実施の形態では、このように伝送路3において、送信装置1、受信装置2で扱うオーディオデータの量子化ビット数より少ないビット数で伝送されるシステムを想定する。
例えば伝送路3による機器間の伝送では、著作権保護の要請や、使用帯域の制限などにより、オーディオデータの通信を行う機器よりも少ないビット数に制限される環境がある。
このような通信環境において、実施の形態の送信装置1、受信装置2は、受信側でのオーディオデータの音質向上(ダイナミックレンジの向上)を実現する。
例えば伝送路3による機器間の伝送では、著作権保護の要請や、使用帯域の制限などにより、オーディオデータの通信を行う機器よりも少ないビット数に制限される環境がある。
このような通信環境において、実施の形態の送信装置1、受信装置2は、受信側でのオーディオデータの音質向上(ダイナミックレンジの向上)を実現する。
<2.第1の実施の形態>
第1の実施の形態としての送信装置1、受信装置2について説明する。
ここでは、図2(a)として、上記図1の通信環境において採用できる比較例としての送信装置100,受信装置200を示す。
そして第1の実施の形態の送信装置1、受信装置2の構成を図2(b)に示す。
第1の実施の形態としての送信装置1、受信装置2について説明する。
ここでは、図2(a)として、上記図1の通信環境において採用できる比較例としての送信装置100,受信装置200を示す。
そして第1の実施の形態の送信装置1、受信装置2の構成を図2(b)に示す。
まず図2(a)の比較例を説明する。
送信装置100は、送信オーディオデータ入力部101と、送信処理部102を備える。
送信オーディオデータ入力部101には、図示しない回路部や機器から24ビット量子化のオーディオデータが入力される。
送信オーディオデータ入力部101は、24ビットのオーディオデータを、伝送路3を用いた送信のために送信処理部102に供給する。
送信処理部102は、24ビットのオーディオデータを16ビットに変換し、伝送用エンコードや変調を行って、例えば電波信号等で無線送信出力する。
送信装置100は、送信オーディオデータ入力部101と、送信処理部102を備える。
送信オーディオデータ入力部101には、図示しない回路部や機器から24ビット量子化のオーディオデータが入力される。
送信オーディオデータ入力部101は、24ビットのオーディオデータを、伝送路3を用いた送信のために送信処理部102に供給する。
送信処理部102は、24ビットのオーディオデータを16ビットに変換し、伝送用エンコードや変調を行って、例えば電波信号等で無線送信出力する。
受信装置200は、受信処理部201と受信オーディオデータ処理部202を備える。
受信処理部201は、伝送路3で送信されてきた信号(例えば電波信号)を受信し、RF復調、デコード等を行って16ビットのオーディオデータを得る。これを24ビットのオーディオデータに変換し、受信オーディオデータ処理部202に供給する。
受信オーディオデータ処理部202は、24ビットのオーディオデータについて必要な処理を行う。例えば図示しないスピーカで出力する場合は、音質処理、音響処理、増幅処理等を行う。
受信処理部201は、伝送路3で送信されてきた信号(例えば電波信号)を受信し、RF復調、デコード等を行って16ビットのオーディオデータを得る。これを24ビットのオーディオデータに変換し、受信オーディオデータ処理部202に供給する。
受信オーディオデータ処理部202は、24ビットのオーディオデータについて必要な処理を行う。例えば図示しないスピーカで出力する場合は、音質処理、音響処理、増幅処理等を行う。
ここで、図2(a)にポイントP1〜P4として示した各段階での、オーディオデータのダイナミックレンジの変動を図4(a)で説明する。
図4(a)は、縦軸をdBFS(デジタルオーディオのフルスケールに対する余裕デシベル値)としている。0dBが最大振幅レベルとなる。
−96dBFSは、16ビットオーディオデータの下限、−144dBFSは24ビットオーディオデータの下限値である。そして棒グラフ状の図形で各ポイントでのオーディオデータの状態(ダイナミックレンジ)を示している。
図4(a)は、縦軸をdBFS(デジタルオーディオのフルスケールに対する余裕デシベル値)としている。0dBが最大振幅レベルとなる。
−96dBFSは、16ビットオーディオデータの下限、−144dBFSは24ビットオーディオデータの下限値である。そして棒グラフ状の図形で各ポイントでのオーディオデータの状態(ダイナミックレンジ)を示している。
送信オーディオデータ入力部101の出力段階としてのポイントP1では、24ビットオーディオデータの状態であるため、ダイナミックレンジは144dBである。
これが送信段階(ポイントP2)で16ビット伝送のために変換される。
例えば24ビットのうちの下位の8ビットについて、切り捨て又は四捨五入処理を行い、上位16ビットを利用する。つまりポイントP2のオーディオデータにおける塗りつぶしの部分が消失される。このため、ダイナミックレンジが約96dBまで減少することとなる。
そして伝送路3上(ポイントP3)では16ビットデータとして伝送され、受信処理部201で受信される。受信処理部201は16ビットに下位8ビット(例えば0データ)を付加して、受信オーディオデータ処理部202に出力する(ポイントP4)。
このポイントP4段階でのオーディオデータは、24ビットであるものの、有効なデータは実質は斜線部の上位16ビット分であり、つまりダイナミックレンジが96dBのオーディオデータが、受信オーディオデータ処理部202で処理されることとなる。
このように、受信装置200側では、ダイナミックレンジが縮小され、音質が低下することとなる。
これが送信段階(ポイントP2)で16ビット伝送のために変換される。
例えば24ビットのうちの下位の8ビットについて、切り捨て又は四捨五入処理を行い、上位16ビットを利用する。つまりポイントP2のオーディオデータにおける塗りつぶしの部分が消失される。このため、ダイナミックレンジが約96dBまで減少することとなる。
そして伝送路3上(ポイントP3)では16ビットデータとして伝送され、受信処理部201で受信される。受信処理部201は16ビットに下位8ビット(例えば0データ)を付加して、受信オーディオデータ処理部202に出力する(ポイントP4)。
このポイントP4段階でのオーディオデータは、24ビットであるものの、有効なデータは実質は斜線部の上位16ビット分であり、つまりダイナミックレンジが96dBのオーディオデータが、受信オーディオデータ処理部202で処理されることとなる。
このように、受信装置200側では、ダイナミックレンジが縮小され、音質が低下することとなる。
これに対して、本実施の形態は、受信装置2側で、上記比較例よりもダイナミックレンジが拡大されるようにし、音質向上を実現する。
図2(b)及び図3で第1の実施の形態の送信装置1、受信装置2の構成例を説明する。
図2(b)及び図3で第1の実施の形態の送信装置1、受信装置2の構成例を説明する。
図2(b)に示すように、第1の実施の形態の送信装置1は、送信オーディオデータ入力部10と、伝送用調整部11と、送信処理部12を備える。
送信オーディオデータ入力部10には、図示しない回路部や機器からオーディオデータが入力される。上述のように伝送路3では16ビット量子化のオーディオデータを伝送するが、この送信オーディオデータ入力部10には、24ビット量子化のオーディオデータが入力される。
送信オーディオデータ入力部10は、24ビットのオーディオデータを、伝送用調整部11に供給する。
伝送用調整部11は、送信オーディオデータ入力部10に入力され、供給されたオーディオデータについて、オーディオデータの所定のタイムフレーム毎に、タイムフレーム内の最大音量レベルに応じた増幅処理を行うとともに、増幅値情報を発生させる。詳しくは後述する。
送信処理部12は、伝送用調整部11で増幅処理された24ビットのオーディオデータを16ビットに変換し、伝送用エンコードや変調を行って、例えば電波信号等で無線送信出力する。このとき、オーディオデータのタイムフレーム毎に、伝送用調整部11で発生された増幅値情報を対応づけることも行う。従って伝送路3には、タイムフレーム毎に増幅値情報が対応づけられた16ビット量子化のオーディオデータが送信出力される。
送信オーディオデータ入力部10には、図示しない回路部や機器からオーディオデータが入力される。上述のように伝送路3では16ビット量子化のオーディオデータを伝送するが、この送信オーディオデータ入力部10には、24ビット量子化のオーディオデータが入力される。
送信オーディオデータ入力部10は、24ビットのオーディオデータを、伝送用調整部11に供給する。
伝送用調整部11は、送信オーディオデータ入力部10に入力され、供給されたオーディオデータについて、オーディオデータの所定のタイムフレーム毎に、タイムフレーム内の最大音量レベルに応じた増幅処理を行うとともに、増幅値情報を発生させる。詳しくは後述する。
送信処理部12は、伝送用調整部11で増幅処理された24ビットのオーディオデータを16ビットに変換し、伝送用エンコードや変調を行って、例えば電波信号等で無線送信出力する。このとき、オーディオデータのタイムフレーム毎に、伝送用調整部11で発生された増幅値情報を対応づけることも行う。従って伝送路3には、タイムフレーム毎に増幅値情報が対応づけられた16ビット量子化のオーディオデータが送信出力される。
受信装置2は、受信処理部20と、伝送データ調整部21と、受信オーディオデータ処理部22を備える。
受信処理部20は、伝送路3で送信されてきた信号(例えば電信号)を受信し、RF復調、デコード等を行って16ビットのオーディオデータを得る。これを24ビットのオーディオデータに変換し、伝送データ調整部21に出力する。受信処理部20が受信するのは、上述のようにタイムフレーム毎に増幅値情報が対応づけられた16ビット量子化のオーディオデータであり、このオーディオデータを24ビットに変換し、かつデコード時に得られるタイムフレーム毎の増幅値情報を伝送データ調整部21に出力することとなる。
受信処理部20は、伝送路3で送信されてきた信号(例えば電信号)を受信し、RF復調、デコード等を行って16ビットのオーディオデータを得る。これを24ビットのオーディオデータに変換し、伝送データ調整部21に出力する。受信処理部20が受信するのは、上述のようにタイムフレーム毎に増幅値情報が対応づけられた16ビット量子化のオーディオデータであり、このオーディオデータを24ビットに変換し、かつデコード時に得られるタイムフレーム毎の増幅値情報を伝送データ調整部21に出力することとなる。
伝送データ調整部21は、受信処理部20から出力されるオーディオデータについて、オーディオデータの所定のタイムフレーム毎に対応づけられた増幅値情報に基づいて減衰値を決定し、タイムフレーム内のオーディオデータについての減衰処理を行う。詳しくは後述する。
受信オーディオデータ処理部22は、伝送データ調整部21で処理された24ビットのオーディオデータについて必要な処理を行う。例えば図示しないスピーカで出力する場合は、音質処理、音響処理、増幅処理等を行う。
受信オーディオデータ処理部22は、伝送データ調整部21で処理された24ビットのオーディオデータについて必要な処理を行う。例えば図示しないスピーカで出力する場合は、音質処理、音響処理、増幅処理等を行う。
図3は、このような構成において、送信装置1の伝送用調整部11と、受信装置2の伝送データ調整部21を詳しく示したものとしている。
送信装置1の伝送用調整部11は、音量検出部11a、音量増幅部11b、増幅値情報生成部11cを備える。
音量検出部11aは、オーディオデータに対するタイムフレーム内の最大音量レベルを検出する。タイムフレームは、どのように設定するかは任意である。例えば100msec期間、50msec期間などを1つのタイムフレームなどとすればよい。もちろんより長い期間、より短い期間でもよい。音量増幅部11aは、タイムフレーム毎に、そのタイムフレーム内のオーディオデータのうちで最大値を検出する。
送信装置1の伝送用調整部11は、音量検出部11a、音量増幅部11b、増幅値情報生成部11cを備える。
音量検出部11aは、オーディオデータに対するタイムフレーム内の最大音量レベルを検出する。タイムフレームは、どのように設定するかは任意である。例えば100msec期間、50msec期間などを1つのタイムフレームなどとすればよい。もちろんより長い期間、より短い期間でもよい。音量増幅部11aは、タイムフレーム毎に、そのタイムフレーム内のオーディオデータのうちで最大値を検出する。
音量増幅部11bは、音量検出部11aで検出された最大音量レベルが24ビットでのクリップレベルを超えない範囲の増幅値を決定し、そのタイムフレーム内のオーディオデータにつて、決定した増幅値での増幅処理を行う。説明上、ここでの増幅処理としてY[dB]の増幅を行うこととする。
Y[dB]としての具体的な増幅値は、あくまでも音量検出部11aが検出した最大音量レベルのデータが、クリップしない範囲で決めればよい。その増幅値はビットシフト量、或いは増幅処理の演算係数とすることが考えられる。
なお、増幅後は、タイムフレーム内の最大音量レベルのデータが、クリップぎりぎりのレベルとなるようにする例が考えられる。
Y[dB]としての具体的な増幅値は、あくまでも音量検出部11aが検出した最大音量レベルのデータが、クリップしない範囲で決めればよい。その増幅値はビットシフト量、或いは増幅処理の演算係数とすることが考えられる。
なお、増幅後は、タイムフレーム内の最大音量レベルのデータが、クリップぎりぎりのレベルとなるようにする例が考えられる。
増幅値情報生成部11cは、音量増幅部11bで決定した増幅値、つまりY[dB]の具体値を示す情報として、そのタイムフレームに対応する増幅値情報を生成し、送信処理部12に供給する。増幅値情報は、Y[dB]の値としたり、或いは後述するビットシフト量としたり、或いは後述する乗算係数値を示す値とすることなどが考えられる。
伝送用調整部11がこのように構成されていることで、伝送する対象の24ビットのオーディオデータは、タイムフレーム毎に決定された増幅値で音量増幅部11bで増幅された状態で、その増幅値情報とともに送信処理部12に転送される。送信処理部12は上述のように、伝送路3に対して、タイムフレーム毎に増幅値情報を対応づけて16ビット量子化のオーディオデータを送信出力する。
受信装置2の伝送データ調整部21は、増幅値情報検出部21a、音量調整部21bを備える。
増幅値情報検出部21aは、受信処理部20から出力されるオーディオデータについて、タイムフレーム毎に対応づけられた増幅値情報を検出する。
音量調整部21bは、増幅値情報検出部21aで検出された増幅値情報に基づいて減衰値を決定し、タイムフレーム内のオーディオデータについての減衰処理を行う。この場合、上述のY[dB]の増幅に対応してY[dB]の減衰処理を行うこととなる。つまりタイムフレーム毎に、オーディオデータのレベルを、元のレベルに戻す処理を行う。
このように処理されたオーディオデータが、受信オーディオデータ処理部22に供給され、以後の処理が行われる。
増幅値情報検出部21aは、受信処理部20から出力されるオーディオデータについて、タイムフレーム毎に対応づけられた増幅値情報を検出する。
音量調整部21bは、増幅値情報検出部21aで検出された増幅値情報に基づいて減衰値を決定し、タイムフレーム内のオーディオデータについての減衰処理を行う。この場合、上述のY[dB]の増幅に対応してY[dB]の減衰処理を行うこととなる。つまりタイムフレーム毎に、オーディオデータのレベルを、元のレベルに戻す処理を行う。
このように処理されたオーディオデータが、受信オーディオデータ処理部22に供給され、以後の処理が行われる。
この送信装置1と受信装置2の構成により、本実施の形態の場合、伝送路3では、タイムフレーム毎にY[dB]の増幅が行われたオーディオデータが伝送されることとなる。
この動作を図4(b)で説明する。
この動作を図4(b)で説明する。
図4(b)では、図2(b)にポイントP10〜P15として示した各段階での、オーディオデータのダイナミックレンジの変動を示している。図4(b)では、上述した図4(a)と同様、縦軸をdBFSとしている。
送信オーディオデータ入力部10の出力段階としてのポイントP1では、24ビットオーディオデータの状態であるため、ダイナミックレンジは144dBである。
これが伝送用調整部11でY[dB]増幅される。ポイントP11では、Y[dB]増幅された状態を示している。この場合、Y[dB]に応じたMSB側のビット数はデータが消失することになる。しかし、Y[dB]は、タイムフレーム毎に、そのタイムフレーム内の最大音量レベルのデータが24ビットでのクリップレベルを超えない範囲の増幅値として決定されて増幅処理されるため、消失するMSB側の或るビット数の部分の実際のデータ値は全て「0」である。従ってY[dB]の増幅によって、有効なデータが回復不能な状態に消失することはない。
これが伝送用調整部11でY[dB]増幅される。ポイントP11では、Y[dB]増幅された状態を示している。この場合、Y[dB]に応じたMSB側のビット数はデータが消失することになる。しかし、Y[dB]は、タイムフレーム毎に、そのタイムフレーム内の最大音量レベルのデータが24ビットでのクリップレベルを超えない範囲の増幅値として決定されて増幅処理されるため、消失するMSB側の或るビット数の部分の実際のデータ値は全て「0」である。従ってY[dB]の増幅によって、有効なデータが回復不能な状態に消失することはない。
例えば図5にオーディオデータを波形で示しているが、破線で区切った期間をそれぞれタイムフレームとする。
タイムフレームt1は、比較的音量レベルの高い期間となっている。この期間において、最大音量レベルのデータがクリップレベルを超えない範囲の増幅値が決定されると、その増幅量としてのY[dB]は比較的小さくなる。
一方、タイムフレームt2は比較的音量レベルの低い期間となっている。この期間において、最大音量レベルのデータがクリップレベルを超えない範囲の増幅値が決定されると、その増幅量としてのY[dB]は比較的大きくなる。
また、タイムフレームt3は音量レベルが中間的な期間となっている。この期間において、最大音量レベルのデータがクリップレベルを超えない範囲の増幅値が決定されると、その増幅量としてのY[dB]は、タイムフレームt1より大きく、タイムフレームt2より小さい値となる。
このように伝送用調整部11では、タイムフレーム毎に、クリップレベルを超えない範囲の増幅値が決定されてY[dB]の増幅が行われる。
タイムフレームt1は、比較的音量レベルの高い期間となっている。この期間において、最大音量レベルのデータがクリップレベルを超えない範囲の増幅値が決定されると、その増幅量としてのY[dB]は比較的小さくなる。
一方、タイムフレームt2は比較的音量レベルの低い期間となっている。この期間において、最大音量レベルのデータがクリップレベルを超えない範囲の増幅値が決定されると、その増幅量としてのY[dB]は比較的大きくなる。
また、タイムフレームt3は音量レベルが中間的な期間となっている。この期間において、最大音量レベルのデータがクリップレベルを超えない範囲の増幅値が決定されると、その増幅量としてのY[dB]は、タイムフレームt1より大きく、タイムフレームt2より小さい値となる。
このように伝送用調整部11では、タイムフレーム毎に、クリップレベルを超えない範囲の増幅値が決定されてY[dB]の増幅が行われる。
伝送用調整部11で増幅されたオーディオデータは、送信処理部12で16ビットに変換されて送信処理される。即ち24ビットのうちの下位の8ビットについて、切り捨て又は四捨五入処理を行い、上位16ビットを利用する。このためポイントP11のオーディオデータについて、ポイントP12の図で示すように、塗りつぶしの下位ビット部分が消失される。ダイナミックレンジとしては約96dBまで減少することとなる。
そして伝送路3上(ポイントP13)では16ビットデータとして伝送され、受信処理部20で受信される。受信処理部20は16ビットに下位8ビット(例えば0データ)を付加して、伝送データ調整部21に出力する(ポイントP14)。
このポイントP14段階でのオーディオデータは、24ビットであるものの、有効なデータは実質は斜線部の上位16ビット分であり、つまりダイナミックレンジは実質96dBである。
ここで伝送データ調整部21は、タイムフレーム毎に、増幅値情報で示されたY[dB]に対応してY[dB]の減衰処理を行う。
これによりポイントP15でのオーディオデータは、図示するように斜線部の有効なデータが減衰され、上位ビット(斜線部より上のビット)は0データとなる。しかし、この上位ビット部分は、ポイントP11の段階でカットされた0データが、元に戻されたものと言える。つまり、元々のポイントP10の段階で0データであった部分に、元通り0データが付加されたものとなり、これは有効な0データであると言える。
結果として、ポイントP15、つまり後段の受信オーディオデータ処理部22に供給されるオーディオデータは、(96+Y)[dB]のダイナミックレンジを持つことになる。上述した図4(a)の比較例と比べると、ダイナミックレンジがY[dB]向上していることが理解される。
もちろん、タイムフレーム毎にY[dB]の減衰を行うことで、オーディオデータのレベルは、すべて送信前の元のレベル状態に戻る。
このポイントP14段階でのオーディオデータは、24ビットであるものの、有効なデータは実質は斜線部の上位16ビット分であり、つまりダイナミックレンジは実質96dBである。
ここで伝送データ調整部21は、タイムフレーム毎に、増幅値情報で示されたY[dB]に対応してY[dB]の減衰処理を行う。
これによりポイントP15でのオーディオデータは、図示するように斜線部の有効なデータが減衰され、上位ビット(斜線部より上のビット)は0データとなる。しかし、この上位ビット部分は、ポイントP11の段階でカットされた0データが、元に戻されたものと言える。つまり、元々のポイントP10の段階で0データであった部分に、元通り0データが付加されたものとなり、これは有効な0データであると言える。
結果として、ポイントP15、つまり後段の受信オーディオデータ処理部22に供給されるオーディオデータは、(96+Y)[dB]のダイナミックレンジを持つことになる。上述した図4(a)の比較例と比べると、ダイナミックレンジがY[dB]向上していることが理解される。
もちろん、タイムフレーム毎にY[dB]の減衰を行うことで、オーディオデータのレベルは、すべて送信前の元のレベル状態に戻る。
このように本実施の形態では、低ビット伝送路を用いたオーディオデータの伝送について、ダイナミックレンジの低下を抑制し、結果として通常の伝送(比較例)よりダイナミックレンジを向上させて、受信装置2側での音質の向上を実現できる。
上記図5で示したように、オーディオデータの波形をあるタイムフレームで区切ってみると、例えばタイムフレームt1のように最大瞬時音量の大きいタイムフレーム(すなわち、処理ビットの上位ビットまで使用しているタイムフレーム)もあれば、例えばタイムフレームt2のように最大瞬時音量の小さいタイムフレーム(すなわち、処理ビットの上位ビットを使用していないタイムフレーム)も存在する。
例えば最大瞬時音量の小さいタイムフレームでは、上位ビットが使用されていない状態になっているにもかかわらず、16ビット伝送の際に下位ビットが消失してしまうことになり、伝送路3のビット数(16ビット)を有効に利用できていなかった。本実施の形態では、この点に着目し、タイムフレーム毎のY[dB]の増幅によって、伝送路3のビット数を有効利用し、ダイナミックレンジの向上を図るものである。
上記図5で示したように、オーディオデータの波形をあるタイムフレームで区切ってみると、例えばタイムフレームt1のように最大瞬時音量の大きいタイムフレーム(すなわち、処理ビットの上位ビットまで使用しているタイムフレーム)もあれば、例えばタイムフレームt2のように最大瞬時音量の小さいタイムフレーム(すなわち、処理ビットの上位ビットを使用していないタイムフレーム)も存在する。
例えば最大瞬時音量の小さいタイムフレームでは、上位ビットが使用されていない状態になっているにもかかわらず、16ビット伝送の際に下位ビットが消失してしまうことになり、伝送路3のビット数(16ビット)を有効に利用できていなかった。本実施の形態では、この点に着目し、タイムフレーム毎のY[dB]の増幅によって、伝送路3のビット数を有効利用し、ダイナミックレンジの向上を図るものである。
ここで、伝送用調整部11でのY[dB]の増幅の具体例を示しておく。
実際の増幅処理としては、ビットシフトにより6dB,12dB,18dBなどの増幅を行う方法や、音量検出部11aで検出した最大音量レベルを元に、クリップぎりぎりの増幅値を算出して用いる方法がある。
実際の増幅処理としては、ビットシフトにより6dB,12dB,18dBなどの増幅を行う方法や、音量検出部11aで検出した最大音量レベルを元に、クリップぎりぎりの増幅値を算出して用いる方法がある。
まずビットシフトの例を図6で説明する。
例えば図6(a)は、図5のタイムフレームt1において音量検出部11aで検出した最大音量レベルのオーディオデータ(24ビット)であるとする。この場合、上位4ビットが「0」であるため、クリップ範囲内では最大4ビットシフトしてもよいこととなる。必ずしもクリップぎりぎりとする必要はないが、ここではクリップぎりぎりにまで増幅するとして説明する。すると、この場合、図示のようにMSB側へ4ビットシフトを行えばよい。4ビットシフトであるためY[dB]とは24dBとなる。つまりタイムフレームt1内の全てのオーディオデータについて24dBの増幅を行う。
そしてタイムフレームt1に24dB(或いは4ビットシフト)を示す増幅値情報を関連づけて送信する。
受信装置2の伝送データ調整部21では、増幅値情報に基づいて、4ビットをLSB側にシフトさせる減衰をおこなって、元のレベルに戻せばよい。
例えば図6(a)は、図5のタイムフレームt1において音量検出部11aで検出した最大音量レベルのオーディオデータ(24ビット)であるとする。この場合、上位4ビットが「0」であるため、クリップ範囲内では最大4ビットシフトしてもよいこととなる。必ずしもクリップぎりぎりとする必要はないが、ここではクリップぎりぎりにまで増幅するとして説明する。すると、この場合、図示のようにMSB側へ4ビットシフトを行えばよい。4ビットシフトであるためY[dB]とは24dBとなる。つまりタイムフレームt1内の全てのオーディオデータについて24dBの増幅を行う。
そしてタイムフレームt1に24dB(或いは4ビットシフト)を示す増幅値情報を関連づけて送信する。
受信装置2の伝送データ調整部21では、増幅値情報に基づいて、4ビットをLSB側にシフトさせる減衰をおこなって、元のレベルに戻せばよい。
図6(b)は、図5のタイムフレームt2において音量検出部11aで検出した最大音量レベルのオーディオデータ(24ビット)であるとする。この場合、上位17ビットが「0」である。従って上記同様の考えで、タイムフレームt2内の全てのオーディオデータについて図示のように17ビットシフトを行えばよい。そして17ビットシフトを示す増幅値情報を関連づけて送信する。
受信装置2の伝送データ調整部21では、増幅値情報に基づいて、17ビットをLSB側にシフトさせる減衰をおこなって、元のレベルに戻す。
図6(c)は、図5のタイムフレームt3において音量検出部11aで検出した最大音量レベルのオーディオデータ(24ビット)であるとする。この場合、上位10ビットが「0」である。従って上記同様の考えで、図示のように10ビットシフトを行えばよい。そして10ビットシフトを示す増幅値情報を関連づけて送信する。
受信装置2の伝送データ調整部21では、増幅値情報に基づいて、10ビットをLSB側にシフトさせる減衰をおこなって、元のレベルに戻す。
なお、必ずしもクリップぎりぎりにまでビットシフトで増幅しなくてもよい。例えば上記図6(a)の場合に3ビットシフトなどとして、ある程度クリップレベルまで余裕を持った増幅としてもよい。
受信装置2の伝送データ調整部21では、増幅値情報に基づいて、17ビットをLSB側にシフトさせる減衰をおこなって、元のレベルに戻す。
図6(c)は、図5のタイムフレームt3において音量検出部11aで検出した最大音量レベルのオーディオデータ(24ビット)であるとする。この場合、上位10ビットが「0」である。従って上記同様の考えで、図示のように10ビットシフトを行えばよい。そして10ビットシフトを示す増幅値情報を関連づけて送信する。
受信装置2の伝送データ調整部21では、増幅値情報に基づいて、10ビットをLSB側にシフトさせる減衰をおこなって、元のレベルに戻す。
なお、必ずしもクリップぎりぎりにまでビットシフトで増幅しなくてもよい。例えば上記図6(a)の場合に3ビットシフトなどとして、ある程度クリップレベルまで余裕を持った増幅としてもよい。
このようなビットシフトではなく、増幅値を算出する方法は次のように行う。
送信装置1の伝送用調整部11は、最も単純には、増幅する係数Kを、
K=(クリップレベル値)/(タイムフレーム内の最大音量レベル値)
として算出する。
そしてタイムフレーム内の全てのオーディオデータについて、係数Kの乗算を行う増幅処理を行えばよい。
この場合、受信装置2の伝送データ調整部21では、増幅値情報で示される係数Kに基づいて、該当のタイムフレーム内の全てのオーディオデータについてKを除算する減衰処理を行えばよい。
送信装置1の伝送用調整部11は、最も単純には、増幅する係数Kを、
K=(クリップレベル値)/(タイムフレーム内の最大音量レベル値)
として算出する。
そしてタイムフレーム内の全てのオーディオデータについて、係数Kの乗算を行う増幅処理を行えばよい。
この場合、受信装置2の伝送データ調整部21では、増幅値情報で示される係数Kに基づいて、該当のタイムフレーム内の全てのオーディオデータについてKを除算する減衰処理を行えばよい。
なお、クリップレベルぎりぎりに増幅しない場合は、送信装置1の伝送用調整部11は、
K=(クリップレベル値−α)/(タイムフレーム内の最大音量レベル値)
とすればよい。「α」がクリップレベルに対する余裕分である。
K=(クリップレベル値−α)/(タイムフレーム内の最大音量レベル値)
とすればよい。「α」がクリップレベルに対する余裕分である。
ところで、送信処理部12は、オーディオデータとともに、増幅値情報を送信するが、具体的な方法は次のようにすることが考えられる。
例えば、増幅値情報をヘッダとして対応するタイムフレームのデータとまとめ、1つのパケットとする方法が考えられる。
或いはオーディオデータの伝送は汎用フォーマット(I2S,SPDIF等)のまま行うが、それと同期させて増幅値情報伝送用のデータを送信する方法も考えられる。
例えば、増幅値情報をヘッダとして対応するタイムフレームのデータとまとめ、1つのパケットとする方法が考えられる。
或いはオーディオデータの伝送は汎用フォーマット(I2S,SPDIF等)のまま行うが、それと同期させて増幅値情報伝送用のデータを送信する方法も考えられる。
<3.第2の実施の形態>
第2の実施の形態について説明する。なお、第1の実施の形態と同一部分については説明を省略する。
第2の実施の形態について説明する。なお、第1の実施の形態と同一部分については説明を省略する。
低ビットの伝送路3を使用する場合に、より音質の悪化が顕著な一例として、送信側でデジタルデータ処理を行う場合が挙げられる。
まず、そのように音質の悪化が顕著な場合の構成例を、比較例として図7(a)に示す。
図7(a)の送信装置100では、送信オーディオデータ入力部101で入力された24ビットのオーディオデータについて、デジタルデータ処理部103で各種のデータ処理がなされた後、送信処理部102から16ビットで送信される。
まず、そのように音質の悪化が顕著な場合の構成例を、比較例として図7(a)に示す。
図7(a)の送信装置100では、送信オーディオデータ入力部101で入力された24ビットのオーディオデータについて、デジタルデータ処理部103で各種のデータ処理がなされた後、送信処理部102から16ビットで送信される。
デジタルデータ処理部103では、各種信号処理を行う際に、オーディオデータの瞬時音量が増減するため、音量のクリップを防止するために、確実にクリップを防止できるレベルまであらかじめ音量を減衰させておく、という処理が一般的に行われている。
これに対して受信装置200では、受信処理部201で復調・デコードされたオーディオデータに対し、補償部203で補償を行う。この場合、デジタルデータ処理部103で減衰させた分を増幅するという補償処理を行うことになる。そして受信オーディオデータ処理部202に供給される。
これに対して受信装置200では、受信処理部201で復調・デコードされたオーディオデータに対し、補償部203で補償を行う。この場合、デジタルデータ処理部103で減衰させた分を増幅するという補償処理を行うことになる。そして受信オーディオデータ処理部202に供給される。
今、一例として、デジタルデータ処理部103で18dB(すなわち、3ビット分)の減衰をしているとすると、実質的に利用しているオーディオソースのビット数は、24−3=21ビットとなる。
この信号処理後のオーディオ信号が、16ビットの伝送系に入力されると、そこからさらに下位8ビットが消失するため、21−8=13ビットに実質的なビット数が制限される(すなわち、ダイナミックレンジが約78dBまで減少する)。
この信号処理後のオーディオ信号が、16ビットの伝送系に入力されると、そこからさらに下位8ビットが消失するため、21−8=13ビットに実質的なビット数が制限される(すなわち、ダイナミックレンジが約78dBまで減少する)。
このことを図9で説明する。縦軸はdBFSであり、図7(a)のポイントP21〜P27に対応してオーディオデータのダイナミックレンジを示している。
送信オーディオデータ入力部101の出力段階としてのポイントP21では、24ビットオーディオデータの状態であるため、ダイナミックレンジは144dBである。
これがデジタルデータ処理部103でクリップ予防のためX[dB]減衰される。図中ポイントP22の黒塗りで示す下位ビットが消失する。例えばX[dB]=18dBとすると、下位3ビットが消失することとなる。
これによりデジタルデータ処理部103の出力段階ではポイントP23として示すような24ビットのオーディオデータとなる。なお、上位ビットはヘッドマージンHMとなり、デジタルデータ処理部103での演算過程においてクリップを越えないようにするマージン部分となっている。
送信オーディオデータ入力部101の出力段階としてのポイントP21では、24ビットオーディオデータの状態であるため、ダイナミックレンジは144dBである。
これがデジタルデータ処理部103でクリップ予防のためX[dB]減衰される。図中ポイントP22の黒塗りで示す下位ビットが消失する。例えばX[dB]=18dBとすると、下位3ビットが消失することとなる。
これによりデジタルデータ処理部103の出力段階ではポイントP23として示すような24ビットのオーディオデータとなる。なお、上位ビットはヘッドマージンHMとなり、デジタルデータ処理部103での演算過程においてクリップを越えないようにするマージン部分となっている。
このオーディオデータは送信段階(ポイントP24)で16ビット伝送のために変換される。例えば24ビットのうちの下位の8ビットについて、切り捨て又は四捨五入処理を行い、上位16ビットを利用する。つまりポイントP2のオーディオデータから塗りつぶしの下位ビット部分が消失される。
そして伝送路3上(ポイントP25)では16ビットデータとして伝送され、受信処理部201で受信される。受信処理部201は16ビットに下位8ビット(例えば0データ)を付加して、補償部203に出力する(ポイントP26)。
補償部203では、先のデジタルデータ処理部103でのX[dB]減衰の補償のためにX[dB]の増幅を行う。これにより受信オーディオデータ処理部202に供給されるポイントP27のオーディオデータは、図示のように、斜線部の有効データ部分が増幅されるものとなり、結果として実際上のダイナミックレンジは(96−X)dBとなる。
デジタルデータ処理部103でのX[dB]の増幅と、補償部203でのX[dB]の減衰が、3ビットシフト(18dB)として行われる場合、上述のようにダイナミックレンジは78dBとなる
このように、受信装置200側では、ダイナミックレンジが縮小され、音質が低下する。
そして伝送路3上(ポイントP25)では16ビットデータとして伝送され、受信処理部201で受信される。受信処理部201は16ビットに下位8ビット(例えば0データ)を付加して、補償部203に出力する(ポイントP26)。
補償部203では、先のデジタルデータ処理部103でのX[dB]減衰の補償のためにX[dB]の増幅を行う。これにより受信オーディオデータ処理部202に供給されるポイントP27のオーディオデータは、図示のように、斜線部の有効データ部分が増幅されるものとなり、結果として実際上のダイナミックレンジは(96−X)dBとなる。
デジタルデータ処理部103でのX[dB]の増幅と、補償部203でのX[dB]の減衰が、3ビットシフト(18dB)として行われる場合、上述のようにダイナミックレンジは78dBとなる
このように、受信装置200側では、ダイナミックレンジが縮小され、音質が低下する。
これに対して、本実施の形態は、受信装置2側で、上記比較例よりもダイナミックレンジが拡大されるようにし、音質向上を実現する。
図7(b)及び図8で第2の実施の形態の送信装置1、受信装置2の構成例を説明する。
図7(b)及び図8で第2の実施の形態の送信装置1、受信装置2の構成例を説明する。
送信装置1は、送信オーディオデータ入力部10と、デジタルデータ処理部13と、伝送用調整部11と、送信処理部12を備える。
即ち送信装置1では、上記第1の実施の形態の構成と比べて、デジタルデータ処理部13が加えられている構成で或る。
デジタルデータ処理部13は、送信オーディオデータ入力部10に入力されてきた24ビットのオーディオデータについて、データ処理過程での音量クリップ防止のための減衰処理を行った上で、各種のデータ処理を行う。例えば2チャンネルオーディオデータについて、5.1チャンネルサラウンドオーディオデータや7.1チャンネルサラウンドオーディオデータとする多チャンネル化処理、或いは多チャンネルサラウンドオーディオデータを2チャンネル化するダウンミックス処理などを行う。
即ち送信装置1では、上記第1の実施の形態の構成と比べて、デジタルデータ処理部13が加えられている構成で或る。
デジタルデータ処理部13は、送信オーディオデータ入力部10に入力されてきた24ビットのオーディオデータについて、データ処理過程での音量クリップ防止のための減衰処理を行った上で、各種のデータ処理を行う。例えば2チャンネルオーディオデータについて、5.1チャンネルサラウンドオーディオデータや7.1チャンネルサラウンドオーディオデータとする多チャンネル化処理、或いは多チャンネルサラウンドオーディオデータを2チャンネル化するダウンミックス処理などを行う。
デジタルデータ処理部13で処理されたオーディオデータは伝送用調整部11に供給される。
伝送用調整部11は、デジタルデータ処理部13の処理後のオーディオデータについて、オーディオデータの所定のタイムフレーム毎に、タイムフレーム内の最大音量レベルに応じた増幅処理(Y[dB]増幅)を行うとともに、増幅値情報を発生させる。
送信処理部12は、伝送用調整部11で増幅処理された24ビットのオーディオデータを16ビットに変換し、伝送用エンコードや変調を行って、例えば電波信号等で無線送信出力する。このとき、オーディオデータのタイムフレーム毎に、伝送用調整部11で発生された増幅値情報を対応づけることも行う。従って伝送路3には、タイムフレーム毎に増幅値情報が対応づけられた16ビット量子化のオーディオデータが送信出力される。
伝送用調整部11は、デジタルデータ処理部13の処理後のオーディオデータについて、オーディオデータの所定のタイムフレーム毎に、タイムフレーム内の最大音量レベルに応じた増幅処理(Y[dB]増幅)を行うとともに、増幅値情報を発生させる。
送信処理部12は、伝送用調整部11で増幅処理された24ビットのオーディオデータを16ビットに変換し、伝送用エンコードや変調を行って、例えば電波信号等で無線送信出力する。このとき、オーディオデータのタイムフレーム毎に、伝送用調整部11で発生された増幅値情報を対応づけることも行う。従って伝送路3には、タイムフレーム毎に増幅値情報が対応づけられた16ビット量子化のオーディオデータが送信出力される。
受信装置2は、受信処理部20と、伝送データ調整部21と、受信オーディオデータ処理部22を備える。
受信処理部20は、伝送路3で送信されてきた信号(例えば電信号)を受信し、RF復調、デコード等を行って16ビットのオーディオデータを得る。これを24ビットのオーディオデータに変換し、伝送データ調整部21に出力する。
受信処理部20が受信するのは、上述のようにタイムフレーム毎に増幅値情報が対応づけられた16ビット量子化のオーディオデータであり、このオーディオデータを24ビットに変換し、かつデコード時に得られるタイムフレーム毎の増幅値情報を伝送データ調整部21に出力する。
受信処理部20は、伝送路3で送信されてきた信号(例えば電信号)を受信し、RF復調、デコード等を行って16ビットのオーディオデータを得る。これを24ビットのオーディオデータに変換し、伝送データ調整部21に出力する。
受信処理部20が受信するのは、上述のようにタイムフレーム毎に増幅値情報が対応づけられた16ビット量子化のオーディオデータであり、このオーディオデータを24ビットに変換し、かつデコード時に得られるタイムフレーム毎の増幅値情報を伝送データ調整部21に出力する。
伝送データ調整部21は、受信処理部20から出力されるオーディオデータについて増幅又は減衰を行う。
即ち伝送データ調整部21は、デジタルデータ処理部13での固定量としてのX[dB]の減衰に対する補償としてX[dB]の増幅を行う。あわせて伝送データ調整部21は、伝送用調整部11でのタイムフレーム毎でのY[dB]の増幅に対応して、Y[dB]の減衰を行う。
つまり伝送データ調整部21は、タイムフレーム毎にオーディオデータに対して(X−Y)dBの増幅(X>Yであれば減衰)を行うことになる。
即ち伝送データ調整部21は、デジタルデータ処理部13での固定量としてのX[dB]の減衰に対する補償としてX[dB]の増幅を行う。あわせて伝送データ調整部21は、伝送用調整部11でのタイムフレーム毎でのY[dB]の増幅に対応して、Y[dB]の減衰を行う。
つまり伝送データ調整部21は、タイムフレーム毎にオーディオデータに対して(X−Y)dBの増幅(X>Yであれば減衰)を行うことになる。
受信オーディオデータ処理部22は、伝送データ調整部21で処理された24ビットのオーディオデータについて必要な処理を行う。例えば図示しないスピーカで出力する場合は、音質処理、音響処理、増幅処理等を行う。
図8は、このような構成において、送信装置1の伝送用調整部11と、受信装置2の伝送データ調整部21を詳しく示したものとしている。
送信装置1の伝送用調整部11は、音量検出部11a、音量増幅部11b、増幅値情報生成部11cを備える。
音量検出部11a、音量増幅部11b、増幅値情報生成部11cの動作は第1の実施の形態と同様であるが、音量検出部11aに入力されたオーディオデータは、デジタルデータ処理部13での処理後のオーディオデータであることが異なる。つまりX[dB]の減衰が行われたオーディオデータである。
送信装置1の伝送用調整部11は、音量検出部11a、音量増幅部11b、増幅値情報生成部11cを備える。
音量検出部11a、音量増幅部11b、増幅値情報生成部11cの動作は第1の実施の形態と同様であるが、音量検出部11aに入力されたオーディオデータは、デジタルデータ処理部13での処理後のオーディオデータであることが異なる。つまりX[dB]の減衰が行われたオーディオデータである。
このようなオーディオデータについて、音量検出部11aではタイムフレーム内の最大音量レベルを検出する。
音量増幅部11bは、音量検出部11aで検出された最大音量レベルが24ビットでのクリップレベルを超えない範囲の増幅値を決定し、そのタイムフレーム内のオーディオデータにつて、決定した増幅値での増幅処理(Y[dB]の増幅)を行う。
増幅値情報生成部11cは、音量増幅部11bで決定した増幅値、つまりY[dB]の具体値を示す情報として、そのタイムフレームに対応する増幅値情報を生成し、送信処理部12に供給する。
音量増幅部11bは、音量検出部11aで検出された最大音量レベルが24ビットでのクリップレベルを超えない範囲の増幅値を決定し、そのタイムフレーム内のオーディオデータにつて、決定した増幅値での増幅処理(Y[dB]の増幅)を行う。
増幅値情報生成部11cは、音量増幅部11bで決定した増幅値、つまりY[dB]の具体値を示す情報として、そのタイムフレームに対応する増幅値情報を生成し、送信処理部12に供給する。
送信処理部12は、デジタルデータ処理部13での固定のX[dB]の減衰と、音量増幅部11bでタイムフレーム毎のY[dB]の増幅が行われた24ビットのオーディオデータを16ビットに変換して送信する。また送信処理部12は、オーディオデータとともに、その各タイムフレーム毎に増幅値情報生成部11cで生成された増幅値情報を対応づけて送信する。
受信装置2の伝送データ調整部21は、増幅値情報検出部21a、音量調整部21bを備える。
増幅値情報検出部21aは、受信処理部20から出力されるオーディオデータについて、タイムフレーム毎に対応づけられた増幅値情報を検出する。
音量調整部21bは、固定のX[dB]の増幅を行うとともに、増幅値情報検出部21aで検出された増幅値情報に基づいて減衰値を決定し、タイムフレーム内のオーディオデータについての減衰処理を行う。つまり音量調整部21bは、タイムフレーム毎にオーディオデータに対して(X−Y)dBの増幅(X>Yであれば減衰)を行う。これにより、タイムフレーム毎に、オーディオデータのレベルを、元のレベルに戻す。
このように処理されたオーディオデータが、受信オーディオデータ処理部22に供給され、以後の処理が行われる。
増幅値情報検出部21aは、受信処理部20から出力されるオーディオデータについて、タイムフレーム毎に対応づけられた増幅値情報を検出する。
音量調整部21bは、固定のX[dB]の増幅を行うとともに、増幅値情報検出部21aで検出された増幅値情報に基づいて減衰値を決定し、タイムフレーム内のオーディオデータについての減衰処理を行う。つまり音量調整部21bは、タイムフレーム毎にオーディオデータに対して(X−Y)dBの増幅(X>Yであれば減衰)を行う。これにより、タイムフレーム毎に、オーディオデータのレベルを、元のレベルに戻す。
このように処理されたオーディオデータが、受信オーディオデータ処理部22に供給され、以後の処理が行われる。
この送信装置1と受信装置2の構成における、オーディオデータのダイナミックレンジの変動を図10で説明する。
図10では、図7(b)にポイントP31〜P38として示した各段階での、オーディオデータのダイナミックレンジの変動を示している。図10の縦軸はdBFSである。
図10では、図7(b)にポイントP31〜P38として示した各段階での、オーディオデータのダイナミックレンジの変動を示している。図10の縦軸はdBFSである。
送信オーディオデータ入力部10の出力段階としてのポイントP31では、24ビットオーディオデータの状態であるため、ダイナミックレンジは144dBである。
このオーディオデータに対してデジタルデータ処理部13でクリップ予防のためのX[dB]の減衰処理が行われ、図中ポイントP32の黒塗りで示す下位ビットが消失する。例えばX[dB]=18dBとすると、下位3ビットが消失することとなる。
これによりデジタルデータ処理部13の出力段階ではポイントP33の図として示すような24ビットのオーディオデータとなる。上位ビット部分はヘッドマージンHMとなり、デジタルデータ処理部13での演算過程においてクリップを越えないようにするマージン部分となっている。
このオーディオデータに対してデジタルデータ処理部13でクリップ予防のためのX[dB]の減衰処理が行われ、図中ポイントP32の黒塗りで示す下位ビットが消失する。例えばX[dB]=18dBとすると、下位3ビットが消失することとなる。
これによりデジタルデータ処理部13の出力段階ではポイントP33の図として示すような24ビットのオーディオデータとなる。上位ビット部分はヘッドマージンHMとなり、デジタルデータ処理部13での演算過程においてクリップを越えないようにするマージン部分となっている。
次に伝送用調整部11でY[dB]増幅される。ポイントP34では、Y[dB]増幅された状態を示している。この場合、Y[dB]に応じたMSB側のビット数はデータが消失することになる。
しかし、Y[dB]は、タイムフレーム毎に、そのタイムフレーム内の最大音量レベルのデータが24ビットでのクリップレベルを超えない範囲の増幅値として決定されて増幅処理されるため、消失するMSB側の或るビット数の部分の実際のデータ値は全て「0」(或いはヘッドマージン部分HM)である。
従ってY[dB]の増幅によって、有効なデータが回復不能な状態に消失することはない。なおヘッドマージン部分HMは、デジタルデータ処理部13での処理過程で使用される部分であり、デジタルデータ処理部13での演算処理後は、通常使用されていない部分となっている。
しかし、Y[dB]は、タイムフレーム毎に、そのタイムフレーム内の最大音量レベルのデータが24ビットでのクリップレベルを超えない範囲の増幅値として決定されて増幅処理されるため、消失するMSB側の或るビット数の部分の実際のデータ値は全て「0」(或いはヘッドマージン部分HM)である。
従ってY[dB]の増幅によって、有効なデータが回復不能な状態に消失することはない。なおヘッドマージン部分HMは、デジタルデータ処理部13での処理過程で使用される部分であり、デジタルデータ処理部13での演算処理後は、通常使用されていない部分となっている。
タイムフレーム毎のY[dB]の増幅は第1の実施の形態と同様である。即ちタイムフレーム毎に、クリップレベルを超えない範囲の増幅値が決定されてY[dB]の増幅が行われる。具体的にはビットシフトや係数演算により増幅が行われる。
伝送用調整部11で増幅されたオーディオデータは、送信処理部12で16ビットに変換されて送信処理される。即ち24ビットのうちの下位の8ビットについて、切り捨て又は四捨五入処理を行い、上位16ビットを利用する。このためポイントP34のオーディオデータについて、ポイントP35で示すように、塗りつぶしの下位ビット部分が消失される。
そして伝送路3上(ポイントP36)では16ビットデータとして伝送され、受信処理部20で受信される。受信処理部20は16ビットに下位8ビット(例えば0データ)を付加して、伝送データ調整部21に出力する(ポイントP37)。
続いて伝送データ調整部21は、タイムフレーム毎に、増幅値情報で示されたY[dB]に対応した減衰処理と、固定のX[dB]に対応した増幅処理を行う。つまり(X−Y)dBの増幅(又は減衰)を行う。
結果として、ポイントP38でのオーディオデータ、つまり後段の受信オーディオデータ処理部22に供給されるオーディオデータは、(96−X+Y)[dB]のダイナミックレンジを持つことになる。上述した図9の比較例と比べると、ダイナミックレンジがY[dB]向上していることが理解される。
もちろん、タイムフレーム毎にY[dB]の減衰と固定のX[dB]の増幅を行うことで、オーディオデータのレベルは、すべて送信前の元のレベル状態に戻っている。
もちろん、タイムフレーム毎にY[dB]の減衰と固定のX[dB]の増幅を行うことで、オーディオデータのレベルは、すべて送信前の元のレベル状態に戻っている。
このように本実施の形態では、低ビット伝送路を用いたオーディオデータの伝送について、ダイナミックレンジの低下を抑制し、結果として通常の伝送(比較例)よりダイナミックレンジを向上させて、受信装置2側での音質の向上を実現できる。
基本的には第1の実施の形態と同様であるが、デジタルデータ処理部13で処理を行う第2の実施の形態の場合も、伝送路3の伝送ビットを有効利用して低ビット伝送路によるダイナミックレンジ低下を抑制できる。
特に、デジタルデータ処理のための減衰処理で比較例のようにダイナミックレンジ低下が大きくなる場合に、本実施の形態は有効である。
基本的には第1の実施の形態と同様であるが、デジタルデータ処理部13で処理を行う第2の実施の形態の場合も、伝送路3の伝送ビットを有効利用して低ビット伝送路によるダイナミックレンジ低下を抑制できる。
特に、デジタルデータ処理のための減衰処理で比較例のようにダイナミックレンジ低下が大きくなる場合に、本実施の形態は有効である。
<4.具体的な通信システム例>
続いて、第3,第4の実施の形態として、上記第1,第2の実施の形態をより具体的な送信装置1、受信装置2に適用した場合の例を述べる。
ここではまず、第3,第4の実施の形態が適用される通信システムの例を図11で説明する。
続いて、第3,第4の実施の形態として、上記第1,第2の実施の形態をより具体的な送信装置1、受信装置2に適用した場合の例を述べる。
ここではまず、第3,第4の実施の形態が適用される通信システムの例を図11で説明する。
通信システムは、少なくとも1つの送信装置と、少なくとも1つの受信装置を有する。
この図11では送信装置1(親機)と、複数の受信装置2(2a〜2d:子機)を有する例を挙げている。
例えば送信装置1は、音楽等のオーディオデータをCD、DVD、BDなどの記録媒体から読み出し、又は他の通信装置から受信した後、当該オーディオデータを所定の通信方式に従って送信する装置である。
送信装置1としては、具体的にはディスクプレーヤ機器、各種音楽プレーヤ、ゲーム機器、PC(Personal Computer)、電話端末、テレビジョン受像器、チューナ機器など、オーディオデータをデジタルデータとして扱う各種の装置が想定される。或いは送信装置1は、これらの機器に接続される送信ユニットとしての形態も想定される。
また、送信装置1と受信装置2(2a〜2d)との間の接続方式は、有線接続であっても無線接続であってもよい。ここでは無線接続を行う例で述べる。
この図11では送信装置1(親機)と、複数の受信装置2(2a〜2d:子機)を有する例を挙げている。
例えば送信装置1は、音楽等のオーディオデータをCD、DVD、BDなどの記録媒体から読み出し、又は他の通信装置から受信した後、当該オーディオデータを所定の通信方式に従って送信する装置である。
送信装置1としては、具体的にはディスクプレーヤ機器、各種音楽プレーヤ、ゲーム機器、PC(Personal Computer)、電話端末、テレビジョン受像器、チューナ機器など、オーディオデータをデジタルデータとして扱う各種の装置が想定される。或いは送信装置1は、これらの機器に接続される送信ユニットとしての形態も想定される。
また、送信装置1と受信装置2(2a〜2d)との間の接続方式は、有線接続であっても無線接続であってもよい。ここでは無線接続を行う例で述べる。
受信装置2は、送信装置1から送信されてくるオーディオデータを受信する機器である。図11では、サラウンドリアアンプ2a、サラウンドリアバックアンプ2b、サブウーファーアンプ2c、他の部屋(セカンドルーム)のオーディオ機器2dを例示している。
サラウンドリアアンプ2aは、送信装置1から送信されてくるオーディオデータを受信し、増幅して、サラウンドリアスピーカ3a,3bから音声として出力させる。
サラウンドリアバックアンプ2bは、送信装置1から送信されてくるオーディオデータを受信し、増幅して、サラウンドリアバックスピーカ3c,3dから音声として出力させる。
サブウーファーアンプ2cは、送信装置1から送信されてくるオーディオデータを受信し、増幅して、内蔵するサブウーファースピーカから音声として出力させる。
オーディオ機器2dは、送信装置1から送信されてくるオーディオデータを受信し、増幅して、接続されたスピーカから音声として出力させる。
これらの例のように、受信装置2としては、送信されてくるオーディオデータを受信処理する機器であり、上記のようにアンプ機器、スピーカ内蔵アンプ機器、オーディオプレーヤ機器や、さらにヘッドホン(イヤホン)機器、レコーダ機器、PC、モニタ機器、電話端末など、多様な機器が想定される。
サラウンドリアアンプ2aは、送信装置1から送信されてくるオーディオデータを受信し、増幅して、サラウンドリアスピーカ3a,3bから音声として出力させる。
サラウンドリアバックアンプ2bは、送信装置1から送信されてくるオーディオデータを受信し、増幅して、サラウンドリアバックスピーカ3c,3dから音声として出力させる。
サブウーファーアンプ2cは、送信装置1から送信されてくるオーディオデータを受信し、増幅して、内蔵するサブウーファースピーカから音声として出力させる。
オーディオ機器2dは、送信装置1から送信されてくるオーディオデータを受信し、増幅して、接続されたスピーカから音声として出力させる。
これらの例のように、受信装置2としては、送信されてくるオーディオデータを受信処理する機器であり、上記のようにアンプ機器、スピーカ内蔵アンプ機器、オーディオプレーヤ機器や、さらにヘッドホン(イヤホン)機器、レコーダ機器、PC、モニタ機器、電話端末など、多様な機器が想定される。
以下説明していく第3,第4の実施の形態においては、送信装置1からオーディオデータを受信するこれらの機器を受信装置2と総称する。
そして送信装置1、受信装置2では、オーディオデータを24ビットで扱うが、伝送路3では、16ビットのオーディオデータの通信が行われるものとする。
そして送信装置1、受信装置2では、オーディオデータを24ビットで扱うが、伝送路3では、16ビットのオーディオデータの通信が行われるものとする。
<5.第3の実施の形態>
例えば図11に示したような通信システムを構築できる第3の実施の形態の送信装置1、受信装置2について説明する。
第3の実施の形態は、上述した第1の実施の形態を、図11の通信システムに適用した具体的な例である。
例えば図11に示したような通信システムを構築できる第3の実施の形態の送信装置1、受信装置2について説明する。
第3の実施の形態は、上述した第1の実施の形態を、図11の通信システムに適用した具体的な例である。
第3の実施の形態の送信装置1の構成例を図12に示す。
送信装置1は、CPU(Central Processing Unit)51と、ROM(Read Only Memory)52と、RAM(Random Access Memory)53と、EEPROM(Electronically Erasable and Programmable Read Only Memory)54とを備える。また送信装置1は、入力インターフェース(I/F)55と、表示インターフェース(I/F)56と、外部機器通信部60とを更に備える。
また、外部機器通信部60には、DSP(Digital Signal Processor)61が接続される。
送信装置1は、CPU(Central Processing Unit)51と、ROM(Read Only Memory)52と、RAM(Random Access Memory)53と、EEPROM(Electronically Erasable and Programmable Read Only Memory)54とを備える。また送信装置1は、入力インターフェース(I/F)55と、表示インターフェース(I/F)56と、外部機器通信部60とを更に備える。
また、外部機器通信部60には、DSP(Digital Signal Processor)61が接続される。
CPU51は、演算処理装置および制御装置として機能し、ROM52、RAM53、EEPROM54等に記録された各種プログラムに従って、送信装置1内の動作全般またはその一部を制御する。
ROM52およびEEPROM54は、CPU51が使用するプログラムや演算パラメータ等を記憶する。
RAM53は、CPU51の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一次記憶する。
これらはCPUバス等の内部バスにより構成されるホストバスおよびPCI(Peripheral Component Interconnect/Interface)バスなどの外部バスから構成されるシステムバス59により、相互に接続されている。
ROM52およびEEPROM54は、CPU51が使用するプログラムや演算パラメータ等を記憶する。
RAM53は、CPU51の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一次記憶する。
これらはCPUバス等の内部バスにより構成されるホストバスおよびPCI(Peripheral Component Interconnect/Interface)バスなどの外部バスから構成されるシステムバス59により、相互に接続されている。
入力インターフェース55は、キー操作部57を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU51に出力する入力制御回路などから構成されているインターフェースである。送信装置1のユーザは、キー操作部57を操作することにより、送信装置1に対して各種のデータを入力したり処理動作を指示したりすることができる。
キー操作部57は、送信装置1に対して各種のデータを入力したり処理動作を指示したりする操作部である。キー操作部57は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなどユーザが操作する操作手段である。また、キー操作部57は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、送信装置1の操作に対応した携帯電話やPDA等の外部装置であってもよい。
表示インターフェース56は、CPU51から出力された表示出力信号を、表示部58へと伝送するためのインターフェースである。表示部58は例えば、CRTディスプレイ装置、液晶ディスプレイ装置、有機EL(Electroluminescence)ディスプレイ装置、プラズマディスプレイ装置、およびランプなどの表示装置など、各種情報をユーザに対して視覚的に通知することが可能な装置で構成される。
外部機器通信部60は、例えば受信装置2等の子機と通信するための通信デバイス等で構成された通信インターフェースである。
送信装置1は、この外部機器通信部60、アンテナ60aを介して、受信装置2に対して音声ストリームデータや各種制御データ等を無線送信するとともに、受信装置2と双方向データ通信を行う。
この外部機器通信部60内の送信系としては、図示するように変調・送信部60b、エンコード部60cを備える。
送信装置1は、この外部機器通信部60、アンテナ60aを介して、受信装置2に対して音声ストリームデータや各種制御データ等を無線送信するとともに、受信装置2と双方向データ通信を行う。
この外部機器通信部60内の送信系としては、図示するように変調・送信部60b、エンコード部60cを備える。
DSP61は、オーディオデータや画像データに対する各種処理に特化したCPUである。DSP61では、送信処理のために、第1の実施の形態で説明した送信オーディオデータ入力部10、伝送用調整部11としての処理機能が例えばソフトウエアにより実行される。ここでは図示していないが、伝送用調整部11には、図3で説明したように音量検出部11a、音量増幅部11b、増幅値情報生成部11cが設けられる。
このDSP61には、送信に用いられるオーディオデータを含むコンテンツが入力されるコンテンツ入力部62が接続される。
このDSP61には、送信に用いられるオーディオデータを含むコンテンツが入力されるコンテンツ入力部62が接続される。
コンテンツ入力部62は、送信装置1が送信に用いるオーディオデータを含むコンテンツが入力される処理部である。
コンテンツ入力部62は、例えば、CD/DVD/BDプレーヤ部64や、外部のプレーヤ機器等のデジタル機器が接続されるデジタル入力部65や、チューナー66や、カセットテープやレコード等のアナログ機器が接続されるアナログ入力部67等から構成される。
また、チューナー66およびアナログ入力部67から入力されたオーディオデータは、AD変換部68によりアナログ信号からデジタル信号へと変換される。
なお、ここではコンテンツ入力部62は、24ビットのオーディオデータ扱うものとする。
コンテンツ入力部62は、例えば、CD/DVD/BDプレーヤ部64や、外部のプレーヤ機器等のデジタル機器が接続されるデジタル入力部65や、チューナー66や、カセットテープやレコード等のアナログ機器が接続されるアナログ入力部67等から構成される。
また、チューナー66およびアナログ入力部67から入力されたオーディオデータは、AD変換部68によりアナログ信号からデジタル信号へと変換される。
なお、ここではコンテンツ入力部62は、24ビットのオーディオデータ扱うものとする。
かかるコンテンツ入力部62より入力されたコンテンツのオーディオデータが、DSP61および外部機器通信部60を介して受信装置2(子機)へと送信される。
即ちコンテンツ入力部62より入力された例えば24ビットのオーディオデータが、DSP61の送信オーディオデータ入力部10に入力される。
DSP61は、24ビットのオーディオデータについて、伝送用調整部11でタイムフレーム毎に最大音量レベルのデータに応じたY[dB]の増幅及び増幅値情報の生成を行う。
外部機器通信部60は、DSP61で処理されたオーディオデータと、タイムフレーム毎の増幅値情報について、エンコード部60cで送信用のエンコード処理を行う。例えばオーディオデータを16ビットに変換し、タイムフレーム毎のオーディオデータをパケットにまとめ、そのパケットのヘッダ等に増幅値情報を配置するパケットエンコード等を行う。
そして変調・送信部60bは、エンコード部60cでエンコードされたデータについてRF(Radio Frequency)変調を行い、アンテナ60aから無線信号として送信出力する。
即ちコンテンツ入力部62より入力された例えば24ビットのオーディオデータが、DSP61の送信オーディオデータ入力部10に入力される。
DSP61は、24ビットのオーディオデータについて、伝送用調整部11でタイムフレーム毎に最大音量レベルのデータに応じたY[dB]の増幅及び増幅値情報の生成を行う。
外部機器通信部60は、DSP61で処理されたオーディオデータと、タイムフレーム毎の増幅値情報について、エンコード部60cで送信用のエンコード処理を行う。例えばオーディオデータを16ビットに変換し、タイムフレーム毎のオーディオデータをパケットにまとめ、そのパケットのヘッダ等に増幅値情報を配置するパケットエンコード等を行う。
そして変調・送信部60bは、エンコード部60cでエンコードされたデータについてRF(Radio Frequency)変調を行い、アンテナ60aから無線信号として送信出力する。
なお実施の形態に係る送信装置1は、上記構成の他に、例えば、ストレージ装置や、ドライブや、コンテンツ出力部等を備えていてもよい。
ストレージ装置は、本実施形態にかかる送信装置1の記憶部の一例として構成されたデータ格納用の装置である。このストレージ装置は、例えば、HDD(Hard Disk Drive)等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイス等により構成される。
このストレージ装置は、CPU51が実行するプログラムや各種データ、および外部から取得したオーディオデータなどを格納することが可能である。
このストレージ装置は、CPU51が実行するプログラムや各種データ、および外部から取得したオーディオデータなどを格納することが可能である。
ドライブは、記録媒体用リーダライタであり、送信装置1に内蔵、あるいは外付けされる。ドライブは、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記録媒体に記録されている情報を読み出して、RAM63に出力する。また、ドライブは、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記録媒体に記録を書き込むことも可能である。リムーバブル記録媒体は、例えば、DVD、BD等である。また、リムーバブル記録媒体は、コンパクトフラッシュ(登録商標)(CompactFlash:CF)、メモリースティック、または、SDメモリカード(Secure Digital memory card)等であってもよい。また、リムーバブル記録媒体は、例えば、非接触型ICチップを搭載したICカード(Integrated Circuit card)または電子機器等であってもよい。
コンテンツ出力部は、コンテンツ入力部62から入力されたオーディオデータを含むコンテンツを、送信装置1の外部に出力する処理部である。コンテンツ出力部は、例えば、デジタル信号であるオーディオデータをアナログ信号へと変換するDA変換部と、アナログ信号に変換されたオーディオデータを増幅する増幅部と、増幅されたオーディオデータが出力されるスピーカー等から構成されるようにすればよい。
ここまでは、送信装置1の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。
また、本実施の形態の送信装置1は、親機として子機の受信装置2に対してオーディオデータの送信を行うことのできる機器であればよく、必ずしも上記の図12の構成の全てを備える必要はない。
また、本実施の形態の送信装置1は、親機として子機の受信装置2に対してオーディオデータの送信を行うことのできる機器であればよく、必ずしも上記の図12の構成の全てを備える必要はない。
続いて、図13を参照しながら、第3の実施の形態に係る受信装置2の構成について説明する。
図13に示したように、受信装置2は、CPU71と、ROM72と、RAM73と、EEPROM74と、入力インターフェース(I/F)75と、表示インターフェース(I/F)76と、外部機器通信部80と、DSP85を備える。
また、DSP45には、受信したオーディオデータを出力するオーディオデータ出力部81が接続される。
図13に示したように、受信装置2は、CPU71と、ROM72と、RAM73と、EEPROM74と、入力インターフェース(I/F)75と、表示インターフェース(I/F)76と、外部機器通信部80と、DSP85を備える。
また、DSP45には、受信したオーディオデータを出力するオーディオデータ出力部81が接続される。
CPU71は、演算処理装置および制御装置として機能し、ROM72、RAM73、EEPROM74等に記録された各種プログラムに従って、受信装置2内の動作全般またはその一部を制御する。
ROM72およびEEPROM74は、CPU71が使用するプログラムや演算パラメータ等を記憶する。
RAM73は、CPU71の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一次記憶する。
これらはCPUバス等の内部バスにより構成されるホストバスおよびPCIバスなどの外部バスから構成されるシステムバス79により、相互に接続されている。
ROM72およびEEPROM74は、CPU71が使用するプログラムや演算パラメータ等を記憶する。
RAM73は、CPU71の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一次記憶する。
これらはCPUバス等の内部バスにより構成されるホストバスおよびPCIバスなどの外部バスから構成されるシステムバス79により、相互に接続されている。
入力インターフェース75は、キー操作部77を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU71に出力する入力制御回路などから構成されているインターフェースである。受信装置2のユーザは、キー操作部77を操作することにより、受信装置2に対して各種のデータを入力したり処理動作を指示したりすることができる。
キー操作部77は、受信装置2に対して各種のデータを入力したり処理動作を指示したりする操作部である。
キー操作部77は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなどユーザが操作する操作手段である。また、キー操作部77は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、受信装置2の操作に対応した携帯電話やPDA等の外部装置であってもよい。
キー操作部77は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなどユーザが操作する操作手段である。また、キー操作部77は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、受信装置2の操作に対応した携帯電話やPDA等の外部装置であってもよい。
表示インターフェース76は、CPU71から出力された出力信号を、表示部78へと伝送するためのインターフェースである。
表示部78は、例えば、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、有機ELディスプレイ装置およびランプなどの表示装置など、各種情報をユーザに対して視覚的に通知することが可能な装置で構成される。
表示部78は、例えば、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、有機ELディスプレイ装置およびランプなどの表示装置など、各種情報をユーザに対して視覚的に通知することが可能な装置で構成される。
外部機器通信部80は、例えば、アンテナ80aを介して送信装置1等の親機と通信するための通信デバイス等で構成された通信インターフェースである。
受信装置2は、この外部機器通信部80を介して、送信装置1からオーディオデータを受信するとともに、送信装置1と双方向データ通信を行う。
この外部機器通信部80内の受信系としては、図示するように受信部80b、デコード部80cを備える。
受信装置2は、この外部機器通信部80を介して、送信装置1からオーディオデータを受信するとともに、送信装置1と双方向データ通信を行う。
この外部機器通信部80内の受信系としては、図示するように受信部80b、デコード部80cを備える。
DSP85は、オーディオデータや画像データに対する各種処理に特化したCPUである。DSP85では、受信処理のために、第1の実施の形態で説明した伝送データ調整部21、受信オーディオデータ処理部22としての処理機能が例えばソフトウエアにより実行される。ここでは図示していないが、伝送データ調整部21には、図3で説明したように増幅値情報検出部21a、音量調整部21bが設けられる。
このDSP61には、受信したオーディオデータを出力するオーディオデータ出力部81が接続される。
このDSP61には、受信したオーディオデータを出力するオーディオデータ出力部81が接続される。
オーディオデータ出力部81は、送信装置1から送信されてきたオーディオデータを出力する処理部である。
オーディオデータ出力部81は、例えば、DA変換部82と、増幅部83と、スピーカ84から構成される。
オーディオデータ出力部81は、例えば、DA変換部82と、増幅部83と、スピーカ84から構成される。
DA変換部82は、受信したオーディオデータをデジタル信号からアナログ信号へと変換する。アナログ信号に変換されたオーディオデータは、増幅部83により増幅され、スピーカ84から出力される。
このような構成により、受信装置2では送信装置1から送信されてきたオーディオデータを出力する。
即ち外部機器通信部80において受信部80bは受信・RF復調を行い、またデコード部80cは送信用エンコードされたデータのデコードを行って、16ビットのオーディオデータ及び増幅値情報を抽出する。デコード部80cは16ビットのオーディオデータを24ビットに変換してDSP85に供給し、また増幅値情報を供給する。
即ち外部機器通信部80において受信部80bは受信・RF復調を行い、またデコード部80cは送信用エンコードされたデータのデコードを行って、16ビットのオーディオデータ及び増幅値情報を抽出する。デコード部80cは16ビットのオーディオデータを24ビットに変換してDSP85に供給し、また増幅値情報を供給する。
DSP85はでは、伝送データ調整部21が、オーディオデータのタイムフレーム毎に増幅値情報を検出し、その増幅値情報に応じたY[dB]分の減衰処理を行う。
そして減衰処理されたオーディオデータは、受信オーディオデータ処理部22で処理された後、オーディオデータ出力部81に供給され、スピーカ84から出力される。
そして減衰処理されたオーディオデータは、受信オーディオデータ処理部22で処理された後、オーディオデータ出力部81に供給され、スピーカ84から出力される。
なお受信装置2は、送信装置1が備えるコンテンツ入力部を備えていてもよい。
更に、受信装置2は、上記構成の他に、例えば、ストレージ装置や、ドライブ等を備えていてもよい。
更に、受信装置2は、上記構成の他に、例えば、ストレージ装置や、ドライブ等を備えていてもよい。
ストレージ装置は、本実施形態にかかる受信装置2の記憶部の一例として構成されたデータ格納用の装置である。このストレージ装置は、例えば、HDD等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイス等により構成される。このストレージ装置は、CPU71が実行するプログラムや各種データ、および外部から取得したオーディオデータなどを格納することが可能である。
ドライブは、記録媒体用リーダライタであり、受信装置2に内蔵、あるいは外付けされる。ドライブは、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記録媒体に記録されている情報を読み出して、RAM73に出力する。また、ドライブは、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記録媒体に記録を書き込むことも可能である。リムーバブル記録媒体は、例えば、DVD、BD等である。また、リムーバブル記録媒体は、コンパクトフラッシュ、メモリースティック、または、SDメモリカード等であってもよい。また、リムーバブル記録媒体は、例えば、非接触型ICチップを搭載したICカードまたは電子機器等であってもよい。
以上説明した構成により、受信装置2は、外部機器通信部80を介して、送信装置1から音声ストリームデータを受信し、再生出力することが可能になるとともに、送信装置1と双方向データ通信を行うことができる。
ここでは第3の実施の形態に係る受信装置2の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。従って、本実施の形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。
そして本実施の形態の受信装置2は、あくまでも親機からのオーディオデータを受信してオーディオデータを出力できる構成であればよく、必ずしも図13に示した構成の全てを備える必要はない。
例えば図11のサブウーファーアンプ2cの場合、表示部38、表示インターフェース36は不要である。またサラウンドリアアンプ2a、サラウンドリアバックアンプ2bの場合は、別体のスピーカを用いるためスピーカ44は不要である。
そして本実施の形態の受信装置2は、あくまでも親機からのオーディオデータを受信してオーディオデータを出力できる構成であればよく、必ずしも図13に示した構成の全てを備える必要はない。
例えば図11のサブウーファーアンプ2cの場合、表示部38、表示インターフェース36は不要である。またサラウンドリアアンプ2a、サラウンドリアバックアンプ2bの場合は、別体のスピーカを用いるためスピーカ44は不要である。
以上の送信装置1、受信装置2のオーディオデータ通信時の処理を図14で説明する。
図14は送信装置1のDSP61及び外部機器通信部60で実行される処理をステップF101〜F108で示し、また受信装置2の外部機器通信部80及びDSP85で実行される処理をステップF201〜F207として示している。
図14は送信装置1のDSP61及び外部機器通信部60で実行される処理をステップF101〜F108で示し、また受信装置2の外部機器通信部80及びDSP85で実行される処理をステップF201〜F207として示している。
まず送信装置1側では、ステップF101としてDSP85の送信オーディオデータ入力部10がオーディオデータの入力を開始する。即ちコンテンツ入力部62から、24ビットのオーディオデータがDSP61に入力される。
その後、ステップF102でオーディオデータ入力が終了と判断されるまで(送信処理を終了するまで)、DSP61(及び外部機器通信部60)はステップF103〜F108の処理を行う。
その後、ステップF102でオーディオデータ入力が終了と判断されるまで(送信処理を終了するまで)、DSP61(及び外部機器通信部60)はステップF103〜F108の処理を行う。
ステップF103でDSP61の伝送用調整部11は、入力されたオーディオデータについて、タイムフレーム期間での最大音量レベルを判定する。
そしてDSP61の伝送用調整部11は、ステップF104で、今回のタイムフレームのオーディオデータに対する増幅値(Y[dB])を決定する。上述のようにクリップしない範囲でのビットシフト量或いは乗算係数を決定する。
そして伝送用調整部11はステップF105で、今回のタイムフレームのオーディオデータに対し、Y[dB]の増幅処理を行う。
また伝送用調整部11はステップF106で、今回のタイムフレームでの増幅値情報を生成する。即ち今回のY[dB]を示す値、或いはビットシフト量を示す値、或いは乗算係数を示す値を増幅値情報とする。
以上のステップF105で増幅されたオーディオデータ、及びステップF106で生成した増幅値情報は、外部機器通信部60に転送される。
そしてDSP61の伝送用調整部11は、ステップF104で、今回のタイムフレームのオーディオデータに対する増幅値(Y[dB])を決定する。上述のようにクリップしない範囲でのビットシフト量或いは乗算係数を決定する。
そして伝送用調整部11はステップF105で、今回のタイムフレームのオーディオデータに対し、Y[dB]の増幅処理を行う。
また伝送用調整部11はステップF106で、今回のタイムフレームでの増幅値情報を生成する。即ち今回のY[dB]を示す値、或いはビットシフト量を示す値、或いは乗算係数を示す値を増幅値情報とする。
以上のステップF105で増幅されたオーディオデータ、及びステップF106で生成した増幅値情報は、外部機器通信部60に転送される。
外部機器通信部60のエンコード部60cは、ステップF107で送信用エンコードを行う。この場合、エンコード部60cは、まず24ビットのオーディオデータを16ビットに変換する。そしてタイムフレーム内のオーディオデータを、通信用データフォーマットに従ってパケット化等を行うとともに、増幅値情報を付加する。
或いは増幅値情報を、オーディオデータとは別の送信データとして同期送信するためのエンコードを行っても良い。
そして外部機器通信部60ではステップF108で変調・送信部60bが、エンコードされたデータを変調して無線信号としてアンテナ60aから送信出力する。
或いは増幅値情報を、オーディオデータとは別の送信データとして同期送信するためのエンコードを行っても良い。
そして外部機器通信部60ではステップF108で変調・送信部60bが、エンコードされたデータを変調して無線信号としてアンテナ60aから送信出力する。
タイムフレーム毎にステップF103〜F108の処理が繰り返され、それらが送信されていくことで、楽曲等の一連のオーディオデータが送信出力される。
このような送信が行われることに応じて受信装置2側では外部機器通信部80とDSP85でステップF201以降の処理が行われる。
外部機器通信部80の受信部80bで受信が開始された後は、ステップF202で受信終了となるまでの期間、外部機器通信部80及びDSP85でステップF203〜F207の処理が繰り返し行われる。
外部機器通信部80の受信部80bで受信が開始された後は、ステップF202で受信終了となるまでの期間、外部機器通信部80及びDSP85でステップF203〜F207の処理が繰り返し行われる。
外部機器通信部80の受信部80bはステップF203で受信及びRF復調処理を行う。即ち受信電波信号を復調し、通信用データフォーマットのデータを得る。
ステップF204では、外部機器通信部80のデコード部80cが、デコード処理を行ってオーディオデータを得、またオーディオデータを24ビットに変換する。さらに増幅値情報を抽出する。そしてこれらをDSP85に転送する。
ステップF204では、外部機器通信部80のデコード部80cが、デコード処理を行ってオーディオデータを得、またオーディオデータを24ビットに変換する。さらに増幅値情報を抽出する。そしてこれらをDSP85に転送する。
ステップF205ではDSP85の伝送データ調整部21で、今回のタイムフレームについての増幅値情報を検出する。そしてステップF206で今回のタイムフレーム内のオーディオデータに対して、増幅値情報に応じた減衰処理を行う。
その後ステップF207で、受信オーディオデータ処理部22が必要な処理を行って、オーディオデータを、オーディオデータ出力部81に出力する。この結果、オーディオデータ出力部81においてスピーカ84から楽曲等の音声出力が行われる。
このように受信装置2側では、ステップF205、F206の処理がタイムフレーム毎に行われながらオーディオデータ出力が実行されていく。
その後ステップF207で、受信オーディオデータ処理部22が必要な処理を行って、オーディオデータを、オーディオデータ出力部81に出力する。この結果、オーディオデータ出力部81においてスピーカ84から楽曲等の音声出力が行われる。
このように受信装置2側では、ステップF205、F206の処理がタイムフレーム毎に行われながらオーディオデータ出力が実行されていく。
以上の処理を行う第3の実施の形態の送信装置1、受信装置2によれば、第1の実施の形態において図4(b)で説明したように、低ビット(16ビット)の伝送路3を用いた場合でも、それによるダイナミックレンジの低下を抑制することができる。結果として図11のような通信システムで、ユーザに対し音質のよい音声出力を提供できる。
<6.第4の実施の形態>
続いて、同じく図11に示したような通信システムを構築できる第4の実施の形態の送信装置1、受信装置2について説明する。
第4の実施の形態は、上述した第2の実施の形態を、図11の通信システムに適用した具体的な例である。
続いて、同じく図11に示したような通信システムを構築できる第4の実施の形態の送信装置1、受信装置2について説明する。
第4の実施の形態は、上述した第2の実施の形態を、図11の通信システムに適用した具体的な例である。
第4の実施の形態の送信装置1の構成例を図15に示す。なお、図12と同一部分は同一符号を付し、説明を省略する。
図15において図12と異なるのは、DSP61にデジタルデータ処理部13が設けられている点である。
即ちコンテンツ入力部62より入力された例えば24ビットのオーディオデータが、DSP61の送信オーディオデータ入力部10に入力される。このオーディオデータについてデジタルデータ処理部13で、例えばサラウンド処理などのデータ処理が行われるが、その際に、処理過程でのクリップ防止のためにX[dB]の減衰が行われる。
そしてデジタルデータ処理部13で処理された24ビットのオーディオデータについて、伝送用調整部11でタイムフレーム毎に最大音量レベルのデータに応じたY[dB]の増幅及び増幅値情報の生成を行う。
図15において図12と異なるのは、DSP61にデジタルデータ処理部13が設けられている点である。
即ちコンテンツ入力部62より入力された例えば24ビットのオーディオデータが、DSP61の送信オーディオデータ入力部10に入力される。このオーディオデータについてデジタルデータ処理部13で、例えばサラウンド処理などのデータ処理が行われるが、その際に、処理過程でのクリップ防止のためにX[dB]の減衰が行われる。
そしてデジタルデータ処理部13で処理された24ビットのオーディオデータについて、伝送用調整部11でタイムフレーム毎に最大音量レベルのデータに応じたY[dB]の増幅及び増幅値情報の生成を行う。
外部機器通信部60は、このようにDSP61で処理されたオーディオデータと、タイムフレーム毎の増幅値情報について、エンコード部60cで送信用のエンコード処理を行い、変調・送信部60bで変調して、アンテナ60aから無線信号として送信出力する。
第4の実施の形態の受信装置2の構成は、図13と同様となるため、図示及び説明を省略する。なお、伝送データ調整部21の処理内容が第3の実施の形態とは異なるが、その点は図16で説明する。
図16は、第4の実施の形態の送信装置1、受信装置2のオーディオデータ通信時の処理例を示している。
この図16においては、送信装置1のDSP61及び外部機器通信部60で実行される処理をステップF150〜F159で示し、また受信装置2の外部機器通信部80及びDSP85で実行される処理をステップF250〜F257として示している。
この図16においては、送信装置1のDSP61及び外部機器通信部60で実行される処理をステップF150〜F159で示し、また受信装置2の外部機器通信部80及びDSP85で実行される処理をステップF250〜F257として示している。
まず送信装置1側では、ステップF150としてDSP85の送信オーディオデータ入力部10がオーディオデータの入力を開始する。即ちコンテンツ入力部62から、24ビットのオーディオデータがDSP61に入力される。
その後、ステップF151でオーディオデータ入力が終了と判断されるまで(送信処理を終了するまで)、DSP61(及び外部機器通信部60)はステップF153〜F159の処理を行う。
その後、ステップF151でオーディオデータ入力が終了と判断されるまで(送信処理を終了するまで)、DSP61(及び外部機器通信部60)はステップF153〜F159の処理を行う。
ステップF152では、入力されたオーディオデータに対して、デジタルデータ処理部13が、処理演算過程でのクリップ防止のためX[dB]の減衰処理を行う。
そしてステップF153でデジタルデータ処理部13で、サラウンド処理などの信号処理を行う。
このように処理されたオーディオデータは伝送用調整部11に供給される。
そしてステップF153でデジタルデータ処理部13で、サラウンド処理などの信号処理を行う。
このように処理されたオーディオデータは伝送用調整部11に供給される。
ステップF154でDSP61の伝送用調整部11は、入力されたオーディオデータについて、タイムフレーム期間での最大音量レベルを判定する。
そして伝送用調整部11は、ステップF155で、今回のタイムフレームのオーディオデータに対する増幅値(Y[dB])を決定する。即ちクリップしない範囲でのビットシフト量或いは乗算係数を決定する。
そして伝送用調整部11はステップF156で、今回のタイムフレームのオーディオデータに対し、Y[dB]の増幅処理を行う。
また伝送用調整部11はステップF157で、今回のタイムフレームでの増幅値情報を生成する。即ち今回のY[dB]を示す値、或いはビットシフト量を示す値、或いは乗算係数を示す値を増幅値情報とする。
以上のステップF156で増幅されたオーディオデータ、及びステップF157で生成した増幅値情報は、外部機器通信部60に転送される。
そして伝送用調整部11は、ステップF155で、今回のタイムフレームのオーディオデータに対する増幅値(Y[dB])を決定する。即ちクリップしない範囲でのビットシフト量或いは乗算係数を決定する。
そして伝送用調整部11はステップF156で、今回のタイムフレームのオーディオデータに対し、Y[dB]の増幅処理を行う。
また伝送用調整部11はステップF157で、今回のタイムフレームでの増幅値情報を生成する。即ち今回のY[dB]を示す値、或いはビットシフト量を示す値、或いは乗算係数を示す値を増幅値情報とする。
以上のステップF156で増幅されたオーディオデータ、及びステップF157で生成した増幅値情報は、外部機器通信部60に転送される。
外部機器通信部60のエンコード部60cは、ステップF158で送信用エンコードを行う。この場合、エンコード部60cは、まず24ビットのオーディオデータを16ビットに変換する。そしてタイムフレーム内のオーディオデータを、通信用データフォーマットに従ってパケット化等を行うとともに、増幅値情報を付加する。
或いは増幅値情報を、オーディオデータとは別の送信データとして同期送信するためのエンコードを行っても良い。
そして外部機器通信部60ではステップF159で変調・送信部60bが、エンコードされたデータを変調して無線信号としてアンテナ60aから送信出力する。
或いは増幅値情報を、オーディオデータとは別の送信データとして同期送信するためのエンコードを行っても良い。
そして外部機器通信部60ではステップF159で変調・送信部60bが、エンコードされたデータを変調して無線信号としてアンテナ60aから送信出力する。
タイムフレーム毎にステップF152〜F159の処理が繰り返され、それらが送信されていくことで、楽曲等の一連のオーディオデータが送信出力される。
このような送信が行われることに応じて受信装置2側では外部機器通信部80とDSP85でステップF250以降の処理が行われる。
外部機器通信部80の受信部80bで受信が開始された後は、ステップF251で受信終了となるまでの期間、外部機器通信部80及びDSP85でステップF252〜F257の処理が繰り返し行われる。
外部機器通信部80の受信部80bで受信が開始された後は、ステップF251で受信終了となるまでの期間、外部機器通信部80及びDSP85でステップF252〜F257の処理が繰り返し行われる。
外部機器通信部80の受信部80bはステップF252で受信及びRF復調処理を行う。即ち受信電波信号を復調し、通信用データフォーマットのデータを得る。
ステップF253では、外部機器通信部80のデコード部80cが、デコード処理を行ってオーディオデータを得、またオーディオデータを24ビットに変換する。さらに増幅値情報を抽出する。そしてこれらをDSP85に転送する。
ステップF253では、外部機器通信部80のデコード部80cが、デコード処理を行ってオーディオデータを得、またオーディオデータを24ビットに変換する。さらに増幅値情報を抽出する。そしてこれらをDSP85に転送する。
ステップF254ではDSP85の伝送データ調整部21で、今回のタイムフレームについての増幅値情報を検出する。
そして伝送データ調整部21はステップF255で今回のタイムフレーム内のオーディオデータに対する増幅値を決定する。
この場合、送信装置1のデジタルデータ処理部13で減数されたX[dB]に応じたX[dB]の増幅と、増幅値情報に示されたY[dB]の減衰を行うことになる。即ち(X−Y)dBの値を算出する。
そして伝送データ調整部21はステップF256で、(X−Y)dBのゲイン処理を行う。(X−Y)≧0であれば増幅処理、(X−Y)<0であれば減衰処理となる。
そして伝送データ調整部21はステップF255で今回のタイムフレーム内のオーディオデータに対する増幅値を決定する。
この場合、送信装置1のデジタルデータ処理部13で減数されたX[dB]に応じたX[dB]の増幅と、増幅値情報に示されたY[dB]の減衰を行うことになる。即ち(X−Y)dBの値を算出する。
そして伝送データ調整部21はステップF256で、(X−Y)dBのゲイン処理を行う。(X−Y)≧0であれば増幅処理、(X−Y)<0であれば減衰処理となる。
その後ステップF257で、受信オーディオデータ処理部22が必要な処理を行って、オーディオデータを、オーディオデータ出力部81に出力する。この結果、オーディオデータ出力部81においてスピーカ84から楽曲等の音声出力が行われる。
このように受信装置2側では、ステップF254〜F256の処理がタイムフレーム毎に行われながらオーディオデータ出力が実行されていく。
このように受信装置2側では、ステップF254〜F256の処理がタイムフレーム毎に行われながらオーディオデータ出力が実行されていく。
以上の処理を行う第4の実施の形態の送信装置1、受信装置2によれば、第2の実施の形態において図10で説明したように、低ビット(16ビット)の伝送路3を用い、また送信側でデジタルデータ処理のための減衰を行う場合でも、受信装置2側でのダイナミックレンジの低下を抑制することができる。結果として図11のような通信システムで、ユーザに対し音質のよい音声出力を提供できる。
<7.変形例>
以上、実施の形態について説明してきたが、本開示に係る送信装置、受信装置、通信システムは上記実施の形態に限られない。
以上、実施の形態について説明してきたが、本開示に係る送信装置、受信装置、通信システムは上記実施の形態に限られない。
まず実施の形態では、送信装置1、受信装置2で24ビットのオーディオデータを扱い、これを16ビットの伝送路3で通信することとしたが、もちろんこのようなシステムに限られない。
例えば送信装置、受信装置で20ビットのオーディオデータを扱い、伝送路で16ビットのオーディオデータを伝送するようなシステムでも適用できる。
即ち送信装置、受信装置で扱うビット数よりも低いビット数で伝送する伝送路が介在されるシステムであれば本開示の技術は適用できる。
例えば送信装置、受信装置で20ビットのオーディオデータを扱い、伝送路で16ビットのオーディオデータを伝送するようなシステムでも適用できる。
即ち送信装置、受信装置で扱うビット数よりも低いビット数で伝送する伝送路が介在されるシステムであれば本開示の技術は適用できる。
また伝送路は、無線伝送路、有線伝送路に限定されない。
さらに伝送路が、記録メディアや、回路部として実現される場合も想定される。
例えば伝送路が光ディスク、磁気ディスク、カードメディア、メモリチップなどの場合も考えられる。これらの場合、本開示の送信装置に相当するのが、メディアに対する記録装置)、受信装置に相当するのがメディアからデータを読み出す再生装置とする。記録装置、再生装置で例えば24ビットのオーディオデータを扱い、これをメディアに16ビットで記録するようなシステムである。
このような記録装置、再生装置は、一体の記録再生装置における記録回路系、再生回路系としても実現できる。
さらに伝送路が、記録メディアや、回路部として実現される場合も想定される。
例えば伝送路が光ディスク、磁気ディスク、カードメディア、メモリチップなどの場合も考えられる。これらの場合、本開示の送信装置に相当するのが、メディアに対する記録装置)、受信装置に相当するのがメディアからデータを読み出す再生装置とする。記録装置、再生装置で例えば24ビットのオーディオデータを扱い、これをメディアに16ビットで記録するようなシステムである。
このような記録装置、再生装置は、一体の記録再生装置における記録回路系、再生回路系としても実現できる。
また伝送路が回路部である場合とは、次のような場合である。オーディオデータをA回路→B回路→C回路と転送する系において、A回路、C回路が例えば24ビットのオーディオデータを扱い、B回路は16ビットのオーディオデータを扱うような場合である。このような回路系で、A回路が本開示の送信装置、C回路が本開示の受信装置、B回路が伝送路に相当するものとして、本開示の技術を適用できる。
また、実施の形態ではオーディオデータを扱うシステムとして説明したが、オーディオデータ以外のデータ、例えばビデオデータ等を扱うシステムでも本開示の技術を適用できる。
例えば第1の実施の形態にあてはめれば、図2(b)の送信装置1において、送信オーディオデータ入力部10に代えて第2の量子化ビット数のビデオデータを入力する送信ビデオデータ入力部を備えるようにする。
そして伝送用調整部11は、例えばタイムフレーム毎のビデオデータの輝度レベルの最大値に応じてクリップしない範囲で増幅値を決定し、タイムフレーム内のビデオデータについて増幅処理を行う。また増幅値情報を生成する。
送信処理部12は、該ビデオデータを、より低ビット数である第1の量子化ビット数のデータとして送信し、その際には各タイムフレーム毎についての増幅値情報も送信する。
受信装置2側では、受信処理部20が受信したビデオデータについて第2の量子化ビット数のデータとして伝送データ調整部21に出力し、伝送データ調整部21は、各タイムフレーム毎に、増幅値情報に基づいた減衰処理を行う。
このようにすることでビデオデータのダイナミックレンジ(階調性)を向上させ、画質向上を実現できる。
第2〜第4の実施の形態においても、同様にビデオデータを用いるシステムに適用できる。
例えば第1の実施の形態にあてはめれば、図2(b)の送信装置1において、送信オーディオデータ入力部10に代えて第2の量子化ビット数のビデオデータを入力する送信ビデオデータ入力部を備えるようにする。
そして伝送用調整部11は、例えばタイムフレーム毎のビデオデータの輝度レベルの最大値に応じてクリップしない範囲で増幅値を決定し、タイムフレーム内のビデオデータについて増幅処理を行う。また増幅値情報を生成する。
送信処理部12は、該ビデオデータを、より低ビット数である第1の量子化ビット数のデータとして送信し、その際には各タイムフレーム毎についての増幅値情報も送信する。
受信装置2側では、受信処理部20が受信したビデオデータについて第2の量子化ビット数のデータとして伝送データ調整部21に出力し、伝送データ調整部21は、各タイムフレーム毎に、増幅値情報に基づいた減衰処理を行う。
このようにすることでビデオデータのダイナミックレンジ(階調性)を向上させ、画質向上を実現できる。
第2〜第4の実施の形態においても、同様にビデオデータを用いるシステムに適用できる。
なお本技術は以下のような構成も採ることができる。
(1)第1の量子化ビット数のデジタルデータを伝送する伝送路を用いて伝送するデジタルデータとして、上記第1の量子化ビット数よりビット数の多い第2の量子化ビット数のデジタルデータを入力する送信データ入力部と、
上記送信データ入力部に入力されたデジタルデータについて、所定のタイムフレーム毎に、タイムフレーム内の最大レベルに応じた増幅処理を行うとともに、増幅値情報を発生させる伝送用調整部と、
上記伝送用調整部で処理されたデジタルデータを、そのタイムフレーム毎に上記増幅値情報を対応づけるとともに、上記第1の量子化ビット数のデジタルデータとして、上記伝送路に送信する送信処理部と、を備えた送信装置。
(2)上記デジタルデータはオーディオデータであり、
上記伝送用調整部は、
上記最大レベルとして、オーディオデータのタイムフレーム内の最大音量レベルを検出する音量検出部と、
上記音量検出部で検出された最大音量レベルが上記第2の量子化ビット数でのクリップレベルを超えない範囲の増幅値を決定し、そのタイムフレーム内のオーディオデータにつて、決定した増幅値での増幅処理を行う音量増幅部と、
上記決定した増幅値により、そのタイムフレームに対応する増幅値情報を生成する増幅値情報生成部と、を備えている上記(1)に記載の送信装置。
(3)上記音量増幅部は、上記増幅値として、最大音量レベルのデータが上記第2の量子化ビット数でのクリップレベルを超えない範囲のレベルとなるビットシフト量を決定し、ビットシフト処理で上記増幅処理を行う上記(2)に記載の送信装置。
(4)上記音量増幅部は、上記増幅値として、最大音量レベルのデータが上記第2の量子化ビット数でのクリップレベルを超えない目的レベルとなる増幅係数を決定し、上記増幅処理として上記増幅係数をオーディオデータに乗算する処理を行う上記(2)に記載の送信装置。
(5)上記送信データ入力部に入力されたデジタルデータについて、データ処理過程でのクリップ防止のための減衰処理を行った上で、データ処理を行うデジタルデータ処理部をさらに備え、
上記伝送用調整部は、上記デジタルデータ処理部で処理されたデジタルデータについて、所定タイムフレーム毎に、タイムフレーム内の最大レベルに応じた増幅処理を行うとともに、増幅値情報を発生させる上記(1)から(4)のいずれかに記載の送信装置。
(6)上記伝送路は無線伝送路であり、上記送信処理部は、無線伝送信号の送信を行う上記(1)から(5)のいずれかに記載の送信装置。
(1)第1の量子化ビット数のデジタルデータを伝送する伝送路を用いて伝送するデジタルデータとして、上記第1の量子化ビット数よりビット数の多い第2の量子化ビット数のデジタルデータを入力する送信データ入力部と、
上記送信データ入力部に入力されたデジタルデータについて、所定のタイムフレーム毎に、タイムフレーム内の最大レベルに応じた増幅処理を行うとともに、増幅値情報を発生させる伝送用調整部と、
上記伝送用調整部で処理されたデジタルデータを、そのタイムフレーム毎に上記増幅値情報を対応づけるとともに、上記第1の量子化ビット数のデジタルデータとして、上記伝送路に送信する送信処理部と、を備えた送信装置。
(2)上記デジタルデータはオーディオデータであり、
上記伝送用調整部は、
上記最大レベルとして、オーディオデータのタイムフレーム内の最大音量レベルを検出する音量検出部と、
上記音量検出部で検出された最大音量レベルが上記第2の量子化ビット数でのクリップレベルを超えない範囲の増幅値を決定し、そのタイムフレーム内のオーディオデータにつて、決定した増幅値での増幅処理を行う音量増幅部と、
上記決定した増幅値により、そのタイムフレームに対応する増幅値情報を生成する増幅値情報生成部と、を備えている上記(1)に記載の送信装置。
(3)上記音量増幅部は、上記増幅値として、最大音量レベルのデータが上記第2の量子化ビット数でのクリップレベルを超えない範囲のレベルとなるビットシフト量を決定し、ビットシフト処理で上記増幅処理を行う上記(2)に記載の送信装置。
(4)上記音量増幅部は、上記増幅値として、最大音量レベルのデータが上記第2の量子化ビット数でのクリップレベルを超えない目的レベルとなる増幅係数を決定し、上記増幅処理として上記増幅係数をオーディオデータに乗算する処理を行う上記(2)に記載の送信装置。
(5)上記送信データ入力部に入力されたデジタルデータについて、データ処理過程でのクリップ防止のための減衰処理を行った上で、データ処理を行うデジタルデータ処理部をさらに備え、
上記伝送用調整部は、上記デジタルデータ処理部で処理されたデジタルデータについて、所定タイムフレーム毎に、タイムフレーム内の最大レベルに応じた増幅処理を行うとともに、増幅値情報を発生させる上記(1)から(4)のいずれかに記載の送信装置。
(6)上記伝送路は無線伝送路であり、上記送信処理部は、無線伝送信号の送信を行う上記(1)から(5)のいずれかに記載の送信装置。
また本技術は以下のような構成も採ることができる。
(7)第1の量子化ビット数のデジタルデータを伝送する伝送路を用いて伝送されてきたデジタルデータを受信し、上記第1の量子化ビット数よりビット数の多い第2の量子化ビット数のデジタルデータとして出力する受信処理部と、
上記受信処理部から出力されるデジタルデータについて、所定のタイムフレーム毎に対応づけられた増幅値情報に基づいて減衰値を決定し、タイムフレーム内のデジタルデータについての減衰処理を行う伝送データ調整部と、を備えた受信装置。
(8)上記デジタルデータはオーディオデータであり、
上記伝送データ調整部は、
上記受信処理部から出力されるオーディオデータについて、上記タイムフレーム毎に対応づけられた増幅値情報を検出する増幅値情報検出部と、
上記増幅値情報検出部で検出された増幅値情報に基づいて減衰値を決定し、タイムフレーム内のオーディオデータについての減衰処理を行う音量調整部と、を備えている上記(7)に記載の受信装置。
(9)上記音量調整部は、上記増幅値情報に相当するビットシフト量分のビットシフトを行うことで上記減衰処理を行う上記(8)に記載の受信装置。
(10)上記音量増幅部は、上記増幅値情報で示される増幅係数を、オーディオデータから除算することで上記減衰処理を行う上記(8)に記載の受信装置。
(11)上記受信処理部で受信されるデジタルデータが、データ処理過程でのクリップ防止のための減衰処理を行った上で、データ処理が行われ、さらにタイムフレーム毎に上記増幅値情報で示される増幅処理を行ったデジタルデータであり、
上記伝送データ調整部は、タイムフレーム内のデジタルデータについて、上記クリップ防止のための減衰処理に対応する増幅処理と、上記増幅値情報に基づいた減衰値の減衰処理を行う上記(7)から(10)のいずれかに記載の受信装置。
(12)上記伝送路は無線伝送路であり、上記受信処理部は、無線伝送信号の受信を行う上記(7)から(11)のいずれかに記載の受信装置。
(7)第1の量子化ビット数のデジタルデータを伝送する伝送路を用いて伝送されてきたデジタルデータを受信し、上記第1の量子化ビット数よりビット数の多い第2の量子化ビット数のデジタルデータとして出力する受信処理部と、
上記受信処理部から出力されるデジタルデータについて、所定のタイムフレーム毎に対応づけられた増幅値情報に基づいて減衰値を決定し、タイムフレーム内のデジタルデータについての減衰処理を行う伝送データ調整部と、を備えた受信装置。
(8)上記デジタルデータはオーディオデータであり、
上記伝送データ調整部は、
上記受信処理部から出力されるオーディオデータについて、上記タイムフレーム毎に対応づけられた増幅値情報を検出する増幅値情報検出部と、
上記増幅値情報検出部で検出された増幅値情報に基づいて減衰値を決定し、タイムフレーム内のオーディオデータについての減衰処理を行う音量調整部と、を備えている上記(7)に記載の受信装置。
(9)上記音量調整部は、上記増幅値情報に相当するビットシフト量分のビットシフトを行うことで上記減衰処理を行う上記(8)に記載の受信装置。
(10)上記音量増幅部は、上記増幅値情報で示される増幅係数を、オーディオデータから除算することで上記減衰処理を行う上記(8)に記載の受信装置。
(11)上記受信処理部で受信されるデジタルデータが、データ処理過程でのクリップ防止のための減衰処理を行った上で、データ処理が行われ、さらにタイムフレーム毎に上記増幅値情報で示される増幅処理を行ったデジタルデータであり、
上記伝送データ調整部は、タイムフレーム内のデジタルデータについて、上記クリップ防止のための減衰処理に対応する増幅処理と、上記増幅値情報に基づいた減衰値の減衰処理を行う上記(7)から(10)のいずれかに記載の受信装置。
(12)上記伝送路は無線伝送路であり、上記受信処理部は、無線伝送信号の受信を行う上記(7)から(11)のいずれかに記載の受信装置。
1 送信装置、2 受信装置、3 伝送路、10 送信オーディオデータ入力部、11 伝送用調整部、11a 音量検出部、11b 音量増幅部、11c 増幅情報生成部、12 送信処理部、13 デジタルデータ処理部、20 受信処理部、21 伝送データ調整部、21a 増幅値情報検出部、21b 音量調整部、22 受信オーディオデータ処理部、51,71 CPU、60,80 外部機器通信部、61,81 DSP
Claims (15)
- 第1の量子化ビット数のデジタルデータを伝送する伝送路を用いて伝送するデジタルデータとして、上記第1の量子化ビット数よりビット数の多い第2の量子化ビット数のデジタルデータを入力する送信データ入力部と、
上記送信データ入力部に入力されたデジタルデータについて、所定のタイムフレーム毎に、タイムフレーム内の最大レベルに応じた増幅処理を行うとともに、増幅値情報を発生させる伝送用調整部と、
上記伝送用調整部で処理されたデジタルデータを、そのタイムフレーム毎に上記増幅値情報を対応づけるとともに、上記第1の量子化ビット数のデジタルデータとして、上記伝送路に送信する送信処理部と、
を備えた送信装置。 - 上記デジタルデータはオーディオデータであり、
上記伝送用調整部は、
上記最大レベルとして、オーディオデータのタイムフレーム内の最大音量レベルを検出する音量検出部と、
上記音量検出部で検出された最大音量レベルが上記第2の量子化ビット数でのクリップレベルを超えない範囲の増幅値を決定し、そのタイムフレーム内のオーディオデータにつて、決定した増幅値での増幅処理を行う音量増幅部と、
上記決定した増幅値により、そのタイムフレームに対応する増幅値情報を生成する増幅値情報生成部と、
を備えている請求項1に記載の送信装置。 - 上記音量増幅部は、上記増幅値として、最大音量レベルのデータが上記第2の量子化ビット数でのクリップレベルを超えない範囲のレベルとなるビットシフト量を決定し、ビットシフト処理で上記増幅処理を行う請求項2に記載の送信装置。
- 上記音量増幅部は、上記増幅値として、最大音量レベルのデータが上記第2の量子化ビット数でのクリップレベルを超えない目的レベルとなる増幅係数を決定し、上記増幅処理として上記増幅係数をオーディオデータに乗算する処理を行う請求項2に記載の送信装置。
- 上記送信データ入力部に入力されたデジタルデータについて、データ処理過程でのクリップ防止のための減衰処理を行った上で、データ処理を行うデジタルデータ処理部をさらに備え、
上記伝送用調整部は、上記デジタルデータ処理部で処理されたデジタルデータについて、所定タイムフレーム毎に、タイムフレーム内の最大レベルに応じた増幅処理を行うとともに、増幅値情報を発生させる請求項1に記載の送信装置。 - 上記伝送路は無線伝送路であり、
上記送信処理部は、無線伝送信号の送信を行う請求項1に記載の送信装置。 - 第1の量子化ビット数のデジタルデータを伝送する伝送路を用いて伝送されてきたデジタルデータを受信し、上記第1の量子化ビット数よりビット数の多い第2の量子化ビット数のデジタルデータとして出力する受信処理部と、
上記受信処理部から出力されるデジタルデータについて、所定のタイムフレーム毎に対応づけられた増幅値情報に基づいて減衰値を決定し、タイムフレーム内のデジタルデータについての減衰処理を行う伝送データ調整部と、
を備えた受信装置。 - 上記デジタルデータはオーディオデータであり、
上記伝送データ調整部は、
上記受信処理部から出力されるオーディオデータについて、上記タイムフレーム毎に対応づけられた増幅値情報を検出する増幅値情報検出部と、
上記増幅値情報検出部で検出された増幅値情報に基づいて減衰値を決定し、タイムフレーム内のオーディオデータについての減衰処理を行う音量調整部と、
を備えている請求項7に記載の受信装置。 - 上記音量調整部は、上記増幅値情報に相当するビットシフト量分のビットシフトを行うことで上記減衰処理を行う請求項8に記載の受信装置。
- 上記音量増幅部は、上記増幅値情報で示される増幅係数を、オーディオデータから除算することで上記減衰処理を行う請求項8に記載の受信装置。
- 上記受信処理部で受信されるデジタルデータが、データ処理過程でのクリップ防止のための減衰処理を行った上で、データ処理が行われ、さらにタイムフレーム毎に上記増幅値情報で示される増幅処理を行ったデジタルデータであり、
上記伝送データ調整部は、タイムフレーム内のデジタルデータについて、上記クリップ防止のための減衰処理に対応する増幅処理と、上記増幅値情報に基づいた減衰値の減衰処理を行う請求項7に記載の受信装置。 - 上記伝送路は無線伝送路であり、
上記受信処理部は、無線伝送信号の受信を行う請求項7に記載の受信装置。 - 第1の量子化ビット数のデジタルデータを伝送する伝送路を用いて伝送するデジタルデータとして、上記第1の量子化ビット数よりビット数の多い第2の量子化ビット数のデジタルデータを入力し、
入力されたデジタルデータについて、所定のタイムフレーム毎に、タイムフレーム内の最大レベルに応じた増幅処理を行うとともに、増幅値情報を発生させ、
上記増幅処理されたデジタルデータについて、上記タイムフレーム毎に上記増幅値情報を対応づけるとともに、上記第1の量子化ビット数のデジタルデータとして、上記伝送路に送信する送信方法。 - 第1の量子化ビット数のデジタルデータを伝送する伝送路を用いて伝送されてきたデジタルデータを受信して、上記第1の量子化ビット数よりビット数の多い第2の量子化ビット数のデジタルデータとして出力し、
第2の量子化ビット数のデジタルデータについて、所定のタイムフレーム毎に対応づけられた増幅値情報に基づいて減衰値を決定し、タイムフレーム内のデジタルデータについての減衰処理を行う受信方法。 - 送信装置と受信装置が、第1の量子化ビット数のデジタルデータを伝送する伝送路を用いて通信を行う通信システムであって、
上記送信装置は、
伝送するデジタルデータとして、上記第1の量子化ビット数よりビット数の多い第2の量子化ビット数のデジタルデータを入力する送信データ入力部と、
上記送信データ入力部に入力されたデジタルデータについて、所定のタイムフレーム毎に、タイムフレーム内の最大レベルに応じた増幅処理を行うとともに、増幅値情報を発生させる伝送用調整部と、
上記伝送用調整部で処理されたデジタルデータを、そのタイムフレーム毎に上記増幅値情報を対応づけるとともに、上記第1の量子化ビット数のデジタルデータとして、上記伝送路に送信する送信処理部と、
を備え、
上記受信装置は、
上記伝送路を用いて伝送されてきたデジタルデータを受信し、上記第1の量子化ビット数よりビット数の多い第2の量子化ビット数のデジタルデータとして出力する受信処理部と、
上記受信処理部から出力されるデジタルデータについて、所定のタイムフレーム毎に対応づけられた増幅値情報に基づいて減衰値を決定し、タイムフレーム内のデジタルデータについての減衰処理を行う伝送データ調整部と、
を備えた通信システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011045842A JP2012181469A (ja) | 2011-03-03 | 2011-03-03 | 送信装置、受信装置、送信方法、受信方法、通信システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011045842A JP2012181469A (ja) | 2011-03-03 | 2011-03-03 | 送信装置、受信装置、送信方法、受信方法、通信システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012181469A true JP2012181469A (ja) | 2012-09-20 |
Family
ID=47012692
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011045842A Withdrawn JP2012181469A (ja) | 2011-03-03 | 2011-03-03 | 送信装置、受信装置、送信方法、受信方法、通信システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012181469A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016507772A (ja) * | 2012-12-27 | 2016-03-10 | ゼットティーイー コーポレーションZte Corporation | 音声データの伝送方法及び装置 |
-
2011
- 2011-03-03 JP JP2011045842A patent/JP2012181469A/ja not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016507772A (ja) * | 2012-12-27 | 2016-03-10 | ゼットティーイー コーポレーションZte Corporation | 音声データの伝送方法及び装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3822224B1 (ja) | 情報提供システム | |
JP4792156B2 (ja) | マイクロホンアレイを有するボイス制御システム | |
US8634565B2 (en) | Audio signal processing apparatus, audio signal processing method, and program | |
JP4374058B2 (ja) | 映像音声出力装置及び映像音声出力方法 | |
US9461603B2 (en) | Method and apparatus to automatically control audio volume | |
US20130279699A1 (en) | Information Providing System | |
JP3834579B1 (ja) | 情報提供システム | |
EP1349420A2 (en) | Playback apparatus, headphone, and playback method | |
JPS58142614A (ja) | 利得制御装置 | |
US8903103B2 (en) | Receiving device, transmitting device, receiving method, transmitting method, and communication system | |
JP2012181469A (ja) | 送信装置、受信装置、送信方法、受信方法、通信システム | |
JP3981012B2 (ja) | ビデオデータを表示するための方法 | |
JP2001005499A (ja) | 音楽データ情報伝送方法および装置 | |
JP2014032364A (ja) | 音処理装置、音処理方法及びプログラム | |
JP2004328513A (ja) | 音声データ処理装置、音声データ処理方法、そのプログラム、および、そのプログラムを記録した記録媒体 | |
JP2007311965A (ja) | デジタルオーディオ信号処理装置 | |
JP2016134645A (ja) | 放送受信装置及び放送受信方法 | |
US20070200825A1 (en) | Mouse device and audio playback system | |
JP4246001B2 (ja) | Avシステム、第2情報出力装置、第1情報出力装置 | |
KR20060093561A (ko) | 블루투스를 이용한 홈 시어터 시스템의 오디오 신호 처리장치 | |
JP4335095B2 (ja) | ダイバーシティ方式の受信機、サウンドシステム | |
KR20010008949A (ko) | 휴대용 오디오 재생 장치 및 방법 | |
JP2012160811A (ja) | オーディオ装置 | |
US20100030352A1 (en) | Signal processing device | |
JP2006126465A (ja) | 音声出力システム及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140513 |