JP4130927B2 - 音響再生装置 - Google Patents
音響再生装置 Download PDFInfo
- Publication number
- JP4130927B2 JP4130927B2 JP2006535789A JP2006535789A JP4130927B2 JP 4130927 B2 JP4130927 B2 JP 4130927B2 JP 2006535789 A JP2006535789 A JP 2006535789A JP 2006535789 A JP2006535789 A JP 2006535789A JP 4130927 B2 JP4130927 B2 JP 4130927B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- unit
- output
- acoustic
- sound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/04—Time compression or expansion
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Stereophonic System (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
Description
このような問題点を解決する方法として、特許文献1には、デジタルシグナルプロセッサ(DSP)を用いて音声信号のうち所定の音声信号をカットして聴き取り易くすることが開示されている。
そこで、本発明は、このような事情を鑑み、有益な音響データを省くことなく、即ち捨て去ることなく短時間に再生して早聞きすることができる、音響再生方法及び装置を提供することを目的とする。
本発明に係る音響再生方法は、原音となる一つの音響信号を分割して二つの音響信号に振り分け、この振り分けられた音響信号をそれぞれ対応した出力部から出力することで、分割及び振り分け処理を行わずに元の音響信号を再生したときと比べて、再生速度を速くする方法である。これにより、単に音響信号を間引きして再生することで再生速度を速めた場合と比べて、音響信号を忠実に再生することができる。
図1は、音響再生方法の具体的な原理を説明するための説明図である。音響信号が、図1(a)に示すf(t)の波形で表されると仮定して、本発明の音響再生方法を説明する。図1(a)に示すグラフの横軸tは時間である。
このように、音響信号f(t)をサンプリング関数s1(t)及びs2(t)でサンプリングを行い、パルス関数g1(t)及びg2(t)を得る。即ち、音響信号f(t)を時間2T毎にサンプリングし、音響信号f(t)を二つの信号に振り分ける。換言すれば、音響信号f(t)を時間i×Tでサンプリングすることで、音響の各データDiを抽出し、第1の音響データ及び第2の音響データの各要素として振り分ける。ここで、iは自然数である。
音響再生用のデッキ14で、アナログ記憶されている音響データが再生され、音響信号が生成され、A/D変換機16によりデジタル信号に変換されて、音響信号処理部13に順次入力される。
図2に示す音響再生装置10の音響信号処理部13での音響信号処理を、音響信号の入力が開始されたときから所定の時間経過した後、一定期間だけ行うようにすることもできる。図3は、図2に示す音響再生装置10の音響処理部13に入力される音響信号Fと、第1出力部20aに出力される第1音響信号F1と、第2出力部20bに出力される第2音響信号F2とを模式的に示すものである。図3(a)は、音響処理部13に音響信号Fが入力されたと同時に音響信号処理を開始した場合、(b)は、音響処理部13に音響信号Fが入力されて所定の期間経過した後に、一定期間だけ音響信号処理を行った場合を示す。図において、DAT(i)は、音響信号を再生した時の所定時間当りの第i番目の音響データを示している。このDAT(i)は、図1を用いて説明したデータDiに相当するものである。i=1〜10である。
図4は、図1とは異なる音響再生方法を説明するための説明図である。図4(a)に示すように、再生に係る音響を模式的に示した波形h(t)とする。音圧が所定以下である区間t1及びt2では無音区間であり、この区間が所定長以上の場合には音節区切り目又は文節区切り目と判断する。
例えばこの無音区間の終了時間毎にこの波形h(t)を分割し、区間Aに示される波形h(ta≦t≦tb)と、区間Bに示される波形h(tb≦t≦tc)と、区間Cに示される波形h(tc≦t≦td)とに区切り、この区切られた波形を順番に第1の音響信号の波形、第2の音響信号の波形として振り分ける。
このようにすれば、一つの音響信号を、音節区切り目又は文節区切り目を基準に二つに分割して、第1音響信号及び第2音響信号の各要素として振り分けて、第1音響信号、第2音響信号が生成されるので、1〜2倍速で再生することができる。また、このとき、例えば区間Aに示されている波形h(ta≦t≦tb)のうち、無音区間t1を削除した後に、第1音響信号の各要素とし、区間Bに示されている波形h(tb≦t≦tc)のうち、無音区間t2を削除した後に、第2音響信号の各要素とすることで、音響信号を2倍速以上でも再生することができる。
図2の場合と同様、第1出力部46aと第2出力部46bとを備え、各第1及び第2の出力部46a,46bは、各音響データのデジタル信号をアナログ信号に変換するD/A変換機46cと、変換されたアナログ信号を必要に応じて増幅するアンプ46dと、アンプ46dで増幅されたアナログ信号を出力するスピーカ46eとを備える。
音響信号処理部44は、さらに、区分けしたデータ群を何れに第1及び第2メモリ部44a,44bに振り分けるかを判定する振り分け判定部44cを備えている。例えば、解析部43が、記憶部42に記憶されているデータのうち、領域番号が No.4〜No. 7(データの欄が斜線の部分)に格納されているデータが無音状態であると判定すると、制御部45に格納されているテーブル45aに無音領域開始番号( No.4)と、無音領域終了番号( No.7)とが格納される。
先ず、原音再生部41で音響データが記憶されているMDやカセットテープを再生して記憶部42に取り込み記憶する(STEP1−1)。図5では図示を省略しているが、図2に示す音響再生装置10のように、必要に応じてアンプで増幅されて、A/D変換がなされる。
解析部43は制御部45の制御の下、記憶部42に記憶されている音響データ中の音節区切り目又は文節区切り目を判断する(STEP1−2)。ここで、音節とは、語の構成要素としての音の単位で、一つのまとまった音の感じを与えるものであるのに対し、文節とは文を読む際、自然な発音によって区切られる最小単位をいう。この音節区切り目や文節区切り目の判断は、例えば、音響データを再生した際、無音であるか否かで判断することで容易に行うことができる。
音響データを、上記STEP1−2で判断した音節区切り目又は文節区切り目を基準に、音響データの最初から順に音節単位又は文節単位で音響データをカットして分割する(STEP1−3)。これは、実質的には、制御部45に格納されているテーブル45に、無音開始領域と無音終了領域との欄に該当する領域番号が格納されることで実現される。
分割した音節単位又は文節単位のデータを、第1音響データ又は第2音響データの何れかに振り分ける(STEP1−4)。これは、振り分け判定部44cが、制御部45のテーブル45aから、例えば第1音節単位が領域番号 No.1〜 No.7、第2音節単位が領域番号 No.8〜 No.20と、順に確認していき、音節単位又は文節単位のデータを、順次、第1音響データ出力用の第1メモリ部44a又は第2音響データ出力用のメモリ部44bに蓄積することで実現される。
そして、第1及び第2メモリ部44a, 44bにそれぞれ蓄積されているデータを、対応する第1又は第2出力部46a,46bに出力する(STEP1−5)。
この一連の処理により、第1出力部46a及び第2出力部46bには、原音再生部41から再生出力された音響信号が、音節又は文節単位で振り分けられて各データとして蓄積されているので、順に、各スピーカ46eから出力される。
図8は、図6の振り分け判定部44aにより音節単位でどのように振り分けられるかについて説明するための説明図である。図8(a)は、図5の記憶部42に記憶される音響データの構成を、音節単位で示すものであり、音響データは、第1音節S(1)から第9音節S(9)で構成されているとする。なお、各音節の長さを左右矢印付きの線の長さで表している。
先ず、振り分け判定部44aが、第1音節S(1)を第1メモリ部44aに振り分け、第2音節S(2)を第2メモリ部44bに振り分ける。
次に、第3音節S(3)を何れに振り分けるかを判断する際に、第1メモリ部44aに今まで出力したデータ量と、第2メモリ部44bに今まで出力したデータ量とを比較し、データ量が少ないほうに出力する。図8に示す例では、第1音節S(1)の方が、第2音節S(2)よりもデータ量が多いので、第1メモリ部44aに出力したデータ量が、第2メモリ部44bに出力したデータ量より多いので、第3音節S(3)は第2メモリ部44bに出力すると判定する。よって、第3音節S(3)は、第2音響データの要素として振り分けられる。以下同様にして、第9音節S(9)まで振り分け処理を行う。
これにより、第j番目の音節S(j)(j=1〜9)は、既に、第1音節S(1)から第(j−1)音節S(j−1)の各データが第1及び第2音響データの要素としてに振り分けられているので、第1音響データ及び第2音響データの先頭から全体の音節の長さが短い方を選択して、振り分けがなされる。
図8から分かるように、(a)に示された音響データの長さと、(b)に示された第1及び第2の音響データの長さを比べると、第1及び第2の音響データの長さが共に短いので、振り分け処理しないで音響データを再生したときと比べてより速く再生することができる。
このように、音響データを音節単位又は文節単位で第1及び第2の音響データに振り分けて構築して出力再生することにより、実質的に音響データの再生速度が速くなる。よって、ユーザは、意識的に再生に係る音響データを構築し、理解することで、脳の活性化及び認知症の予防にも効果的である。
変形例は、音響データから分割した音節単位又は文節単位を第1及び第2の音響データの要素として振り分け、第1出力部及び第2出力部に出力する形式の点で異なる。以下では音節単位で分割する場合を説明するが、文節単位で分割する場合も同様である。
図9は、音響再生装置40の一部の変形例を示す構成図である。この変形例では、図6に示す音響再生装置40の第1メモリ部44a及び第2メモリ部44bの出力側に出力制御部44dを設け、この出力制御部44dにより、第1メモリ部44a及び第2メモリ部44bに一時的に蓄積されている音響データをタイミングを調整して、それぞれ第1又は第2出力部46a,46bに出力する。
以上説明した構成では、何れもアナログ記憶された音響データを一旦デジタル変換して記憶させた後に、そのデジタル変換された音響データをデータ処理して第1及び第2の音響データに分けて第1及び第2出力部に振り分けて出力する場合を説明したが、デジタル記録された音響データをそのままデータ処理して行うこともできる。
出力部53には、スピーカーなど、所定の音響データを音圧として出力するためのものであり、前述のように、第1及び第2の出力部53a,53bは、何れも、デジタル信号をアナログ信号に変換するD/A変換機と、D/A変換機から出力されたアナログ信号を必要に応じて増幅するアンプと、アンプから出力されたアナログ信号を音圧として出力するスピーカとを直列接続して構成される。
(4−1)所定の間隔で振り分けをする場合
記憶部51に記憶されている音響データのデータ配列に従って所定の間隔毎に第1出力部53a及び第2出力部53bに振り分けを行うケースでは、第1出力部53aに出力するデータと第2出力部53bに出力するデータとを、データ処理部52が記憶部51に記憶されている音響データのデータ列の場所を選定して抽出し、抽出した各データを、それぞれ第1出力部53a,第2出力部53bに出力することで、振り分けを行うことができる。例えば、第1出力部53aに出力するデータは、所定の間隔に対応するデータ量だけ、記憶部51に記憶されている音響データのデータ配列順に抽出し、所定の間隔と同等のデータ列を飛ばして、次のデータ列を所定の間隔分に対応するデータ列だけ抽出することを繰り返し行いつつ、第2出力部53bに出力するデータについても同様に行うことで実現できる。
音響データFが、第(i−2)番目のフレームF(i−2)から第(i+3)番目のフレームF(i+3)で構成されているとする。いま、フレーム単位で一つおきに、フレームを抽出して第1の音響データの元と第2の音響データの元が作成される。即ち、第1の音響データの元として、F(i−2),F(i),F(i+2)からなるデータ列と、第2の音響データの元として、F(i−1),F(i+1),F(i+3)からなるデータ列が順次結合される。
そして、第1及び第2の音響データのフレーム間の端部、即ちフレーム同士が結合した部分(図12(a)でS、Tの区間)に波形整形処理を施す。図12(a)に示すように、フレームの後端部の区間La(図のSの区間)とフレームの前端部の区間Lb(図のTの区間)について波形整形を行う。波形整形範囲から外れる区間(図のUの区間)について波形整形はなされない。波形整形には、図12(b)に示す2乗余弦関数(1+cosθ)/2を用いる。説明上、区間aを0≦θ≦π/2、区間bをπ/2≦θ≦π、区間cをπ≦θ≦3π/2c、区間dを3π/2≦θ≦2πとする。
第i番目のフレームF(i)の後端部(右側)の範囲La(図のSの区間)は次のようにして波形整形を行う。なお、区間S, Tにあるデータ数をnとし、1≦j≦nとする。
波形整形後の第i番目のフレームF’(i)の区間Sにある各データD’(i,j)は、波形整形前の第i番目のフレームF(i)の区間SにあるデータD(i,j)と2乗余弦関数との積と、第(i+2)番目のフレームF(i+2)の区間TにあるデータD(i+2,j)と2乗余弦関数との積と、の和として求められる。
ここで、データD(i,j)に掛けられる2乗余弦関数(1+cosψj )/2は、図12(b)に示した区間aを範囲Laに対応させ、角度θをその区間a内でn等分した内の左側からj番目の角度φj で求められる値である。
また、データD(i+2,j)に掛けられる2乗余弦関数(1+cosψj )/2は、図12(b)に示した区間cを範囲Laに対応させ、角度θをその区間a内でn等分した内の左側からj番目の角度φj で求められる値である。
同様に、第(i+2)番目のフレームF(i+2)の前端部(左側)の範囲Lb(図のTの区間)は次のようにして波形整形を行う。
波形整形後の第(i+2)番目のフレームF’(i+2)の区間TにあるデータD’(i+2,j)は、波形整形前の第(i+2)番目のフレームF(i+2)の区間Tにある各データD(i+2,j)と2乗余弦関数との積と、第(i)番目のフレームF(i)の区間SにあるデータD(i,j)と2乗余弦関数との積と、の和として求められる。
ここで、データD(i+2,j)に掛けられる2乗余弦関数(1+cosψj )/2は、図12(b)に示した区間dを範囲Lbに対応させ、角度θをその区間d内でn等分した内の左側からj番目の角度φj で求められる値である。
また、データD(i,j)に掛けられる2乗余弦関数(1+cosψj )/2は、図13(b)に示した区間bを範囲Lbに対応させ、角度θをその区間c内でn等分した内の左側からj番目の角度φj で求められる値である。
第1の処理として、データ処理部52は、記憶部51に記憶されている原音ファイルを読み込む(STEP2−1)。この際、データ処理部52は、音響再生装置50の制御情報入力部54としての表示入力部に、記憶部51に記憶されている原音ファイルのインデックス等を表示し、再生に係る原音ファイルの入力を受けて、入力指定された原音ファイルを読み込むようにする。これにより、指定された原音ファイルのデータが、データ処理部52に設けられたバッファ部52aに読み込まれる。このバッファ部52aは、図6や図9に示したように、各データを記憶する場所に領域番号が格納され、この領域番号下に各データが格納されるようにしてもよい。なお、予め記憶部51がこのように構成されている場合には、バッファ部52aを設けず、記憶部51のデータを展開する処理は省いてもよい。
第2の処理において、読み込んだ原音ファイルの音響データを後に複数のフレームに分割するので、その分割の程度をユーザが指定するように促し、制御情報入力部54にフレーム長の入力を受ける(STEP2−2)。このとき、フレーム長は予め再生速度が定められている場合には1フレームの再生速度により入力されてもよいし、また、ビット数で指定を受けるようにしてもよい。
第3の処理として、原音ファイルの全音響データを第1の音響データと第2の音響データとに割り振る割合など、処理フレームに関する制御情報の入力を受ける(STEP2−3)。この制御情報の中には、通常の再生速度、即ち、原音ファイルの音響データの再生速度に対して何倍の再生速度にするかの情報も含まれる。この場合には、再生される音響データの全フレーム数から、第1の音響データと第2の音響データとに割り振るフレームの数が求められる。例えば、2倍速で再生する場合には、第1の音響データと第2の音響データとに割り振るフレームの割合は1:1となる。また、ある特定のフレーム部分だけのデータを第1又は第2の音響データに割り振る場合には、乱数を発生させて決定してもよい。
第4の処理として、音響データがフレーム毎に分割されるが、このとき、分割された第1及び第2の音響データを構成するフレームの間での波形整形処理を行うか否か、行う場合には、フレームの両端部での波形整形の範囲の入力を受ける(STEP2−4)。このとき、フレーム長に対する割合で入力指定を受けることもできる。以上のSTEP2−2乃至2−4は予め設定されていてもよい。
第5の処理として、第1の処理で読み込んだ原音ファイルのヘッダに格納されたヘッダ情報などを確認する(STEP2−5)。ヘッダ情報として、WAVEやMP3などのフォーマットの種類、サンプリング周波数、ステレオかモノラルかの出力チャンネル数、リニアPCMなどの記録方式、波形データのバイト数、サンプリング数や量子化などを確認する。
以上により、音響データのデータ処理に係る情報の確認が終了する。
先ず、データ処理に係るデータを読み取る(STEP2−6)。このとき、データ処理に係るデータが、何番目のフレームに相当するかを判断する。フレームに含まれるデータ数は上記STEP2−2で求められるので、データの番号に変数を当てることで容易に計算することができる。そして、フレームの番号が分かるので、第1出力部53aに出力するか、第2出力部53bに出力するかを変数(0、1)を当てて決定することができる。ここで、フレーム単位で順次均等に割り振る場合、即ち、二倍速で再生する場合には、次のフレームに移行した場合に変数を他方の値に変えることで容易に行うことができる。これにより、振り分け判定部52bは、データ処理に係るデータを第1出力部53aに出力するか、第2出力部53bに出力するかの振り分け処理が終了する。
データ処理に係るデータが区間Sに位置する場合には、図12を用いて説明したように、データ処理に係るデータがフレームF(i)のデータD(i,j)とすると、このフレームF(i)に結合されるフレームF(i+2)の区間TにあるデータD(i+2,j)が必要となるので、このデータをバッファ部52aから取得する(STEP2−8)。そして、前述の計算手法に従って、フレームF’(i)のデータD(i,j)が求められる(STEP2−9)。次いで、既に判断された出力先、即ち、第1メモリ部52c、第2メモリ部52dの何れかに出力する(STEP2−10)。
データ処理に係るデータが区間Uに位置する場合には、このデータは波形整形するデータではないので、読み込んだデータをそのまま、既に判断された出力先、即ち、第1メモリ部52c、第2メモリ部52dの何れかに出力する(STEP2−10)。
データ処理に係るデータが区間Tに位置する場合には、図12を用いて説明したように、データ処理に係るデータがフレームF(i+2)のデータD(i,j)とすると、このフレームF(i+2)に結合されるフレームF(i)の区間SにあるデータD(i,j)が必要となるので、このデータをバッファ部52aから取得する(STEP2−12)。そして、前述の計算手法に従って、フレームF’(i+2)のデータD(i+2,j)が求められる(STEP2−13)。次いで、既に判断された出力先、即ち、第1メモリ部52c、第2メモリ部52dの何れかに出力する(STEP2−10)。
上記STEP2−10の後、再生に係る音響データの全てを終了したか否かを判断(STEP2−11)することで、再生に係る音響データにつき、この一連の処理(STEP2−6〜STEP2−13)を行う。
このように第1及び第2の音響データの波形整形を行うことで、人に対して聴き易くすることができる。波形整形処理を行わない場合には、処理に係るデータを読み込んで、振り分け処理により決められた出力側の第1メモリ部52c又は第2メモリ部52dの何れかに出力する、という一連の処理を再生に係る音響データの最終データまで繰り返すことで実現できる。
また、一フレーム単位でデータを、第1出力部53a,第2出力部53bに出力する場合、第1出力部53aへの出力後、一定期間経過後、例えば、一フレーム再生時間の半分だけ遅延して第2出力部53bへ該当するデータを出力することもできる。このようにして、ユーザは左右の耳に流入する音圧を左右の順に聴くことにより、音響再生装置から出力される内容を理解し易くなる。
図14は音響再生装置60の構成を示す図である。音響再生装置60は、図11と同様に、記憶部61と、データ処理部62と、第1出力部63a及び第2出力部63bを含む出力部63と、制御情報入力部64と、を含んで構成されている。データ処理部62は、図に示すように、記憶部61から原音ファイルを抽出して一時的に記憶するバッファ部62aと、バッファ部62aに格納された各データから、音節又は文節の区切り目を判断する解析部62bと、この解析結果を記憶するテーブル62cと、このテーブル62cを参照しながらバッファ部62aに格納された各データを区切り目を基準に分割しながら抽出し、第1音響データ及び第2音響データの各要素の何れに振り分けるかを判定する振り分け判定部62dと、この振り分け判定部62dからバッファ部62aに格納されている各データを第1出力部側に出力するために一時的に格納する第1メモリ部62eと、バッファ部62aに格納されている各データを第2出力部側に出力するために一時的に格納する第2メモリ部62fと、第1メモリ部62e及び第2メモリ部62fに格納された各データについて音節又は文節単位毎に出力制御し、出力のタイミングを調整する出力制御部62gとを備える。
先ず、音響再生装置50と同様に、第1の処理として、データ処理部62は、記憶部61に記憶されている原音ファイルを読み込み、バッファ部62aに展開される。このとき、図6や図9に示したように、各データを記憶する場所に領域番号が付され、この領域番号下に各データを格納するように、バッファ部62aが構成されている。
第2の処理として、音節単位又は文節単位で、どのように第1音響データ又は第2音響データの要素として割り振るかについての制御情報の入力を、制御情報入力部64から受ける。例えば、一音節毎に、第1、第2の各音響データの要素として振り分けるとか、任意に設定することができる。これらの制御情報は、振り分け判定部62d及び出力制御部62gに出力される。
第3の処理として、振り分けられた第1、第2の各音響データの要素の間で、波形整形を行うか否かの入力を受ける。行う場合には、波形整形の範囲の入力も併せて受ける。
第4の処理として、第1の処理で読み込んだ原音ファイルのヘッダに格納されたヘッダ情報などを確認する
以上により、音響データのデータ処理に係る情報の確認が終了する。
これと同時に、振り分け判定部62dは、テーブル62cを参照しながら、第1音響データ又は第2音響データの何れかに振り分ける。即ち、振り分け判定部62dが、テーブル62cから、例えば各音節単位を表す領域番号の範囲を確認し、音節単位又は文節単位のデータを取得する。
次に、波形整形を行う場合には、前述した所定の間隔でサンプリングした場合で説明したように、各音節単位毎のデータのうち、波形整形を施す領域のデータか否かを判断し、該当データについては波形整形を行って、第1出力部62e及び第2出力部62fにそれぞれ出力する。
この一連の処理により、第1メモリ62e及び第2メモリ部62fには、第1及び第2音響データが、音節又は文節単位で振り分けられて各データとして格納されるので、出力制御部62gによりタイミングをとって、第1出力部63a、第2出力部63bに出力する。
図15は、音響再生方法の変形例を説明するための説明図である。図15のように、音響データIが、「あ」「い」「う」「え」の各音の順に構成されているとする。先ず、この音響データIを音節単位で分割して、第1音響データの要素として、「あ」、「う」を振り分け、第2音響データの要素として、「い」「え」を振り分ける。次に、例えば、第1音響データとして振り分けられた「あ」と第2音響データとして振り分けられた「い」を併せてミキシングを行って、一区間に「あ」と「い」とが混ざったデータ「アイ」を作成し、この作成したデータ「アイ」に「あ」を混ぜて第1音節の最初の要素とする。
図16(a)に示す波形f(t)を図16(c)に示すサンプリング関数s1(t)でサンプリングすると、図16(e)に示すパルス関数g1(t)となる。即ち、音響信号f(t)をサンプリング関数s1(t)で任意時間2T毎にサンプリングする。
図16(f)に示すように、パルス関数s1(t)でサンプリングしたデータ列を、図1の場合と同様に、時間軸上で圧縮して、データ列関数i(t)を作成する。
次に、図16(g)に示すように、パルス関数g1(t)とデータ列関数i(t)とをパルス幅T毎に加算し、加算した値に所定の数を掛けることにより、データが出力される時の音圧を適宜調整する。即ち、図16(d)に示す時間TでのデータD1と図16(f)に示す時間TでのデータD1とを加えてD’1とし、所定の定数を掛けて出力された時の音圧を調整して、第1音響データの第1番目のデータとする。同様にして、例えば、第2番目のデータは、図16(d)に示す時間2TでのデータD2と図16(f)に示す時間2TでのデータD3とを加えてD’2とし、所定の定数を掛けて出力された時の音圧を調整して、第1音響データの第2番目のデータとする。また例えば、第5番目のデータは、図16(d)に示す時間5TでのデータD5と図16(f)に示す時間5TでのデータD21とを加えてD’5とし、所定の定数を掛けて出力された時の音圧を調整して、第1音響データの第5番目のデータとする。
同様にして、第2音響データについても同じように生成することができる。
第1音響データの要素として振り分けられたデータ群と、第2音響データの要素として振り分けられたデータ群とを併せて、第1音響データの第1番目の要素とする。例えば、第1音響データの要素である「あ」を構成するデータ群と、第2音節データの要素である「い」を構成するデータ群とで、各データを一つおきに抽出することで「アイ」を構成する。そして、この構成した「アイ」のデータ群と第1音響データの要素「あ」のデータ群とを順次足し合わせて、第1音節の最初の要素とする。同様に、一音節に「あ」と「い」とが混ざったデータ「アイ」に「い」を混ぜて第二音節の最初の要素とする。第1及び第2の音響データの第2番目の要素としても、一音節に「う」と「え」とが混ざったデータ「ウエ」を作成し、この作成したデータ「ウエ」に、それぞれ「う」、「え」を混ぜ、それぞれ第1音響データの第2番目、第2音響データの第2番目とする。このようにして作成した第1音響データI1及び第2音響データI2をそれぞれ第1、第2出力部に出力することで、第1出力部から出力される音響にも、第2出力部から出力される音響にも、同じ音が混ざって出力されるので、ユーザが左右の耳から全く異なる音を聞くのと比べて、理解し易くなる。
11 デジタルシグナルプロセッサ
12,45 制御部
13 音響信号処理部
14 デッキ
15,18a,18b,46d アンプ
16 A/D変換機
17a,17b,46c D/A変換機
19a,19b,46e スピーカ
20a,46a,53a,63a 第1出力部
20b,46b,53b, 63b 第2出力部
41 原音再生部
42,51,61 記憶部
43,62b 解析部
44 音響信号処理部
44a,52c,62e 第1メモリ部
44b,52d,62f 第2メモリ部
44c,52b,62d 振り分け判定部
44d,52e,62g 出力制御部
45a,62c テーブル
46,53,63 出力部
47,52,62 データ処理部
52a,62a バッファ部
54,64 制御情報入力部
Claims (5)
- データ処理部と、第1出力部及び第2出力部からなる出力部と、を備え、
上記データ処理部は、
音響データを一時的に格納するバッファ部と、
上記バッファ部に格納されている音響データの区切り目を判断する解析部と、
上記解析部により判断された区切り目を基準に、上記バッファ部に格納したデータを第1音響データと第2音響データの何れに振り分けるかを判定する振り分け判定部と、
上記振り分け判定部により振り分けられた第1音響データの各データを、振り分けられた順に一時的に記憶する第1メモリ部と、
上記振り分け判定部により振り分けられた第2音響データの各データを、振り分けられた順に一時的に記憶する第2メモリ部と、
上記第1メモリ部及び上記第2メモリ部に格納された各データの出力タイミングを調整する出力制御部と、
を備えた、音響再生装置。 - 前記振り分け判定部は、前記第1メモリ部及び前記第2メモリ部に出力したデータ量をそれぞれ記憶し、このデータ量に基づいて第1音響データ、第2音響データの何れかに振り分けることを特徴とする、請求項1に記載の音響再生装置。
- 前記解析部は、前記バッファ部に格納されている各データの音圧レベルに基づいて区切り目を判断することを特徴とする、請求項1に記載の音響再生装置。
- 前記バッファ部には、原音再生部から流入する音響信号が音響データとして入力されることを特徴とする、請求項1に記載の音響再生装置。
- 前記バッファ部には、デジタル記憶媒体に記憶された音響データが入力されることを特徴とする、請求項1に記載の音響再生装置。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004293095 | 2004-09-07 | ||
JP2004293095 | 2004-09-07 | ||
JP2005195946 | 2005-07-05 | ||
JP2005195946 | 2005-07-05 | ||
PCT/JP2005/016420 WO2006028133A1 (ja) | 2004-09-07 | 2005-09-07 | 音響再生方法及び装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2006028133A1 JPWO2006028133A1 (ja) | 2008-05-08 |
JP4130927B2 true JP4130927B2 (ja) | 2008-08-13 |
Family
ID=36036414
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006535789A Expired - Fee Related JP4130927B2 (ja) | 2004-09-07 | 2005-09-07 | 音響再生装置 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP4130927B2 (ja) |
WO (1) | WO2006028133A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4963215B2 (ja) * | 2006-11-06 | 2012-06-27 | 株式会社小野測器 | 信号解析装置、演算プログラム及び演算処理方法 |
JP2010266834A (ja) * | 2009-05-14 | 2010-11-25 | Akinori Tezuka | 外国語ヒアリング音声教材 |
WO2019003418A1 (ja) * | 2017-06-30 | 2019-01-03 | ソフトバンク株式会社 | 音情報処理装置、音情報処理方法、およびプログラム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3630609B2 (ja) * | 2000-03-29 | 2005-03-16 | パイオニア株式会社 | 音声情報再生方法ならびに装置 |
-
2005
- 2005-09-07 JP JP2006535789A patent/JP4130927B2/ja not_active Expired - Fee Related
- 2005-09-07 WO PCT/JP2005/016420 patent/WO2006028133A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2006028133A1 (ja) | 2006-03-16 |
JPWO2006028133A1 (ja) | 2008-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4245060B2 (ja) | サウンドマスキングシステム、マスキングサウンド生成方法およびプログラム | |
CN106486128B (zh) | 一种双音源音频数据的处理方法及装置 | |
CA2253749C (en) | Method and device for instantly changing the speed of speech | |
JP5103974B2 (ja) | マスキングサウンド生成装置、マスキングサウンド生成方法およびプログラム | |
JP5282832B2 (ja) | 音声スクランブルのための方法および装置 | |
JP4924309B2 (ja) | 音声スクランブル信号作成方法と装置及び音声スクランブル方法と装置 | |
JP4130927B2 (ja) | 音響再生装置 | |
JPH10260694A (ja) | 話速変換装置、話速変換方法及び記録媒体 | |
KR20190076934A (ko) | 동적 포맷 변환을 지원하는 오디오 메타데이터 제공 장치 및 오디오 데이터 재생 장치, 상기 장치가 수행하는 방법 그리고 상기 동적 포맷 변환들이 기록된 컴퓨터에서 판독 가능한 기록매체 | |
JP2009075280A (ja) | コンテンツ再生装置 | |
JP3617603B2 (ja) | 音声情報の符号化方法及びその生成方法 | |
JPH09146580A (ja) | 効果音検索装置 | |
JP2008145841A (ja) | 再生装置、再生方法、信号処理装置、信号処理方法 | |
JP2002297200A (ja) | 話速変換装置 | |
JP3072449B2 (ja) | メディア処理装置 | |
JP2008275836A (ja) | 読み上げ用ドキュメント処理方法及び装置 | |
TW442740B (en) | Method for changing articulation speed | |
JP4648183B2 (ja) | 連続メディアデータ短縮再生方法、複合メディアデータ短縮再生方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体 | |
Blech et al. | DVD-Audio versus SACD: perceptual discrimination of digital audio coding formats | |
JP5863472B2 (ja) | 話速変換装置およびそのプログラム | |
JP2001312291A (ja) | 数字音声波形の作成方法、数字音声の合成方法および装置 | |
JP5104202B2 (ja) | 音響信号に対する情報のリアルタイム埋め込み装置 | |
KR100372576B1 (ko) | 오디오신호 가공방법 | |
JP5560218B2 (ja) | 音生成装置、音生成方法、及び音生成プログラム | |
JP2000132179A (ja) | 録音音声データベース話速均一化方法及び装置及び話速均一化プログラムを格納した記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080302 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20080302 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080428 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110606 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120606 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |