JP4130927B2 - 音響再生装置 - Google Patents

音響再生装置 Download PDF

Info

Publication number
JP4130927B2
JP4130927B2 JP2006535789A JP2006535789A JP4130927B2 JP 4130927 B2 JP4130927 B2 JP 4130927B2 JP 2006535789 A JP2006535789 A JP 2006535789A JP 2006535789 A JP2006535789 A JP 2006535789A JP 4130927 B2 JP4130927 B2 JP 4130927B2
Authority
JP
Japan
Prior art keywords
data
unit
output
acoustic
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006535789A
Other languages
English (en)
Other versions
JPWO2006028133A1 (ja
Inventor
勝洋 飯田
Original Assignee
飯田 沢生
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 飯田 沢生 filed Critical 飯田 沢生
Publication of JPWO2006028133A1 publication Critical patent/JPWO2006028133A1/ja
Application granted granted Critical
Publication of JP4130927B2 publication Critical patent/JP4130927B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/04Time compression or expansion

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Stereophonic System (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Description

本発明は、有益な音響データを省くことなく短時間で再生する、音響再生装置に関する。
従来から、語学学習などの暗記のために、通常速度で録音しておいた語学情報等を通常より速い速度で再生する方法が行われている。その際、単に再生速度を速くすると、原音が高音化してしまい、聞き取ることが困難となる。
このような問題点を解決する方法として、特許文献1には、デジタルシグナルプロセッサ(DSP)を用いて音声信号のうち所定の音声信号をカットして聴き取り易くすることが開示されている。
実開平7−36200号公報 特開2001−282297号公報
しかしながら、特許文献1に開示した方法は、所謂「間引き補正」という手法であり、所定の音声信号を間引いて再生するものである。よって、間引かれて再生されなかった音声信号は、不要なものとして捨てられてしまう。
このような状況の下において、音声信号のうち間引いた信号を有効に利用することを本発明者は模索していた。
そこで、本発明は、このような事情を鑑み、有益な音響データを省くことなく、即ち捨て去ることなく短時間に再生して早聞きすることができる、音響再生方法及び装置を提供することを目的とする。
上記目的を達成するために、本発明は、データ処理部と、第1出力部及び第2出力部からなる出力部と、を備え、データ処理部は、音響データを一時的に格納するバッファ部と、バッファ部に格納されている音響データの区切り目を判断する解析部と、解析部により判断された区切り目を基準に、バッファ部に格納したデータを第1音響データと第2音響データの何れに振り分けるかを判定する振り分け判定部と、振り分け判定部により振り分けられた第1音響データの各データを、振り分けられた順に一時的に記憶する第1メモリ部と、振り分け判定部により振り分けられた第2音響データの各データを、振り分けられた順に一時的に記憶する第2メモリ部と、第1メモリ部及び第2メモリ部に格納された各データの出力タイミングを調整する出力制御部を備えたことを特徴とする。
振り分け判定部は、第1メモリ部及び第2メモリ部に出力したデータ量をそれぞれ記憶し、このデータ量に基づいて第1音響データ、第2音響データの何れかに振り分ける。
解析部は、バッファ部に格納されている各データの音圧レベルに基づいて区切り目を判断する。
前記バッファ部には、原音再生部から流入する音響信号が音響データとして入力されるか、或いは、デジタル記憶媒体に記憶された音響データが入力されるようになっている。
本発明によれば、再生される音響の各データを間引いて間引いた音響データを捨て去ることなく、第1及び第2の出力側に振り分けて出力するので、振り分け処理を行わずに再生した場合と比べて再生速度を速くすることができる。また、第1出力部と第2出力部とから別々の音が出力される場合であっても、ユーザは左右の耳から入る情報が何を意味しているのかを十分理解するように努めるので、本発明による音響再生方法及び装置を利用することでユーザの脳の活性化及び認知症の予防にも資する。
本発明は以下の詳細な説明及び本発明の幾つかの実施の形態を示す添付図面によってよりよく理解され得る。添付図面に示す実施形態例は、本発明を特定又は限定するものではなく、本発明の趣旨の説明及び理解を容易にするためだけのものである。
(1)音響再生方法の基本的な原理
本発明に係る音響再生方法は、原音となる一つの音響信号を分割して二つの音響信号に振り分け、この振り分けられた音響信号をそれぞれ対応した出力部から出力することで、分割及び振り分け処理を行わずに元の音響信号を再生したときと比べて、再生速度を速くする方法である。これにより、単に音響信号を間引きして再生することで再生速度を速めた場合と比べて、音響信号を忠実に再生することができる。
(2)音響再生方法とそれを実現する音響再生装置の構成例、その1
図1は、音響再生方法の具体的な原理を説明するための説明図である。音響信号が、図1(a)に示すf(t)の波形で表されると仮定して、本発明の音響再生方法を説明する。図1(a)に示すグラフの横軸tは時間である。
この音響信号f(t)を図1(b)に示すサンプリング関数s1(t)でサンプリングすると、図1(d)に示すパルス関数g1(t)になる。即ち、音響信号f(t)をサンプリング関数で任意時間2T毎にサンプリングする。なお、説明を簡明にするためにパルス幅をTとしている。また、同様に、音響信号f(t)を図1(c)に示すサンプリング関数s2(t)でサンプリングすると、図1(e)で示すパルス関数g2(t)になる。
このように、音響信号f(t)をサンプリング関数s1(t)及びs2(t)でサンプリングを行い、パルス関数g1(t)及びg2(t)を得る。即ち、音響信号f(t)を時間2T毎にサンプリングし、音響信号f(t)を二つの信号に振り分ける。換言すれば、音響信号f(t)を時間i×Tでサンプリングすることで、音響の各データDiを抽出し、第1の音響データ及び第2の音響データの各要素として振り分ける。ここで、iは自然数である。
次に、得られたパルス関数g1(t)について、サンプリングしていない時間(2n)×T<t<(2n+1)×T(但しnは自然数))の時間分を圧縮して図1(f)に示すような第1の音響信号f1(t)を生成する。パルス関数g2(t)についても同様に行い、(2n+1)×T<t<(2n+2)×T(但しnは自然数))の時間分を圧縮して図1(g)に示す第2の音響信号f2(t)を生成する。換言すれば、前述のように、第1の音響データに振り分けられたデータDi(ここではiは奇数)と第2の音響データに振り分けられた各データDi(ここではiは偶数)との、それぞれの各データを配列し、第1及び第2の音響データとして構成する。
以上のように、音響信号f(t)を各サンプリング関数s1(t)及びs2(t)でサンプリングして、信号g1(t)と信号g2(t)とに分割する。この分割された各信号g1(t)及びg2(t)を時間軸上で圧縮し(図に示す短冊をそれぞれ繋ぎ合わせて)、第1の音響信号f1(t)と第2の音響信号f2(t)を生成する。これにより、音響信号を漏れなく二つに分割することができ、かつ、再生時間を短くすることができる。
図2は、音響再生装置の第1構成例を示すブロック図である。音響再生装置10は、制御手段としての音響信号処理部13と第1出力部20a及び第2出力部20bとを含んで構成されている。音響信号処理部13は、入力される音響信号を処理するデジタルシグナルプロセッサ(DSP)11と、このデジタルシグナルプロセッサ11を制御するための制御部(CPU)12と、を含んでいる。第1出力部20aは、デジタル信号をアナログ変換するためのD/A変換機17aと、D/A変換機17aからのアナログ信号を必要に応じて増幅するためのアンプ18aと、アンプ18aからの出力を音圧として出力するスピーカ19aとを含む。同様に、第2出力部20bは、D/A変換機17b、アンプ18b及びスピーカ19bとを含んでいる。音響再生装置10の入力側には、再生用のデッキ14と、デッキ14から出力されたアナログ信号を必要に応じて増幅するためのアンプ15と、このアンプ15から出力されたアナログ信号をデジタル信号変換するA/D変換機16とが、接続されている。
次に、音響信号処理部13による音響信号の処理について説明する。
音響再生用のデッキ14で、アナログ記憶されている音響データが再生され、音響信号が生成され、A/D変換機16によりデジタル信号に変換されて、音響信号処理部13に順次入力される。
音響信号処理部13に入力された音響信号は、所定の時間間隔でサンプリングを行い、入力された音響信号の一部を第1出力部20aに出力し、残りを第2出力部20bに出力する。この際、第1出力部20aに出力するサンプリングデータと、第2出力部20bに出力するサンプリングデータとを、タイミングを図って、好ましくは同時に出力するようにする。また、両サンプリングデータが合体されれば、元の音響信号の各データが再現できるように、即ち、A/D変換機でデジタルに変換したデータが復元できるようにする。
このように、音響信号処理部13により音響信号を分割して、第1出力部側に出力される信号と第2出力部側に出力される信号とに分けて、それぞれ、タイミングを図って、信号を構成する値(所謂各データ)を例えば同時に出力することにより、第1及び第2出力部20a,20bはそれぞれ入力された信号を音圧として出力する。ここで、音響信号の分割する間隔は、必ずしも、A/D変換機16に設定されているサンプリング周波数によらず、音響信号の一分割当りの幅や入力される音響信号の速度から、任意に設定することができる。
ユーザは、第1出力部20aのスピーカ19aからの音圧を左の耳で、第2出力部20bのスピーカ19bからの音圧を右の耳でそれぞれ聴き取り、ユーザは意識的に耳から入力される内容を聴き取って理解しようと努めるので、ユーザの脳の活性化及び認知症の予防にも資する。
次に、変形例を説明する。
図2に示す音響再生装置10の音響信号処理部13での音響信号処理を、音響信号の入力が開始されたときから所定の時間経過した後、一定期間だけ行うようにすることもできる。図3は、図2に示す音響再生装置10の音響処理部13に入力される音響信号Fと、第1出力部20aに出力される第1音響信号F1と、第2出力部20bに出力される第2音響信号F2とを模式的に示すものである。図3(a)は、音響処理部13に音響信号Fが入力されたと同時に音響信号処理を開始した場合、(b)は、音響処理部13に音響信号Fが入力されて所定の期間経過した後に、一定期間だけ音響信号処理を行った場合を示す。図において、DAT(i)は、音響信号を再生した時の所定時間当りの第i番目の音響データを示している。このDAT(i)は、図1を用いて説明したデータDiに相当するものである。i=1〜10である。
図3(a)に示すように、音響処理部13に音響信号Fが入力されると同時に音響信号処理を開始した場合には、音響信号Fの各要素である各データDAT(i)が一つおきに、第1音響信号F1、第2音響信号F2の各要素として割り当てられる。その結果、DAT(1),DAT(3),DAT(5),DAT(7)及びDAT(9)からなる第1音響信号F1が、第1出力部20aに出力される。また、DAT(2),DAT(4),DAT(6),DAT(8)及びDAT(10)からなる第2音響信号F2が、第2出力部20bに出力される。
一方、図3(b)に示すように、音響処理部13に音響信号Fが入力されて所定時間経過した後に一定時間だけ音響信号処理を行う場合には、その所定時間だけの音響データDAT(2), DAT(3)が、それぞれ、第1音響信号F1, 第2音響信号F2の各要素として振り分けら、その結果、DAT(1),DAT(2),DAT(4)〜DAT(10)からなる第1音響信号F1が第1出力部20aに出力される。DAT(1),DAT(3),DAT(4)〜DAT(11)からなる第2音響信号F2は第2出力部20bに出力される。
図から分かるように、何れの場合も、第1音響信号F1及び第2音響信号F2の長さが、音響信号Fの長さよりも短いことが分かる。よって、音響信号Fに音響信号処理を施さないで単に再生したときよりも、短い時間で再生することができる。図3(a)では、第1音響信号F1及び第2音響信号F2の長さが、音響信号Fの長さの半分となるので、再生速度は2倍になる。また、図3(b)では、第1音響信号F1及び第2音響信号F2の長さが、音響信号Fの長さの1/10だけ短くなるので、再生速度はその分1/10だけ増加する。
以上説明した音響再生方法では、音響信号を所定の間隔で分割して、第1及び第2音響信号の各要素に振り分けて出力再生することを説明したが、再生に係る音響信号を予め定められた時間単位で分割する他に、音響それ自体の性質、例えば、音節区切り目や文節区切り目を基準に音響信号を分割して、第1, 第2の音響信号の各要素に振り分けることもできる。
(3)具体的な音響再生方法とそれを実現する音響再生装置の構成例、その2
図4は、図1とは異なる音響再生方法を説明するための説明図である。図4(a)に示すように、再生に係る音響を模式的に示した波形h(t)とする。音圧が所定以下である区間t1及びt2では無音区間であり、この区間が所定長以上の場合には音節区切り目又は文節区切り目と判断する。
例えばこの無音区間の終了時間毎にこの波形h(t)を分割し、区間Aに示される波形h(ta≦t≦tb)と、区間Bに示される波形h(tb≦t≦tc)と、区間Cに示される波形h(tc≦t≦td)とに区切り、この区切られた波形を順番に第1の音響信号の波形、第2の音響信号の波形として振り分ける。
第1の音響信号の波形h1(t)は、図4(b)に示すように、図4(a)に示された、区間Aに示される波形h(ta≦t≦tb)に、区間Cに示される波形h(tc≦t≦td)を連結されて形成される。第2の音響信号の波形h2(t)は、図4(b)に示すように、図4(a)に示された、区間Bで示される波形h(tb≦t≦tc)により形成される。
このようにすれば、一つの音響信号を、音節区切り目又は文節区切り目を基準に二つに分割して、第1音響信号及び第2音響信号の各要素として振り分けて、第1音響信号、第2音響信号が生成されるので、1〜2倍速で再生することができる。また、このとき、例えば区間Aに示されている波形h(ta≦t≦tb)のうち、無音区間t1を削除した後に、第1音響信号の各要素とし、区間Bに示されている波形h(tb≦t≦tc)のうち、無音区間t2を削除した後に、第2音響信号の各要素とすることで、音響信号を2倍速以上でも再生することができる。
図5は音響再生装置の第2構成例を示すブロック図である。音響再生装置40は、音響再生用のCDプレイヤーやカセットデッキに相当する原音再生部41と、原音再生部41からの流入する音響信号を音響データとして記憶する記憶部42と、この記憶部42に記憶されている音響データの音節や文節の区切り目を解析する解析部43と、解析部43により解析された区切り目を基準に、音響データを音節単位又は文節単位に分割して、第1音響信号として出力するか第2音響信号として出力するかを振り分ける音響信号処理部44と、記憶部42、解析部43及び音響信号処理部44を制御する制御部45と、音響信号処理部44から第1音響信号、第2音響信号の何れかに振り分けられて出力された第1音響データ、第2音響データを逐次出力する出力部46と、を含んで構成されている。
図2の場合と同様、第1出力部46aと第2出力部46bとを備え、各第1及び第2の出力部46a,46bは、各音響データのデジタル信号をアナログ信号に変換するD/A変換機46cと、変換されたアナログ信号を必要に応じて増幅するアンプ46dと、アンプ46dで増幅されたアナログ信号を出力するスピーカ46eとを備える。
図6は、図5の音響再生装置40の記憶部42、解析部43、音響信号処理部44、制御部45で実現される機能を説明するための説明図である。これらにより、音響信号又は音響データのデータ処理が行われ、制御手段としてのデータ処理部47が構成される。図6に示すように、記憶部42は、原音再生部41から出力された音響信号を順に各データとして順に記憶する。そのため、記憶部42は、記憶する各データの位置を特定するためのメモリ番号が付された領域(以下、「領域番号」という。)に、所定のデータ量単位で記憶できる構成となっている。解析部43は、記憶部42から隣接した複数の領域番号にあるデータ群を抽出し、抽出したデータが所定の音圧レベル以下であるか否かを判断し、所定の音圧レベル以下の場合にはこの抽出したデータ群が無音であると判定する。そして、制御部45内に設けられているテーブル45aに、無音領域の開始領域及び終了領域を記憶部42の領域番号で格納することができるようになっている。
音響信号処理部44は、制御部45内に設けられているテーブル45aを参照しながら、記憶部42に記憶されている一群の音響データを、音節単位又は文節単位に区分けし、第1出力部側か第2出力部側かの何れかに振り分けて出力する。そのため、音響信号処理部44は、第1出力部側に振り分けられた各データを一時的に蓄積する第1メモリ部44aと、第2出力部側に振り分けられた各データを一時的に蓄積する第2メモリ部44bと、を備えている。
音響信号処理部44は、さらに、区分けしたデータ群を何れに第1及び第2メモリ部44a,44bに振り分けるかを判定する振り分け判定部44cを備えている。例えば、解析部43が、記憶部42に記憶されているデータのうち、領域番号が No.4〜No. 7(データの欄が斜線の部分)に格納されているデータが無音状態であると判定すると、制御部45に格納されているテーブル45aに無音領域開始番号( No.4)と、無音領域終了番号( No.7)とが格納される。
次に、図5及び図6に示す音響再生装置40による音響再生方法について説明する。図7は、図5及び図6に示す音響再生装置40による音響再生方法を示すフロー図である。
先ず、原音再生部41で音響データが記憶されているMDやカセットテープを再生して記憶部42に取り込み記憶する(STEP1−1)。図5では図示を省略しているが、図2に示す音響再生装置10のように、必要に応じてアンプで増幅されて、A/D変換がなされる。
解析部43は制御部45の制御の下、記憶部42に記憶されている音響データ中の音節区切り目又は文節区切り目を判断する(STEP1−2)。ここで、音節とは、語の構成要素としての音の単位で、一つのまとまった音の感じを与えるものであるのに対し、文節とは文を読む際、自然な発音によって区切られる最小単位をいう。この音節区切り目や文節区切り目の判断は、例えば、音響データを再生した際、無音であるか否かで判断することで容易に行うことができる。
音響データを、上記STEP1−2で判断した音節区切り目又は文節区切り目を基準に、音響データの最初から順に音節単位又は文節単位で音響データをカットして分割する(STEP1−3)。これは、実質的には、制御部45に格納されているテーブル45に、無音開始領域と無音終了領域との欄に該当する領域番号が格納されることで実現される。
分割した音節単位又は文節単位のデータを、第1音響データ又は第2音響データの何れかに振り分ける(STEP1−4)。これは、振り分け判定部44cが、制御部45のテーブル45aから、例えば第1音節単位が領域番号 No.1〜 No.7、第2音節単位が領域番号 No.8〜 No.20と、順に確認していき、音節単位又は文節単位のデータを、順次、第1音響データ出力用の第1メモリ部44a又は第2音響データ出力用のメモリ部44bに蓄積することで実現される。
そして、第1及び第2メモリ部44a, 44bにそれぞれ蓄積されているデータを、対応する第1又は第2出力部46a,46bに出力する(STEP1−5)。
この一連の処理により、第1出力部46a及び第2出力部46bには、原音再生部41から再生出力された音響信号が、音節又は文節単位で振り分けられて各データとして蓄積されているので、順に、各スピーカ46eから出力される。
ここで、振り分け判定部44aにより、音節単位又は文節単位でどのように振り分けられるかを、音節単位を例にとって説明する。
図8は、図6の振り分け判定部44aにより音節単位でどのように振り分けられるかについて説明するための説明図である。図8(a)は、図5の記憶部42に記憶される音響データの構成を、音節単位で示すものであり、音響データは、第1音節S(1)から第9音節S(9)で構成されているとする。なお、各音節の長さを左右矢印付きの線の長さで表している。
振り分け判定部44cは、第1メモリ部44a及び第2メモリ部44bにそれぞれ出力したデータ量を第1メモリ部44a及び第2メモリ部44b毎に記憶するようにする。
先ず、振り分け判定部44aが、第1音節S(1)を第1メモリ部44aに振り分け、第2音節S(2)を第2メモリ部44bに振り分ける。
次に、第3音節S(3)を何れに振り分けるかを判断する際に、第1メモリ部44aに今まで出力したデータ量と、第2メモリ部44bに今まで出力したデータ量とを比較し、データ量が少ないほうに出力する。図8に示す例では、第1音節S(1)の方が、第2音節S(2)よりもデータ量が多いので、第1メモリ部44aに出力したデータ量が、第2メモリ部44bに出力したデータ量より多いので、第3音節S(3)は第2メモリ部44bに出力すると判定する。よって、第3音節S(3)は、第2音響データの要素として振り分けられる。以下同様にして、第9音節S(9)まで振り分け処理を行う。
これにより、第j番目の音節S(j)(j=1〜9)は、既に、第1音節S(1)から第(j−1)音節S(j−1)の各データが第1及び第2音響データの要素としてに振り分けられているので、第1音響データ及び第2音響データの先頭から全体の音節の長さが短い方を選択して、振り分けがなされる。
図8から分かるように、(a)に示された音響データの長さと、(b)に示された第1及び第2の音響データの長さを比べると、第1及び第2の音響データの長さが共に短いので、振り分け処理しないで音響データを再生したときと比べてより速く再生することができる。
以上説明したように、音響再生装置40による音響再生方法では、第1の音響データが第1出力部46aから出力され、第2の音響データが第2出力部46bから出力されるので、スピーカ46eとしてのヘッドホンの左右のスピーカを装着した者は、左右の耳から第1の音響データと第2の音響データとをそれぞれ聴くことになる。よって、その者は、左右の耳に異なった音響が入力されると、入力された音響を理解しようとするので、第1の音響データと第2の音響データとから、原音再生部41から再生された音響の意味を理解することができる。
このように、音響データを音節単位又は文節単位で第1及び第2の音響データに振り分けて構築して出力再生することにより、実質的に音響データの再生速度が速くなる。よって、ユーザは、意識的に再生に係る音響データを構築し、理解することで、脳の活性化及び認知症の予防にも効果的である。
次に、音響再生装置40による音響再生方法の変形例を説明する。
変形例は、音響データから分割した音節単位又は文節単位を第1及び第2の音響データの要素として振り分け、第1出力部及び第2出力部に出力する形式の点で異なる。以下では音節単位で分割する場合を説明するが、文節単位で分割する場合も同様である。
図9は、音響再生装置40の一部の変形例を示す構成図である。この変形例では、図6に示す音響再生装置40の第1メモリ部44a及び第2メモリ部44bの出力側に出力制御部44dを設け、この出力制御部44dにより、第1メモリ部44a及び第2メモリ部44bに一時的に蓄積されている音響データをタイミングを調整して、それぞれ第1又は第2出力部46a,46bに出力する。
図10は、図9に示す音響再生装置40の変形例による音響再生方法の変形例を説明するための説明図である。図10(a)は、分割される前の音響データの構成を示し、この構成は図8(a)に示す構成と同じである。制御部45に接続された制御情報入力部48から、出力制御情報として、音響の各データの先頭から第1の音響データと第2の音響データとに振り分ける際、割り振る順番を、次のように指定する。即ち、割り振られる第j番目の音節S(j)(j=1〜9)は、変数xとしてx=1, 2, 4, 5, 7, 8では、第x音節S(x)は第1の音響データの要素として割り振り、他の音節S(y)(但しy=3, 6、9)は第2の音響データの要素として割り振る。このように、第1の音響データの要素として割り振る音節単位は2音節にし、第2の音響データに割り振る音節単位は1音節というように、第1及び第2の音響データの要素として割り振る音節単位の比を1:1とするのではなく、異なるようにしてもよい。この振り分は、前述の振り分け判定部44aに組み込まれる。
このようにして構成された第1及び第2の音響データを順次出力部46に出力するが、その際、制御部45の下で出力制御部44dでデータ出力のタイミングを調整することで、より聴き取りやすくすることができる。例えば図10(b)に示すように、第1出力部46aに第1音節S(1)を出力し、その後、第1出力部46aに第2音節S(2)を出力するのと同時に第2出力部46bに第3音節S(3)を出力する。続いて、第1出力部46aに第4音節S(4)を出力した後、第1出力部46aに第5音節S(5)を出力するのと同時に第2出力部26bに第6音節S(6)を出力する。続いて、第1出力部46aに第7音節S(7)を出力した後、第1出力部46aに第8音節S(8)を出力するのと同時に第2出力部46bに第9音節S(9)を出力する。このように出力制御部44dにより、第1及び第2の音響データを構成する各音節単位や各文節単位の出力のタイミングを図ることもできる。
(4)具体的な音響再生方法とそれを実現する音響再生装置の構成例、その3
以上説明した構成では、何れもアナログ記憶された音響データを一旦デジタル変換して記憶させた後に、そのデジタル変換された音響データをデータ処理して第1及び第2の音響データに分けて第1及び第2出力部に振り分けて出力する場合を説明したが、デジタル記録された音響データをそのままデータ処理して行うこともできる。
図11は音響再生装置50の構成を示す図である。音響再生装置50は、音響データを記憶する記憶部51と、この記憶部51に記憶されている音響データに所定のデータ処理を行い、第1の音響データ及び第2の音響データとに振り分け出力するデータ処理部52と、このデータ処理部52から出力された第1及び第2の音響データをそれぞれ出力する第1出力部53a及び第2出力部53bを含む出力部53と、を含んで構成される。記憶部51は、音声データなどの音響データを予め蓄積したもの、例えば、CDやMDなどのデジタル記録媒体から音響データを読み取れるように、各種のドライブを含んだものである。前述のように、アナログ信号を記録した記録媒体を一旦再生し、デジタル信号に変換して記録した記録媒体で構成されてもよい。
データ処理部52は、汎用性のプロセッサで構成され、データ処理に関する情報を入力するための制御情報を入力する制御情報入力部54に接続されている。このデータ処理部52を汎用性のプロセッサだけで構成せず、デジタル信号処理を高速処理する専用のデジタルシグナルプロセッサと、このデジタルシグナルプロセッサを制御する汎用性のプロセッサ(CPU等)とで構成してもよい。
出力部53には、スピーカーなど、所定の音響データを音圧として出力するためのものであり、前述のように、第1及び第2の出力部53a,53bは、何れも、デジタル信号をアナログ信号に変換するD/A変換機と、D/A変換機から出力されたアナログ信号を必要に応じて増幅するアンプと、アンプから出力されたアナログ信号を音圧として出力するスピーカとを直列接続して構成される。
データ処理部52は、図に示すように、記憶部51から原音ファイルを抽出して一時的に記憶するバッファ部52aと、このバッファ部52aに展開された各データの先頭から順にサンプリングして、第1出力部側、第2出力部側の何れに出力するか、即ち、第1の音響データと第2の音響データの何れの要素として振り分けるかの判定処理を行う振り分け判定部52bと、この振り分け判定部52bにより振り分けられた各データを一時的に蓄積する第1メモリ部52c及び第2メモリ部52dと、第1メモリ部52c及び第2メモリ部52dに蓄積さえた各データについて、例えば1フレーム単位毎に、出力制御し、出力のタイミングを調整する出力制御部52eと、を備える。
以上のように構成された音響再生装置50の動作について、特にデータ処理部52でのデータ処理の具体的な例を挙げながら説明する。
(4−1)所定の間隔で振り分けをする場合
記憶部51に記憶されている音響データのデータ配列に従って所定の間隔毎に第1出力部53a及び第2出力部53bに振り分けを行うケースでは、第1出力部53aに出力するデータと第2出力部53bに出力するデータとを、データ処理部52が記憶部51に記憶されている音響データのデータ列の場所を選定して抽出し、抽出した各データを、それぞれ第1出力部53a,第2出力部53bに出力することで、振り分けを行うことができる。例えば、第1出力部53aに出力するデータは、所定の間隔に対応するデータ量だけ、記憶部51に記憶されている音響データのデータ配列順に抽出し、所定の間隔と同等のデータ列を飛ばして、次のデータ列を所定の間隔分に対応するデータ列だけ抽出することを繰り返し行いつつ、第2出力部53bに出力するデータについても同様に行うことで実現できる。
別の例としては、記憶部51に記憶されている音響データの先頭のデータから順に、出力先を適宜判別し、判別された出力先、即ち第1出力部53aか第2出力部53bの何れかを指定して出力することを、音響データの最終のデータまで行うことで実現できる。なお、任意のデータ量を一括してフレーム単位で行うこともできる。
図11に示すデータ処理部52bは、バッファ部52aに展開された各データについて、第1出力部側に出力するか、第2出力部側に出力するかを判断して出力するだけでなく、波形整形処理を行う。以下この点について詳細に説明する。 図12は、波形整形処理を説明するための説明図で、(a)は音響データが各フレーム毎に第1及び第2の音響データの各要素が割り当てられ、波形整形の処理の様子を模式的に示し、(b)は波形整形の際用いられる2乗余弦関数を示したグラフである。
音響データFが、第(i−2)番目のフレームF(i−2)から第(i+3)番目のフレームF(i+3)で構成されているとする。いま、フレーム単位で一つおきに、フレームを抽出して第1の音響データの元と第2の音響データの元が作成される。即ち、第1の音響データの元として、F(i−2),F(i),F(i+2)からなるデータ列と、第2の音響データの元として、F(i−1),F(i+1),F(i+3)からなるデータ列が順次結合される。
そして、第1及び第2の音響データのフレーム間の端部、即ちフレーム同士が結合した部分(図12(a)でS、Tの区間)に波形整形処理を施す。図12(a)に示すように、フレームの後端部の区間La(図のSの区間)とフレームの前端部の区間Lb(図のTの区間)について波形整形を行う。波形整形範囲から外れる区間(図のUの区間)について波形整形はなされない。波形整形には、図12(b)に示す2乗余弦関数(1+cosθ)/2を用いる。説明上、区間aを0≦θ≦π/2、区間bをπ/2≦θ≦π、区間cをπ≦θ≦3π/2c、区間dを3π/2≦θ≦2πとする。
一例として第i番目のフレームF(i)と第(i+2)番目のフレームF(i+2)の結合部分での波形整形について説明する。
第i番目のフレームF(i)の後端部(右側)の範囲La(図のSの区間)は次のようにして波形整形を行う。なお、区間S, Tにあるデータ数をnとし、1≦j≦nとする。
波形整形後の第i番目のフレームF’(i)の区間Sにある各データD’(i,j)は、波形整形前の第i番目のフレームF(i)の区間SにあるデータD(i,j)と2乗余弦関数との積と、第(i+2)番目のフレームF(i+2)の区間TにあるデータD(i+2,j)と2乗余弦関数との積と、の和として求められる。
ここで、データD(i,j)に掛けられる2乗余弦関数(1+cosψj )/2は、図12(b)に示した区間aを範囲Laに対応させ、角度θをその区間a内でn等分した内の左側からj番目の角度φj で求められる値である。
また、データD(i+2,j)に掛けられる2乗余弦関数(1+cosψj )/2は、図12(b)に示した区間cを範囲Laに対応させ、角度θをその区間a内でn等分した内の左側からj番目の角度φj で求められる値である。
同様に、第(i+2)番目のフレームF(i+2)の前端部(左側)の範囲Lb(図のTの区間)は次のようにして波形整形を行う。
波形整形後の第(i+2)番目のフレームF’(i+2)の区間TにあるデータD’(i+2,j)は、波形整形前の第(i+2)番目のフレームF(i+2)の区間Tにある各データD(i+2,j)と2乗余弦関数との積と、第(i)番目のフレームF(i)の区間SにあるデータD(i,j)と2乗余弦関数との積と、の和として求められる。
ここで、データD(i+2,j)に掛けられる2乗余弦関数(1+cosψj )/2は、図12(b)に示した区間dを範囲Lbに対応させ、角度θをその区間d内でn等分した内の左側からj番目の角度φj で求められる値である。
また、データD(i,j)に掛けられる2乗余弦関数(1+cosψj )/2は、図13(b)に示した区間bを範囲Lbに対応させ、角度θをその区間c内でn等分した内の左側からj番目の角度φj で求められる値である。
図13は、データ処理部52が行う処理のフロー図である。このフロー図に示す処理手順がプログラム化されてデータ処理部52に格納されることで、図11に示すデータ処理部52などの機能が構築される。
第1の処理として、データ処理部52は、記憶部51に記憶されている原音ファイルを読み込む(STEP2−1)。この際、データ処理部52は、音響再生装置50の制御情報入力部54としての表示入力部に、記憶部51に記憶されている原音ファイルのインデックス等を表示し、再生に係る原音ファイルの入力を受けて、入力指定された原音ファイルを読み込むようにする。これにより、指定された原音ファイルのデータが、データ処理部52に設けられたバッファ部52aに読み込まれる。このバッファ部52aは、図6や図9に示したように、各データを記憶する場所に領域番号が格納され、この領域番号下に各データが格納されるようにしてもよい。なお、予め記憶部51がこのように構成されている場合には、バッファ部52aを設けず、記憶部51のデータを展開する処理は省いてもよい。
第2の処理において、読み込んだ原音ファイルの音響データを後に複数のフレームに分割するので、その分割の程度をユーザが指定するように促し、制御情報入力部54にフレーム長の入力を受ける(STEP2−2)。このとき、フレーム長は予め再生速度が定められている場合には1フレームの再生速度により入力されてもよいし、また、ビット数で指定を受けるようにしてもよい。
第3の処理として、原音ファイルの全音響データを第1の音響データと第2の音響データとに割り振る割合など、処理フレームに関する制御情報の入力を受ける(STEP2−3)。この制御情報の中には、通常の再生速度、即ち、原音ファイルの音響データの再生速度に対して何倍の再生速度にするかの情報も含まれる。この場合には、再生される音響データの全フレーム数から、第1の音響データと第2の音響データとに割り振るフレームの数が求められる。例えば、2倍速で再生する場合には、第1の音響データと第2の音響データとに割り振るフレームの割合は1:1となる。また、ある特定のフレーム部分だけのデータを第1又は第2の音響データに割り振る場合には、乱数を発生させて決定してもよい。
第4の処理として、音響データがフレーム毎に分割されるが、このとき、分割された第1及び第2の音響データを構成するフレームの間での波形整形処理を行うか否か、行う場合には、フレームの両端部での波形整形の範囲の入力を受ける(STEP2−4)。このとき、フレーム長に対する割合で入力指定を受けることもできる。以上のSTEP2−2乃至2−4は予め設定されていてもよい。
第5の処理として、第1の処理で読み込んだ原音ファイルのヘッダに格納されたヘッダ情報などを確認する(STEP2−5)。ヘッダ情報として、WAVEやMP3などのフォーマットの種類、サンプリング周波数、ステレオかモノラルかの出力チャンネル数、リニアPCMなどの記録方式、波形データのバイト数、サンプリング数や量子化などを確認する。
以上により、音響データのデータ処理に係る情報の確認が終了する。
次に、再生開始の入力があると、音響データの先頭、即ち、バッファ部52aの最初の領域番号から順にデータ処理が開始される。なお、以下の例では、二倍速で再生すると指定された場合を例に挙げて説明する。
先ず、データ処理に係るデータを読み取る(STEP2−6)。このとき、データ処理に係るデータが、何番目のフレームに相当するかを判断する。フレームに含まれるデータ数は上記STEP2−2で求められるので、データの番号に変数を当てることで容易に計算することができる。そして、フレームの番号が分かるので、第1出力部53aに出力するか、第2出力部53bに出力するかを変数(0、1)を当てて決定することができる。ここで、フレーム単位で順次均等に割り振る場合、即ち、二倍速で再生する場合には、次のフレームに移行した場合に変数を他方の値に変えることで容易に行うことができる。これにより、振り分け判定部52bは、データ処理に係るデータを第1出力部53aに出力するか、第2出力部53bに出力するかの振り分け処理が終了する。
そして、前述の第4の処理として、波形整形処理を行う旨の入力が行われた場合には、データ処理に係るデータに波形整形を行うか否かの判断がなされる(STEP2−7)。波形整形を行うか否かは、データ処理に係るデータがフレーム中の何処に位置するかにより決定される。即ち、今データ処理に係るデータが、図12(a)に示す区間S、T、Uの何れに位置するかで決定される。
データ処理に係るデータが区間Sに位置する場合には、図12を用いて説明したように、データ処理に係るデータがフレームF(i)のデータD(i,j)とすると、このフレームF(i)に結合されるフレームF(i+2)の区間TにあるデータD(i+2,j)が必要となるので、このデータをバッファ部52aから取得する(STEP2−8)。そして、前述の計算手法に従って、フレームF’(i)のデータD(i,j)が求められる(STEP2−9)。次いで、既に判断された出力先、即ち、第1メモリ部52c、第2メモリ部52dの何れかに出力する(STEP2−10)。
データ処理に係るデータが区間Uに位置する場合には、このデータは波形整形するデータではないので、読み込んだデータをそのまま、既に判断された出力先、即ち、第1メモリ部52c、第2メモリ部52dの何れかに出力する(STEP2−10)。
データ処理に係るデータが区間Tに位置する場合には、図12を用いて説明したように、データ処理に係るデータがフレームF(i+2)のデータD(i,j)とすると、このフレームF(i+2)に結合されるフレームF(i)の区間SにあるデータD(i,j)が必要となるので、このデータをバッファ部52aから取得する(STEP2−12)。そして、前述の計算手法に従って、フレームF’(i+2)のデータD(i+2,j)が求められる(STEP2−13)。次いで、既に判断された出力先、即ち、第1メモリ部52c、第2メモリ部52dの何れかに出力する(STEP2−10)。
上記STEP2−10の後、再生に係る音響データの全てを終了したか否かを判断(STEP2−11)することで、再生に係る音響データにつき、この一連の処理(STEP2−6〜STEP2−13)を行う。
以上のように、音響データから抽出したデータ列をフレーム単位で結合して波形整形処理を順次行った後に、第1メモリ部52c及び第2メモリ部52dにそれぞれ波形整形した第1及び第2の音響データが例えばフレーム単位で出力される。
このように第1及び第2の音響データの波形整形を行うことで、人に対して聴き易くすることができる。波形整形処理を行わない場合には、処理に係るデータを読み込んで、振り分け処理により決められた出力側の第1メモリ部52c又は第2メモリ部52dの何れかに出力する、という一連の処理を再生に係る音響データの最終データまで繰り返すことで実現できる。
ここで、第1メモリ部52c,第2メモリ部52dに格納されたフレーム単位の各データは、出力制御部52eにおいて、一フレーム単位即ち、振り分け単位で、第1出力部53a、第2出力部53bの何れかに出力されるが、このとき、制御情報入力部54からの出力制御情報に基づいて、第1出力部53a及び第2出力部53bにフレーム単位でデータを出力する際、同期をとってそれぞれ出力することもできる。
また、一フレーム単位でデータを、第1出力部53a,第2出力部53bに出力する場合、第1出力部53aへの出力後、一定期間経過後、例えば、一フレーム再生時間の半分だけ遅延して第2出力部53bへ該当するデータを出力することもできる。このようにして、ユーザは左右の耳に流入する音圧を左右の順に聴くことにより、音響再生装置から出力される内容を理解し易くなる。
以上、説明した音響再生方法は再生されている音響の内容に応じて、次のように付加的処理を行って出力再生することもできる。例えば、振り分け判定部52bにおいて、バッファ部52aから処理するデータを抽出した後に、そのデータが無音であるかどうかを判断して、否定的判断、即ち、データが有音である場合に限り、第1出力部側又は第2出力部側に出力するように振り分けることもできる。このようにすれば、音響データの無駄な部分のみを削除して再生することになるので、実質的に再生速度が増加する。無音であるか否かの判断は、図5及び図6を用いて説明した手法により行うことができる。
また、出力制御部52eにより、第1メモリ部52c、第2メモリ部52dに格納されている一フレーム単位のデータを、第1出力部53a又は第2出力部53bの一方にだけ出力するようにタイミングを図ることもできる。この場合、一方の出力部にしか1フレーム単位でデータが出力されないため、同一の一フレーム分のデータを、出力しない他方の出力部に出力するように、制御することもできる。更には、第1出力部53aに一フレーム分のデータを出力した後に、第1出力部53a及び第2出力部53bに次の一フレーム分のデータを出力することを繰り返すような出力制御の場合には、次のように行うこともできる。即ち、第1出力部53aに該当の一フレーム単位でのデータを出力するタイミング間隔と、第1出力部53a及び第2出力部53bにそれぞれ該当の一フレーム単位でのデータを出力する場合の出力するタイミング間隔と、を同一の間隔にしないで、第1出力部53a及び第2出力部53bにそれぞれ該当する一フレーム単位のデータを出力する場合の出力タイミング間隔を長くすることもできる。これによりユーザは、左右から同じ音響は短く、異なる音響は長く聴くことができるので、再生されている音響からその内容を理解しやすくなる。
(4−2)音節又は文節単位で振り分けをする場合
図14は音響再生装置60の構成を示す図である。音響再生装置60は、図11と同様に、記憶部61と、データ処理部62と、第1出力部63a及び第2出力部63bを含む出力部63と、制御情報入力部64と、を含んで構成されている。データ処理部62は、図に示すように、記憶部61から原音ファイルを抽出して一時的に記憶するバッファ部62aと、バッファ部62aに格納された各データから、音節又は文節の区切り目を判断する解析部62bと、この解析結果を記憶するテーブル62cと、このテーブル62cを参照しながらバッファ部62aに格納された各データを区切り目を基準に分割しながら抽出し、第1音響データ及び第2音響データの各要素の何れに振り分けるかを判定する振り分け判定部62dと、この振り分け判定部62dからバッファ部62aに格納されている各データを第1出力部側に出力するために一時的に格納する第1メモリ部62eと、バッファ部62aに格納されている各データを第2出力部側に出力するために一時的に格納する第2メモリ部62fと、第1メモリ部62e及び第2メモリ部62fに格納された各データについて音節又は文節単位毎に出力制御し、出力のタイミングを調整する出力制御部62gとを備える。
以上のように構成された音響再生装置60の動作について、特にデータ処理部62でのデータ処理の具体的な例を挙げながら説明する。
先ず、音響再生装置50と同様に、第1の処理として、データ処理部62は、記憶部61に記憶されている原音ファイルを読み込み、バッファ部62aに展開される。このとき、図6や図9に示したように、各データを記憶する場所に領域番号が付され、この領域番号下に各データを格納するように、バッファ部62aが構成されている。
第2の処理として、音節単位又は文節単位で、どのように第1音響データ又は第2音響データの要素として割り振るかについての制御情報の入力を、制御情報入力部64から受ける。例えば、一音節毎に、第1、第2の各音響データの要素として振り分けるとか、任意に設定することができる。これらの制御情報は、振り分け判定部62d及び出力制御部62gに出力される。
第3の処理として、振り分けられた第1、第2の各音響データの要素の間で、波形整形を行うか否かの入力を受ける。行う場合には、波形整形の範囲の入力も併せて受ける。
第4の処理として、第1の処理で読み込んだ原音ファイルのヘッダに格納されたヘッダ情報などを確認する
以上により、音響データのデータ処理に係る情報の確認が終了する。
次に、解析部62bにより、バッファ部62aに展開された各データを判断して、再生に係る音響データ中の音節区切り目又は文節区切り目を判断する。そして、その判断した音節区切り目又は文節区切り目から、テーブル62cに、無音開始領域と無音終了領域との欄に該当する領域番号が格納される。
これと同時に、振り分け判定部62dは、テーブル62cを参照しながら、第1音響データ又は第2音響データの何れかに振り分ける。即ち、振り分け判定部62dが、テーブル62cから、例えば各音節単位を表す領域番号の範囲を確認し、音節単位又は文節単位のデータを取得する。
次に、波形整形を行う場合には、前述した所定の間隔でサンプリングした場合で説明したように、各音節単位毎のデータのうち、波形整形を施す領域のデータか否かを判断し、該当データについては波形整形を行って、第1出力部62e及び第2出力部62fにそれぞれ出力する。
この一連の処理により、第1メモリ62e及び第2メモリ部62fには、第1及び第2音響データが、音節又は文節単位で振り分けられて各データとして格納されるので、出力制御部62gによりタイミングをとって、第1出力部63a、第2出力部63bに出力する。
このとき、第1メモリ部62e及び第2メモリ部62fに格納された各データは、出力制御部62gにおいて、音節単位又は文節単位で、第1出力部63a、第2出力部63bの何れかに出力されるが、このとき、制御情報入力部54からの出力制御情報に基いて、第1出力部63a及び第2出力部63bに音節単位又は文節単位で1音節又は1文節分のデータを出力する際、同期をとってそれぞれ出力することもできる。また、1音節単位又は1文節単位でデータを第1出力部63a及び第2出力部63bに出力する場合、第1出力部63aへの出力後、一定期間経過後第2出力部63bに該当するデータを出力することもできる。これにより、ユーザは左右の耳に流入する音圧を左右の順に聴くことにより、音響再生装置60から出力される内容を十分理解することができる。
以上、説明した音響再生方法は再生されている音響の内容に応じて、次のように付加的処理を行って出力再生することもできる。例えば、振り分け判定部62dにおいて、各音節又は文節単位でデータを抽出する際、無音部分のデータを削除することで、音響データの無駄な部分のみを削除して再生することになるので、実質的に再生速度が増加する。
また、出力制御部62により、第1メモリ部62e、第2メモリ部62fに格納されている音節又は文節単位のデータを、第1出力部63a又は第2出力部63bの一方にだけ出力するようにタイミングを図ることもできる。この場合、同じ一音節分又は一文節分のデータを他方の出力部に出力するように制御することもできる。また、第1メモリ部62e、第2メモリ部62fに格納されている各音節又は文節単位のデータを第1出力部63a、第2出力部63bに出力する際には、出力毎に同期をとったり、例えば第2出力部側に出力する際には、第1出力部63bより所定の時間分だけ遅延を設けてもよい。
以上、説明したように、本発明の音響再生方法は、任意の間隔、音節単位又は文節単位で音声データを分割して、第1音響データ及び第2音響データとして出力しているが、次のようにすることもできる。
図15は、音響再生方法の変形例を説明するための説明図である。図15のように、音響データIが、「あ」「い」「う」「え」の各音の順に構成されているとする。先ず、この音響データIを音節単位で分割して、第1音響データの要素として、「あ」、「う」を振り分け、第2音響データの要素として、「い」「え」を振り分ける。次に、例えば、第1音響データとして振り分けられた「あ」と第2音響データとして振り分けられた「い」を併せてミキシングを行って、一区間に「あ」と「い」とが混ざったデータ「アイ」を作成し、この作成したデータ「アイ」に「あ」を混ぜて第1音節の最初の要素とする。
図16は、図15に示す音響再生方法の変形例を具体的に説明するための説明図である。この図を参照して、第1音響データをどのようにして生成するかについて説明する。図16(a)に示すように、音響データが波形f(t)で表されるとする。この波形f(t)を図16(b)に示すサンプリング関数s(t)でサンプリングすると、図16(d)に示すパルス関数g(t)となる。即ち、音響信号f(t)をサンプリング関数s(t)で任意時間T毎にサンプリングする。説明を簡明にするためにパルス幅をTとしている。
図16(a)に示す波形f(t)を図16(c)に示すサンプリング関数s1(t)でサンプリングすると、図16(e)に示すパルス関数g1(t)となる。即ち、音響信号f(t)をサンプリング関数s1(t)で任意時間2T毎にサンプリングする。
図16(f)に示すように、パルス関数s1(t)でサンプリングしたデータ列を、図1の場合と同様に、時間軸上で圧縮して、データ列関数i(t)を作成する。
次に、図16(g)に示すように、パルス関数g1(t)とデータ列関数i(t)とをパルス幅T毎に加算し、加算した値に所定の数を掛けることにより、データが出力される時の音圧を適宜調整する。即ち、図16(d)に示す時間TでのデータD1と図16(f)に示す時間TでのデータD1とを加えてD’1とし、所定の定数を掛けて出力された時の音圧を調整して、第1音響データの第1番目のデータとする。同様にして、例えば、第2番目のデータは、図16(d)に示す時間2TでのデータD2と図16(f)に示す時間2TでのデータD3とを加えてD’2とし、所定の定数を掛けて出力された時の音圧を調整して、第1音響データの第2番目のデータとする。また例えば、第5番目のデータは、図16(d)に示す時間5TでのデータD5と図16(f)に示す時間5TでのデータD21とを加えてD’5とし、所定の定数を掛けて出力された時の音圧を調整して、第1音響データの第5番目のデータとする。
同様にして、第2音響データについても同じように生成することができる。
このような処理を音響データに対して施すことにより、結果として、次のようなデータ処理を行うことができる。その結果を図15を参照しつつ説明する。
第1音響データの要素として振り分けられたデータ群と、第2音響データの要素として振り分けられたデータ群とを併せて、第1音響データの第1番目の要素とする。例えば、第1音響データの要素である「あ」を構成するデータ群と、第2音節データの要素である「い」を構成するデータ群とで、各データを一つおきに抽出することで「アイ」を構成する。そして、この構成した「アイ」のデータ群と第1音響データの要素「あ」のデータ群とを順次足し合わせて、第1音節の最初の要素とする。同様に、一音節に「あ」と「い」とが混ざったデータ「アイ」に「い」を混ぜて第二音節の最初の要素とする。第1及び第2の音響データの第2番目の要素としても、一音節に「う」と「え」とが混ざったデータ「ウエ」を作成し、この作成したデータ「ウエ」に、それぞれ「う」、「え」を混ぜ、それぞれ第1音響データの第2番目、第2音響データの第2番目とする。このようにして作成した第1音響データI1及び第2音響データI2をそれぞれ第1、第2出力部に出力することで、第1出力部から出力される音響にも、第2出力部から出力される音響にも、同じ音が混ざって出力されるので、ユーザが左右の耳から全く異なる音を聞くのと比べて、理解し易くなる。
以上説明したように、音響再生装置による音響再生方法では、再生に係る音響データが第1及び第2の音響データに分割され、第1の音響データが第1出力部から出力され、第2の音響データが第2出力部から出力される。よって、ユーザは左右の耳から異なった音響が入力される。ユーザは耳から音響が入力されると、入力された音響の意味内容を理解しようとするので、第1の音響データと第2の音響データとから、再生に係る音響の意味を十分理解することができる。また、音響データを音節単位又は文節単位で第1及び第2の音響データに振り分けたり、所定のタイミングで分割して第1及び第2の音響データに振り分けて構築して出力再生するので、実質音響データの再生速度が速くなる。この再生された音響データを聴いている者は、意識的に再生に係る音響データを構築し理解することで、脳の活性化及び認知症の予防にも効果的である。なお、音響とは、声音、楽音などの他、空気中を伝播して可聴される全ての音が含まれることは言うまでもない。
本発明は、スピーカなどの音響出力部を備えた各種コンピュータなどで構築され、コンピュータに記憶されている音響ファイルや各種媒体に記憶されている音響信号の再生をスピーディに行うことができ、音響データの各種編集業務などを効率良く行うことができる。
音響再生方法の具体的な原理を説明するための説明図である。 音響再生装置の第1構成例を示すブロック図である。 図2に示す音響再生装置で処理される音響信号とその処理結果を示す第1音響信号及び第2音響信号とを模式的に示したものである。 図1とは異なる音響再生方法を説明するための説明図である。 音響再生装置の第2構成例を示すブロック図である。 図5に示す音響再生装置の記憶部、解析部、音響信号処理部、制御部で実現される機能を説明するための説明図である。 図5及び図6に示す音響再生装置40による音響再生方法を示すフロー図である。 図6に示す振り分け判定部により音節単位でどのように振り分けられるかについて説明するための説明図である。 図5に示す音響再生装置の記憶部、解析部、音響信号処理部、制御部で実現される機能の変形例を示す構成図である。 図9に示す変形例で実現される音響再生方法を説明するための説明図である。 音響再生装置の別構成例を示す図である。 図11に示すデータ処理部が行う波形整形処理を説明するための説明図である。 図11に示すデータ処理部が行う処理のフロー図である。 音響再生装置の別構成例を示す図である。 音響再生方法の変形例を説明するための説明図である。 図15に示す音響再生方法の変形例を具体的に説明するための説明図である。
符号の説明
10,40,50,60 音響再生装置
11 デジタルシグナルプロセッサ
12,45 制御部
13 音響信号処理部
14 デッキ
15,18a,18b,46d アンプ
16 A/D変換機
17a,17b,46c D/A変換機
19a,19b,46e スピーカ
20a,46a,53a,63a 第1出力部
20b,46b,53b, 63b 第2出力部
41 原音再生部
42,51,61 記憶部
43,62b 解析部
44 音響信号処理部
44a,52c,62e 第1メモリ部
44b,52d,62f 第2メモリ部
44c,52b,62d 振り分け判定部
44d,52e,62g 出力制御部
45a,62c テーブル
46,53,63 出力部
47,52,62 データ処理部
52a,62a バッファ部
54,64 制御情報入力部

Claims (5)

  1. データ処理部と、第1出力部及び第2出力部からなる出力部と、を備え、
    上記データ処理部は、
    音響データを一時的に格納するバッファ部と、
    上記バッファ部に格納されている音響データの区切り目を判断する解析部と、
    上記解析部により判断された区切り目を基準に、上記バッファ部に格納したデータを第1音響データと第2音響データの何れに振り分けるかを判定する振り分け判定部と、
    上記振り分け判定部により振り分けられた第1音響データの各データを、振り分けられた順に一時的に記憶する第1メモリ部と、
    上記振り分け判定部により振り分けられた第2音響データの各データを、振り分けられた順に一時的に記憶する第2メモリ部と、
    上記第1メモリ部及び上記第2メモリ部に格納された各データの出力タイミングを調整する出力制御部と、
    を備えた、音響再生装置。
  2. 前記振り分け判定部は、前記第1メモリ部及び前記第2メモリ部に出力したデータ量をそれぞれ記憶し、このデータ量に基づいて第1音響データ、第2音響データの何れかに振り分けることを特徴とする、請求項1に記載の音響再生装置。
  3. 前記解析部は、前記バッファ部に格納されている各データの音圧レベルに基づいて区切り目を判断することを特徴とする、請求項1に記載の音響再生装置。
  4. 前記バッファ部には、原音再生部から流入する音響信号が音響データとして入力されることを特徴とする、請求項1に記載の音響再生装置。
  5. 前記バッファ部には、デジタル記憶媒体に記憶された音響データが入力されることを特徴とする、請求項1に記載の音響再生装置。
JP2006535789A 2004-09-07 2005-09-07 音響再生装置 Expired - Fee Related JP4130927B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2004293095 2004-09-07
JP2004293095 2004-09-07
JP2005195946 2005-07-05
JP2005195946 2005-07-05
PCT/JP2005/016420 WO2006028133A1 (ja) 2004-09-07 2005-09-07 音響再生方法及び装置

Publications (2)

Publication Number Publication Date
JPWO2006028133A1 JPWO2006028133A1 (ja) 2008-05-08
JP4130927B2 true JP4130927B2 (ja) 2008-08-13

Family

ID=36036414

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006535789A Expired - Fee Related JP4130927B2 (ja) 2004-09-07 2005-09-07 音響再生装置

Country Status (2)

Country Link
JP (1) JP4130927B2 (ja)
WO (1) WO2006028133A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4963215B2 (ja) * 2006-11-06 2012-06-27 株式会社小野測器 信号解析装置、演算プログラム及び演算処理方法
JP2010266834A (ja) * 2009-05-14 2010-11-25 Akinori Tezuka 外国語ヒアリング音声教材
WO2019003418A1 (ja) * 2017-06-30 2019-01-03 ソフトバンク株式会社 音情報処理装置、音情報処理方法、およびプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3630609B2 (ja) * 2000-03-29 2005-03-16 パイオニア株式会社 音声情報再生方法ならびに装置

Also Published As

Publication number Publication date
WO2006028133A1 (ja) 2006-03-16
JPWO2006028133A1 (ja) 2008-05-08

Similar Documents

Publication Publication Date Title
JP4245060B2 (ja) サウンドマスキングシステム、マスキングサウンド生成方法およびプログラム
CN106486128B (zh) 一种双音源音频数据的处理方法及装置
CA2253749C (en) Method and device for instantly changing the speed of speech
JP5103974B2 (ja) マスキングサウンド生成装置、マスキングサウンド生成方法およびプログラム
JP5282832B2 (ja) 音声スクランブルのための方法および装置
JP4924309B2 (ja) 音声スクランブル信号作成方法と装置及び音声スクランブル方法と装置
JP4130927B2 (ja) 音響再生装置
JPH10260694A (ja) 話速変換装置、話速変換方法及び記録媒体
KR20190076934A (ko) 동적 포맷 변환을 지원하는 오디오 메타데이터 제공 장치 및 오디오 데이터 재생 장치, 상기 장치가 수행하는 방법 그리고 상기 동적 포맷 변환들이 기록된 컴퓨터에서 판독 가능한 기록매체
JP2009075280A (ja) コンテンツ再生装置
JP3617603B2 (ja) 音声情報の符号化方法及びその生成方法
JPH09146580A (ja) 効果音検索装置
JP2008145841A (ja) 再生装置、再生方法、信号処理装置、信号処理方法
JP2002297200A (ja) 話速変換装置
JP3072449B2 (ja) メディア処理装置
JP2008275836A (ja) 読み上げ用ドキュメント処理方法及び装置
TW442740B (en) Method for changing articulation speed
JP4648183B2 (ja) 連続メディアデータ短縮再生方法、複合メディアデータ短縮再生方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体
Blech et al. DVD-Audio versus SACD: perceptual discrimination of digital audio coding formats
JP5863472B2 (ja) 話速変換装置およびそのプログラム
JP2001312291A (ja) 数字音声波形の作成方法、数字音声の合成方法および装置
JP5104202B2 (ja) 音響信号に対する情報のリアルタイム埋め込み装置
KR100372576B1 (ko) 오디오신호 가공방법
JP5560218B2 (ja) 音生成装置、音生成方法、及び音生成プログラム
JP2000132179A (ja) 録音音声データベース話速均一化方法及び装置及び話速均一化プログラムを格納した記憶媒体

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080302

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20080302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080428

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110606

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120606

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees