JP3900576B2 - Music information playback device - Google Patents

Music information playback device Download PDF

Info

Publication number
JP3900576B2
JP3900576B2 JP04942597A JP4942597A JP3900576B2 JP 3900576 B2 JP3900576 B2 JP 3900576B2 JP 04942597 A JP04942597 A JP 04942597A JP 4942597 A JP4942597 A JP 4942597A JP 3900576 B2 JP3900576 B2 JP 3900576B2
Authority
JP
Japan
Prior art keywords
music information
reproduction
data
digital data
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP04942597A
Other languages
Japanese (ja)
Other versions
JPH10247091A (en
Inventor
卓朗 曽根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP04942597A priority Critical patent/JP3900576B2/en
Publication of JPH10247091A publication Critical patent/JPH10247091A/en
Application granted granted Critical
Publication of JP3900576B2 publication Critical patent/JP3900576B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、カラオケ装置等として利用される音楽情報再生装置に関する。
【0002】
【従来の技術】
技術の進歩により、音楽を提供する形態も多様化してきた。例えば一昔前は専らレコードにより音楽が提供されていたが、現在は、コンパクトディスク等、多種多様な記録媒体により音楽が提供されている。また、通信技術の進歩は、音楽を高い品質で聴者に提供することを可能にした。特に最近の衛星放送では、データ圧縮技術等の活用により、多くの種類の音楽が極めて優れた音質で提供されている。
【0003】
【発明が解決しようとする課題】
さて、以上のようにして需要者に提供される音楽は、独奏曲等の特別の場合を除き、メロディ、リズム、ボーカル等の複数のパートによって構成されているのが一般的である。そして、これらのすべてのパートを含む1つのまとまった完成品としての曲が上述の多種多様な形態で需要者に提供されるのである。なお、カラオケ等においては、ボーカルの欠けた音楽が通信あるいは記録媒体を利用して提供されるが、需要者にとっては、始めからボーカルのない曲が1つのまとまった完成品として提供されているに過ぎない。
【0004】
このように音楽は曲という1つのまとまった単位で需要者に提供されるが、需要者が望む音楽の楽しみ方は、多種多様であり、完成品としての曲だけでなく、それに含まれる1または複数のパートの演奏を楽しみたいという需要もある。また、この場合において、需要者が欲するパートの組合せは同じ曲を聴く場合であっても需要者によって区々である。
【0005】
需要者側において、提供者側から提供される曲の任意のパートを組合せて楽しむことができれば好都合であるが、かかる意義に適う技術的手段は従来提供されていなかった。そこで、本願発明者は、かかる意義に適う技術的手段について鋭意検討を行ったが、この検討において解決が困難な問題に直面するに至った。すなわち、メロディ、リズム、ボーカル等の各パートを分離して各需要者に提供した場合、需要者側では各パートの再生が足並を揃えて進行するように各パートの同期再生を行う必要があるが、このような複数パートの同期再生を如何にして実現するかという問題である。ここで、MIDI等のイベント情報のみを需要者に提供するのであれば、既に通信カラオケ等において実用化されている技術を利用する途がある。しかし、需要者に提供する情報には、ボーカル等の連続波形の符号化データが含まれている。上記意義に適う技術的手段を構築するには、このような符号化データの再生処理と他のパートのデータ(例えばMIDIイベント)の再生処理とを同期させる手段が必要となるが、そのような手段は現在のところ提供されていない。
【0006】
この発明は、以上説明した事情に鑑みてなされたものであり、提供者側から提供される音楽情報を需要者側で任意に組合せ、各々を同期させて再生することができる音楽情報再生装置を提供することを目的としている。
【0007】
【課題を解決するための手段】
請求項1に係る発明は、曲を構成する音声波形を分割した各ブロックの符号化デジタルデータおよび各ブロックの符号化デジタルデータの再生タイミングを指定するタイミング情報からなる音楽情報を入力する入力手段と、
前記入力手段により入力された音楽情報における符号化デジタルデータの再生処理を行う再生手段と、
経過時間を計測する計時手段と、
前記計時手段によって計測される経過時間に基づき、前記入力手段により入力された音楽情報における前記各ブロックの符号化デジタルデータが当該符号化デジタルデータに対応したタイミング情報によって指定されたタイミングで再生されるように前記各ブロックの符号化デジタルデータの再生処理を前記再生手段に指令する手段とを具備し、
前記再生手段は、前記符号化デジタルデータを再生する2系統の再生系を有し、各ブロック単位で各再生系を交互に使用することにより、各ブロックの符号化デジタルデータの再生処理を順次実行し、先行するブロックの再生処理が終了する前に後発のブロックの再生処理を開始することとなる場合には、各再生処理が重複して行われる期間、各再生処理により得られる各信号を合成したものを出力することを特徴とする音楽情報再生装置を要旨とする。
【0008】
請求項2に係る発明は、前記入力手段は、衛星放送により送信された前記音楽情報を受信する衛星放送受信手段を具備することを特徴とする請求項1に記載の音楽情報再生装置を要旨とする。
【0009】
請求項3に係る発明は、前記入力手段は、記録媒体に記録された前記音楽情報を読み取る手段を具備することを特徴とする請求項1に記載の音楽情報再生装置を要旨とする。
【0011】
請求項に係る発明は、曲を構成する素材または曲に付随した素材である複数の音楽情報と、各音楽情報が帰属する曲を特定し、かつ、同一の曲に帰属する各音楽情報を相互に関連付ける識別情報とを各々入力する入力手段と、
前記入力手段により入力された音楽情報のうち、曲を構成する音声波形を分割した各ブロックの符号化デジタルデータと、各ブロックの符号化デジタルデータの再生タイミングを指定するタイミング情報とからなる音楽情報について、符号化デジタルデータの再生処理を行う再生手段と、
経過時間を計測する計時手段と、
特定の曲の再生の指示があった場合には、前記入力手段により入力された各音楽情報に関連付けられた各識別情報に基づいて、当該特定の曲に対応した1または2以上の音楽情報を選択し、当該音楽情報についての再生処理を前記再生手段に指令する選択再生制御手段とを具備し
記選択再生制御手段は、前記符号化デジタルデータとタイミング情報とを含む音楽情報については、前記計時手段によって計測される経過時間に基づき、前記各ブロックの符号化デジタルデータが当該符号化デジタルデータに対応したタイミング情報によって指定されたタイミングで再生されるように前記各ブロックの符号化デジタルデータの再生処理を前記再生手段に指令し、
前記再生手段は、前記符号化デジタルデータを再生する2系統の再生系を有し、各ブロック単位で各再生系を交互に使用することにより、各ブロックの符号化デジタルデータの再生処理を順次実行し、先行するブロックの再生処理が終了する前に後発のブロックの再生処理を開始することとなる場合には、各再生処理が重複して行われる期間、各再生処理により得られる各信号を合成したものを出力することを特徴とする音楽情報再生装置を要旨とする。
【0012】
請求項に係る発明は、記選択再生制御手段は、前記再生手段における各再生によって行われる再生処理の処理遅延に基づき、当該再生に対して再生処理を指令するタイミングを補正することを特徴とする請求項に記載の音楽情報再生装置を要旨とする。
【0013】
請求項に係る発明は、前記音楽情報を前記識別情報と関連付けて保存する音楽情報保存手段を具備し、前記選択再生制御手段が前記入力手段により入力される音楽情報または前記音楽情報保存手段によって保存された音楽情報の中から前記特定の曲に対応した音楽情報の選択を行うことを特徴とする請求項またはに記載の音楽情報再生装置を要旨とする。
【0014】
【発明の実施の形態】
以下、本発明を更に理解しやすくするため、図面を参照し、本発明の実施の形態である音楽情報提供システムについて説明する。なお、かかる実施の形態は、本発明の一態様を示すものであり、この発明を限定するものではなく、本発明の範囲で任意に変更可能である。
【0015】
本実施形態に係る音楽情報提供システムは、曲を構成する素材を表す音楽情報または曲に付随した素材を表す音楽情報を提供する提供者とこの音楽情報を取得して曲を再生する需要者とによって構成される。
【0016】
提供者側では、例えばボーカルとバックミュージックといった具合に曲を幾つかの構成要素(素材)に分け、各々を表現した音楽情報を作成する。また、曲の構成要素ではないが、例えば歌詞等の曲に付随したものをも同等に扱い、この歌詞等についても音楽情報を作成する。そして、このようにして作成した各音楽情報を各々が同一の曲に帰属することを示す識別情報と共に需要者に向けて供給する。
【0017】
図1および図2は、本実施形態において供給者側から供給する音楽情報および識別情報を例示したものである。
【0018】
まず、図1に示す例は、1つの曲をボーカルとそれ以外の部分とに分け、ボーカルを表現したボーカルデータと、それ以外の曲データおよび歌詞データ等からなるデータを各々音楽情報として供給するものである。
【0019】
ここで、各音楽情報の先頭には、タグTAG1およびTAG2が各々付加されている。これらのタグTAG1およびTAG2は、各音楽情報が同一の音楽に係るものであることを示す識別情報を含んでいる。
【0020】
次に図2に示す例は、1つの音楽を男声ボーカルと、女声ボーカルと、n個の楽器演奏パートとに分け、各々を表現したボーカルデータまたは曲データを各々音楽情報として供給するものである。なお、この例において、図中最下部に示した音楽情報は、第n番目のパートの曲データの他、歌詞データ等をも含んでいる。
【0021】
前掲図1の場合と同様、男声ボーカルデータおよび女声ボーカルデータにはタグTAG1−1およびTAG1−2が、n個の曲データにはTAG2−1〜TAG2−nが各々付加されており、これらのタグ(厳密にはタグに含まれた識別情報)により各音楽情報が同一の曲に帰属することが明らかにされている。
【0022】
各音楽情報のうちボーカルデータには、上記の識別情報を含むタグの他、曲の進行に合わせたタイミングでボーカル音の再生を行うための同期用タグが含まれている(図示略)が、その詳細については後述する。また、ボーカルデータ、曲データ等の詳細についても後述する。
【0023】
このように本実施形態においては、各音楽情報を各々がいずれの曲に帰属するかを示す識別情報とともに需要者に向けて供給する。従って、各音楽情報がたとえ別々の経路を介して需要者の元へ供給されたとしても、需要者側では各音楽情報の先頭に付加されたタグを識別することにより、各音楽情報が同一の音楽に帰属することを知ることができるのである。すなわち、従来は曲を1つの完成物として需要者に提供していたのに対し、本実施形態では、曲を構成する素材あるいは曲に付随した素材の各々に完成品としての地位を認め、これらを各々独立に需要者に提供するものである。個々の素材は適切に組合せれば別の1つの完成品である曲を構成することになるが、いかなる素材を組合せるかは各々に付されたタグに基づき需要者側で任意に決定すればよいのである。
【0024】
なお、識別情報は、図1および図2に示すように音楽情報と一体化して需要者に供給する他、音楽情報と分離して供給してもよい。例えば、「音楽情報を何時何分に送る」といった予告を行い、その予定された時刻において当該音楽情報を送信するようにしてもよい。この場合、事前に行われた予告の内容が識別情報ということになる。要は、需要者側において音楽情報とその識別情報とを対応付けることができるよう音楽情報と識別情報とを関連付けて供給すればよいのであり、必ずしも両者を一体のものとして供給する必要はない。
【0025】
音楽情報および識別情報は、例えば以下の形態により提供者から需要者へ供給する。
a.記録媒体に音楽情報およびタグを記録し出荷する形態
記録媒体としては、例えばCD(コンパクトディスク)、MD(ミニディスク)等が考えられる。
b.音楽情報およびタグを通信手段により送信する形態
通信の形態は、各種考えられ、無線通信、有線通信のいずれを利用することも可能である。例えば、衛星放送等の無線通信手段により音楽情報等を不特定多数の需要者に向けて送信する他、有線回線を通じて特定の需要者に供給するようにしてもよい。
c.1つの曲の各音楽情報のうち特定の種類のものについては記録媒体に記録して出荷し、他の種類のものについては通信手段により送信する形態
【0026】
次に、需要者側の装置について説明する。図3は本実施形態に係る音楽情報再生装置の構成を示すブロック図である。本実施形態に係る音楽情報再生装置は、カラオケ装置として利用されるものであり、上述した音楽情報の入力手段として、衛星放送受信部1およびCD再生部2を有している。この音楽情報再生装置は、前掲図1に示す各音楽情報をこれらの各手段によって受け取り、音楽として再生するものである。
【0027】
衛星放送受信部1は、通信衛星から放送された音楽情報およびタグを受信し復調する手段である。本実施形態では、曲データ、歌詞データおよびハモリ制御データからなる音楽情報がタグとともに通信衛星から放送され、衛星放送受信部1によって受信される。ここで、曲データは、曲を構成する楽器音およびコーラス音を発生するための時系列データであり、楽器音の発音を指示するMIDIイベントと、コーラス音波形を表すADPCM(適応予測符号化)データと、コーラス音の発音を指示するADPCM再生イベントとが混在した内容となっている。なお、曲データ、歌詞データおよびハモリ制御データの具体的内容については後述する。
【0028】
CD再生部2は、CDから情報を読み取る手段である。このCD再生部2が取扱うCDの記録面には、ボーカル音波形を所定のサンプリング周波数で符号化し、さらに圧縮処理を施したボーカルデータがタグと共に記録されている。CD再生部2は、記録再生部4による制御の下、CDからボーカルデータを読み出し、このボーカルデータに伸張処理を施すことにより、ボーカル音を表すリニアPCMデータを出力する。なお、CD再生部2は、伸張処理を行うことなくボーカルデータをそのまま出力し、記再生部4内においてボーカルデータの伸張処理を行うように構成してもよい。
【0029】
HD(ハードディスク)駆動部3は、記録再生部4による制御の下、衛星放送受信部1によって取得される音楽情報およびタグのHDへの格納およびHDからの再生を行う手段である。
【0030】
記録再生部4は、この音楽情報再生装置の最も特徴的な手段であり、主として以下の機能を営む。
【0031】
a.音楽情報をタグ別にHDに保存する機能
衛星放送受信部1から音楽情報およびタグを受け取り、各々を相互に関連付け、HD駆動部3によりHD内に保存する。
【0032】
b.音楽情報の再生
HDには、各曲の曲データ、歌詞データおよびハモリ制御データが各々の帰属する曲を特定するタグと関連付けられた状態で格納されている。また、CDには、各曲のボーカルデータが各々の帰属する曲を特定するタグと関連付けられた状態で格納されている。図示しない操作部の操作により、再生すべき曲の指定がなされると、記再生部4は、その曲に対応したタグを求める。そして、HD駆動部3またはCD再生部2に指令を送ることにより、このタグに関連付けられた曲データ、ボーカルデータ等の音楽情報をHDおよびCDから選択して再生する。ここで、HDから読み出される曲データはコーラス音のADPCMデータを含んでいるが、このADPCMデータは記録再生部4によってリニアPCMデータに復号化される。
【0033】
また、この音楽情報再生装置においては、図示しない操作部の操作により、再生すべきパートを指定することができる。このパートの指定が行われた場合、記録再生部4は、HD駆動部3またはCD再生部2に指令を送ることにより、指定されたパートの音楽情報のみをHDまたはCDから再生する。
【0034】
なお、以上説明した各音楽情報のCDまたはHDからの再生タイミングの制御については後述する。
【0035】
c.HDまたはCDから再生した音楽情報の振り分け
CDからはボーカル音のリニアPCMデータが再生される。また、HDからは曲データ、歌詞データおよびハモリ制御データが再生される。記録再生部4は、これらの各情報を各々適切な装置に振り分ける。さらに詳述すると、CD再生部2からはボーカル音のリニアPCMデータが出力されるが、記録再生部4は、これをボーカル用DSP6へ供給する。また、HD駆動部3によって読み出される曲データは、MIDIイベントとコーラス音のADPCMデータとを含んでいるが、MIDIイベントは音源7へ供給し、ADPCMデータはリニアPCMデータに変換してバックミュージック用DSP5へ供給する。また、歌詞データは画像処理部8へ、ハモリ制御データは図示しないボーカルアダプタへ供給する。
【0036】
次に、このようにして記録再生部4によって振り分けられた音楽情報を処理する各装置について説明する。
【0037】
まず、バックミュージック用DSP5およびボーカル用DSP6は、記録再生部4を介して再生されるコーラス音およびボーカル音の各リニアPCMデータに対し、各々必要に応じて各種の処理を施す。例えば、この音楽情報再生装置がカラオケ装置として使用される場合において、利用者によってキーの変更が指示される場合があるが、かかる場合にこれらの各DSPは、指示されたキーに合わせてリニアPCMデータのピッチ周期を変更する。
【0038】
次に、音源7は、いわゆるMIDI音源であり、記録再生部4を介して再生されるMIDIイベントに従い、楽音信号を形成する。画像処理部8は、歌詞データに従って歌詞の画像情報を生成し、図示しないビデオ再生装置から再生される画像情報とこの歌詞の画像情報とを合成し、テレビジョン受像機9に供給する。これによりビデオ画像に歌詞を重ね合わせた画像がテレビジョン受像機9に表示される。
【0039】
ミキサ10には、バックミュージック用DSP5、ボーカル用DSP6、音源7の各出力信号が入力されるとともに、マイクロホン、A/D変換器およびボーカルアダプタ(いずれも図示略)を介してデジタル音声信号が入力される。ミキサ10は、これらの各信号を混合し、サウンドシステム11から音として出力する。
【0040】
次に、図4はHDから再生される歌詞データ、ハモリ制御データおよび曲データと、CDから再生されるボーカルデータとを時系列的に示したものである。これらの各音楽情報は、相互に若干異なった点もあるが、歌詞、音等の素材自体を表す素材情報とこの素材情報を素材として(すなわち、視覚により把握できる歌詞や聴覚により把握できる音として)外部へ出力するタイミングを指定するタイミング情報とにより構成される点において共通する。以下、この図4を参照し、記録再生部4による音楽情報の再生動作の詳細について説明する。
【0041】
歌詞データは、画像処理部8に歌詞の表示を指令する歌詞表示イベントと、このイベントの実行タイミングまでの待ち時間を指定するデュレーションデータΔtとを時系列的に編成したデータである。
【0042】
曲の再生時において記録再生部4は、図示しない計時手段により経過時間の計測を行いつつHDからデュレーションデータΔtおよび歌詞表示イベントを順次再生し、デュレーションデータΔt相当の時間の経過を待ってその後の歌詞表示イベントを画像処理部8に供給する、という動作を繰り返す。
【0043】
ここで、1個の歌詞表示イベントは、歌詞表示指令、着色指令、色消去指令、…、着色指令、歌詞消去指令といった一連の指令を時系列的に編成したものである。これらの一連の指令は、記録再生部4により画像処理部8に順次供給される。この結果、まず、1行ないし2行の歌詞がテレビジョン受像機9に表示され、次いで歌詞の最初の言葉が着色され、その後、2番目の言葉が着色され、…という具合に、曲の進行に合わせて、歌詞の表示および歌うべき発声すべき言葉の着色が行われることとなる。
【0044】
ハモリ制御データおよび曲データも基本的には歌詞データと同様な構成を有する時系列データである。まず、ハモリ制御データはハモリパート(コーラスパート)のピッチを指定するハモリ制御イベントとデュレーションデータΔtとからなる。
【0045】
曲の再生時において記録再生部4は、上記計時手段による経過時間の計測を行いつつHDからデュレーションデータΔtおよびハモリ制御イベントを順次再生し、デュレーションデータΔt相当の時間の経過を待ってその後のハモリ制御イベントをボーカルアダプタ(図示略)に供給する、という動作を繰り返す。このハモリ制御データの供給は、上記歌詞データの画像処理部8への供給と並行して行われ、その供給タイミングの制御は上記歌詞データの場合と同じ計時手段を用いて行われる。
【0046】
ボーカルアダプタでは、ハモリ制御イベントに従って、マイクロホンから入力されたボーカル音信号のピッチシフトが行われ、ハモリパートのピッチに対応したボーカル音信号が生成される。このハモリパートのボーカル音信号が元のボーカル音信号とともにミキサ10に入力される。
【0047】
曲データは、MIDIイベントと、ADPCM再生イベントと、デュレーションデータΔtと、ADPCMデータテーブルとにより構成されている。
【0048】
MIDIイベントは、音源7に対し、特定の楽音信号の形成等を指令するイベントである。ADPCMデータテーブルは、各種のコーラス音に対応したADPCMデータによって構成されたテーブルである。ADPCM再生イベントは、ADPCMデータテーブル内の特定のコーラス音のADPCMデータの再生を指令するイベントである。
【0049】
MIDIイベントは、上記歌詞表示イベントおよびハモリ制御イベントの場合と同様、デュレーションデータΔtにより各々の実行タイミングが決定される。すなわち、各MIDIイベントは、その前に置かれたデュレーションデータΔt相当の時間が経過した時点で音源7に送られ、音として出力される。
【0050】
ADPCM再生イベントは、基本的にはデュレーションデータΔtにより決定されたタイミングにおいて音として再生されるが、この再生のための処理は、ある程度の時間を要するため、音の再生タイミングよりも前に時間的余裕を持って開始される。すなわち、ADPCM再生イベントに対応した音をサウンドシステム11から出力するに先立ち、当該イベントに対応したADPCMデータがADPCMデータテーブルから読み出され、リニアPCMデータに変換される。そして、このリニアPCMデータがバックミュージック用DSP5に送られ、コーラス音となってサウンドシステム11から出力される。このコーラス音の出力が、デュレーションデータΔtにより決定されたタイミングにおいて行われるように、先行してADPCMデータの読み出しが行われるのである。図4には、3個のADPCM再生イベントに対応し、3個のコーラス音のADPCMデータがADPCMデータテーブルから読み出され、これらの各ADPCMデータから生成される各コーラス音が各ADPCM再生イベントの実行タイミングにおいて出力される様子が示されている。
【0051】
以上説明した歌詞表示イベント、ハモリ制御イベント、MIDIイベントおよびADPCM再生イベントは、すべて共通の計時手段を用いて、各々の実行タイミング(音または画像として最終的に出力されるタイミング)が制御される。従って、歌詞表示、楽音、コーラス音が曲の進行に合わせて再生されることとなる。
【0052】
そして、記録再生部4は、以上説明したHD内の音楽情報の再生と並行し、CD再生部2によるボーカルデータの再生の制御を行う。ここで、ボーカルデータは、HD駆動部3とは別の再生系であるCD再生部2によりCDから再生される。また、CD内のボーカルデータは圧縮処理が施されているため、再生時にはその伸張が行われる。従って、HDからの音楽情報の再生開始と同時にCD再生部2によるボーカルデータの再生を開始したとしても、曲が長時間に及ぶ場合には、例えば曲の進行に連れて次第にボーカルがバックミュージックから遅れる等の事態が生じ得る。
【0053】
そこで、本実施形態では、予め1曲分のボーカルデータの随所に同期用のタグを挿入しておき、ボーカルデータの再生の際には、この同期用のタグを用いた同期化制御を行うことにより、曲の進行に合ったタイミングでボーカルデータに対応したボーカル音を再生するようにしている。以下、この同期用のタグを用いた同期化制御について説明する。
【0054】
まず、CDに記録されたボーカルデータは、図4に示すように、適当な大きさの複数のブロックによって構成されており、各ブロックの先頭に同期用のタグT0、T1、T2、…が付加されている。通常、人間は歌を歌っているときでも息つぎをするので、1曲分のボーカル音も適当な長さの複数の音声波形のブロックに分れることとなる。従って、これらの音声波形のブロック毎にボーカルデータのブロックを作成し、各々にタグを付加すればよい。各タグT0、T1、T2、…は、各々の付加されたボーカルデータに対応したボーカル音を再生すべきタイミング、すなわち、曲再生開始後から何秒後にそのボーカル音を再生すべきかを指定するタイミング情報を含んでいる。
【0055】
記録再生部4は、HDからの他の音楽情報の再生と並行し、CD再生部2により、上記ブロック単位でボーカルデータのCDからの読み出しおよび伸張処理を行う。そして、これにより得られる各リニアPCMデータを、元の各ボーカルデータに付加されていた同期用タグT0、T1、T2、…内のタイミング情報に対応したタイミングでボーカル用DSP6に順次供給するのである。このリニアPCMデータの供給タイミングの制御は、上述したMIDIイベント等の実行タイミングの制御の際に使用した計時手段を用いて行う。ここで、CD再生部2に各ブロックのボーカルデータの読み出し指示が与えられてから、当該ブロックに対応したリニアPCMデータが出力されるまでには一定の遅延時間が生じる。従って、記録再生部4は、同期用タグT0、T1、T2、…の付加された各ブロックに対応したリニアPCMデータを再生する際、各々の再生タイミングよりも上記遅延時間分だけ先行し、各ブロックの再生指示をCD再生部2へ送る。このようなタイミング制御が行われることにより、ボーカル音の再生が他の音楽情報の再生と同期して進められることとなる。
【0056】
さて、息つぎをしないで長時間に亙ってボーカル音が持続するような場合には、収録したボーカル音波形を幾つかのブロックに分断し、各ブロックに同期用タグを付加してCDに記録する必要がある。図4に示す例では、タグT1およびT2の付加された各ブロックが時間的に連続した状態で描かれているが、これらは元々連続したボーカル音波形であったものを2分割し、各々ボーカルデータとしてCDに記録したものである。
【0057】
このように時間的に連続したボーカルデータのブロックを再生する場合、各ボーカルデータの伸張処理の所要時間にむらが生じたりすると、各ボーカルデータに対応した各リニアPCMデータが連続的に再生されないこととなる。
【0058】
例えば図5に示す例では、タグT1の付加された先行ボーカルデータの伸張処理が早く終了してしまったため、タグT2の付加された後発ボーカルデータの伸張処理結果が得られるまでの間、リニアPCMデータが全く再生されない無音状態となっている。
【0059】
また、図6には、タグT1の付加された先行ボーカルデータの伸張処理が長引いてしまった場合の例が示されている。この例では、タグT2の付加された後発ボーカルデータの伸張処理が開始され、リニアPCMデータの出力が開始される時点において、先行のもののリニアPCMデータの出力が未だに終了していない。従って、この場合、先行のもののリニアPCMデータの出力を強制的に停止する必要があるが、この停止を行うと、再生ボーカル音に耳障りなノイズが生じることとなる。
【0060】
そこで、本実施形態では、CD再生部2内に2系統の再生系を設け、これらを用いて以下のように上記の問題に対処している。
【0061】
まず、CDから読み取られるボーカルデータの伸張処理は、ブロック単位で2系統の再生系を交互に使用することにより行う。そして、図5に示すように、先行のブロックの伸張処理が早く終了してしまう場合には、破線によって示すように、後発のブロックの伸張処理が開始されるまで先行のブロックの伸張処理を時間延長して行う(例えば最後の音のリニアPCMデータを繰り返し出力する)。
【0062】
一方、先行ボーカルデータの伸張処理が長引いた場合、先行ボーカルデータの伸張処理と後発ボーカルデータの伸張処理が2系統の再生系により時間的にオーバラップして行われる。そこで、このオーバラップ期間内は図6に破線で示すように、先行ボーカルデータから得られるリニアPCMデータについてはそのレベルを徐々に減衰させ、他方、後発ボーカルデータから得られるリニアPCMデータについてはそのレベルを0レベルから徐々に増大させ、各リニアPCMデータを混合してCD再生部2から出力する。いわゆるクロスフェードである。このクロスフェードを行うことにより、先行のリニアPCMデータから後発のものへ自然に移りゆくことなり、耳障りなノイズの発生が防止される。
【0063】
以上説明したように、本実施形態によれば、タグによって関連付けられた各パートの音楽情報を曲の進行に合わせて同期再生することができる。また、以上の説明では、CDおよびHD内の音楽情報を全て再生する場合を例に挙げたが、既に説明した通り、この音楽情報再生装置では、再生すべきパートを指定することができる。従って、例えばボーカルを除いたパートを再生すべきパートとして指定した場合には、HD内の歌詞データ、曲データ、ハモリ制御データのみが再生され、カラオケ装置としての動作が得られる。また、上記実施形態では、1種類の曲データを再生する場合を例に挙げたが、同一タグの付された複数パート分の曲データがHD内に格納されている場合には、これらの全ての曲データが並行して再生されることとなる。勿論、全てのパートではなく、特定のパートの曲データに限定して再生することも可能である。
【0064】
本発明の適用範囲は、上記実施形態に限定されるものではなく、以下のような種々の変形例が考えられる。
(1)HDとして記憶容量の大きなものを使用することができる場合には、CDからボーカルデータを読み出してHD内に格納し、HDからボーカルデータを含む全ての必要な音楽情報を読み出すようにしてもよい。この場合、1つの再生系により全ての音楽情報の同期再生が行われるので、タイミング制御が容易になるという利点がある。
【0065】
(2)曲データとして、MIDIイベントを含まず、音声波形を符号化したデジタルデータ(例えば上記実施形態におけるADPCMデータ等)のみからなるデータを使用してもよい。この場合、曲データをそのまま出力すればよいので、音源が不要になるという利点がある。
【0066】
(3)上記実施形態における音楽情報再生装置においては、同一の提供者から提供されたものであるか、複数の異なった提供者から提供されたものであるかに拘らず、同一のタグが付された音楽情報である限り、同一の曲に帰属するものとして取扱われる。従って、音楽情報を提供する複数の提供者間で、曲ごとに使用するタグを取り決めれば、需要者側では、同一曲を再生する場合であっても、様々な提供者から提供されるその曲の音楽情報を好みに合わせて選択し、再生することができる。
【0067】
(4)上記実施形態では、ボーカルデータをCDに記録して供給する形態を例に挙げたが、衛星放送により供給するようにしてもよい。
【0068】
【発明の効果】
以上説明したように、この発明によれば、提供者側から提供されるバックミュージック、ボーカル、歌詞等の音楽情報を需要者側で任意に組合せ、各音楽情報を同期させて再生することができるので、音楽についての多種多様な需要に対応することができるという効果がある。
【図面の簡単な説明】
【図1】 この発明の一実施形態における音楽情報の供給形態を示す図である。
【図2】 同供給形態の別の例を示す図である。
【図3】 この発明の一実施形態である音楽情報再生装置の構成を示すブロック図である。
【図4】 同実施形態の動作を示すタイムチャートである。
【図5】 同実施形態におけるボーカルデータの再生処理を示すタイムチャートである。
【図6】 同実施形態におけるボーカルデータの再生処理を示すタイムチャートである。
【符号の説明】
1……衛星放送受信部、
2……CD再生部、
3……HD駆動部(音楽情報保存手段)、 (以上、入力手段)
4……記録再生部(選択再生制御手段)、
5……バックミュージック用DSP、
6……ボーカル用DSP、7……音源、8……画像処理部、
9……テレビジョン受像機 (以上、再生手段)
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a music information reproducing apparatus used as a karaoke apparatus or the like.
[0002]
[Prior art]
With the advance of technology, the form of providing music has also diversified. For example, music was provided exclusively by records a decade ago, but now music is provided by a variety of recording media such as compact discs. Advances in communication technology have also enabled music to be provided to listeners with high quality. Especially in recent satellite broadcasting, many kinds of music are provided with extremely excellent sound quality by utilizing data compression technology and the like.
[0003]
[Problems to be solved by the invention]
The music provided to the consumer as described above is generally composed of a plurality of parts such as a melody, a rhythm, and a vocal, except for special cases such as solo music. Then, a song as a single finished product including all these parts is provided to the consumer in the various forms described above. In karaoke and the like, music lacking vocals is provided using communication or a recording medium, but for consumers, songs without vocals are provided as one complete product from the beginning. Not too much.
[0004]
In this way, music is provided to consumers in a single unit of music, but there are many ways to enjoy music that consumers want, not only as a finished product but also as a 1 or There is also a demand to enjoy the performance of multiple parts. Further, in this case, the combination of parts that the consumer desires varies depending on the consumer even when listening to the same song.
[0005]
It would be convenient if the customer side could enjoy combining any part of the music provided from the provider side, but no technical means suitable for this significance has been provided. Therefore, the inventor of the present application diligently studied the technical means suitable for this significance, but came to face a problem that is difficult to solve in this examination. In other words, when each part such as melody, rhythm, vocal, etc. is separated and provided to each customer, it is necessary for the consumer to perform synchronized playback of each part so that the playback of each part proceeds in line with each other. However, there is a problem of how to realize such a synchronized reproduction of a plurality of parts. Here, if only event information such as MIDI is to be provided to the consumer, there is a way to use a technology that has already been put to practical use in communication karaoke. However, the information provided to the consumer includes encoded data of continuous waveforms such as vocals. In order to construct technical means suitable for the above significance, means for synchronizing such reproduction processing of encoded data and reproduction processing of other part data (for example, MIDI event) is required. No means are currently provided.
[0006]
The present invention has been made in view of the circumstances described above, and provides a music information reproducing apparatus capable of arbitrarily combining music information provided from the provider side on the consumer side and reproducing them in synchronization with each other. It is intended to provide.
[0007]
[Means for Solving the Problems]
  According to the first aspect of the present invention, there is provided an input means for inputting music information including encoded digital data of each block obtained by dividing a speech waveform constituting a song and timing information for specifying a reproduction timing of the encoded digital data of each block; ,
  Reproduction means for performing reproduction processing of encoded digital data in the music information input by the input means;
  A time measuring means for measuring elapsed time;
  Based on the elapsed time measured by the time measuring means, the encoded digital data of each block in the music information input by the input means is reproduced at the timing specified by the timing information corresponding to the encoded digital data. The reproduction means is instructed to reproduce the encoded digital data of each blockMeans,
  The reproduction means has two reproduction systems for reproducing the encoded digital data, and sequentially executes reproduction processing of the encoded digital data of each block by alternately using each reproduction system for each block. If the playback processing of the subsequent block is started before the playback processing of the preceding block is completed, the signals obtained by the playback processing are combined during the period in which each playback processing is repeated. Output whatThe gist of the present invention is a music information reproducing apparatus.
[0008]
  The invention according to claim 2 is characterized in that the input means is the music information transmitted by satellite broadcasting.NewsThe gist of the music information reproducing apparatus according to claim 1, further comprising satellite broadcast receiving means for receiving.
[0009]
  According to a third aspect of the present invention, the input means includes the music information recorded on a recording medium.NewsThe music information reproducing apparatus according to claim 1, further comprising a reading unit.
[0011]
  Claim4The invention according to the present invention relates to a material constituting a song or a material accompanying the song.IsInput means for inputting a plurality of pieces of music information and identification information for identifying the music to which each piece of music information belongs and correlating each piece of music information belonging to the same song;
  SaidOf the music information input by the input means, music information comprising the encoded digital data of each block obtained by dividing the speech waveform constituting the song and the timing information specifying the reproduction timing of the encoded digital data of each block Of encoded digital dataPlayback means for performing playback processing;
  A time measuring means for measuring elapsed time;
  When there is an instruction to reproduce a specific song, one or more pieces of music information corresponding to the specific song are obtained based on each piece of identification information associated with each piece of music information input by the input means. Selection reproduction control means for selecting and instructing the reproduction means to reproduce the music information.,
  in frontThe music information including the encoded digital data and timing information, the selective reproduction control means, the encoded digital data of each block is converted into the encoded digital data based on the elapsed time measured by the time measuring means. Command the playback means to play back the encoded digital data of each block so that it is played back at the timing specified by the corresponding timing informationAnd
  The reproduction means has two reproduction systems for reproducing the encoded digital data, and sequentially executes reproduction processing of the encoded digital data of each block by alternately using each reproduction system for each block. If the playback processing of the subsequent block is started before the playback processing of the preceding block is completed, the signals obtained by the playback processing are combined during the period in which each playback processing is repeated. Output whatThe gist of the present invention is a music information reproducing apparatus.
[0012]
  Claim5The invention according toin frontThe selective reproduction control meansIn the reproduction meansEach playbacksystemBased on the processing delay of the playback processing performed bysystemThe timing for instructing the reproduction process to be corrected is corrected.4The gist of the music information reproducing apparatus described in the above.
[0013]
  Claim6The present invention includes music information storage means for storing the music information in association with the identification information, and the selective reproduction control means is stored by the music information input by the input means or the music information storage means The music information corresponding to the specific song is selected from music information.4Or5The gist of the music information reproducing apparatus described in the above.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, for easier understanding of the present invention, a music information providing system according to an embodiment of the present invention will be described with reference to the drawings. In addition, this embodiment shows one aspect | mode of this invention, This invention is not limited, It can change arbitrarily in the scope of the present invention.
[0015]
The music information providing system according to the present embodiment includes a provider that provides music information that represents material constituting a song or music information that represents material associated with a song, and a consumer who obtains this music information and plays the song. Consists of.
[0016]
On the provider side, the music is divided into several components (materials) such as vocal and back music, and music information expressing each is created. In addition, although not a constituent element of a song, for example, a song attached to a song such as lyrics is handled in the same manner, and music information is created for the lyrics. Each piece of music information created in this way is supplied to the consumer together with identification information indicating that each belongs to the same song.
[0017]
1 and 2 illustrate music information and identification information supplied from the supplier side in the present embodiment.
[0018]
First, in the example shown in FIG. 1, one piece of music is divided into vocals and other parts, and data including vocal data expressing vocals and other pieces of music data and lyrics data are supplied as music information. Is.
[0019]
Here, tags TAG1 and TAG2 are added to the head of each music information. These tags TAG1 and TAG2 include identification information indicating that each piece of music information relates to the same music.
[0020]
Next, in the example shown in FIG. 2, one piece of music is divided into male vocals, female vocals, and n musical instrument performance parts, and vocal data or song data representing each is supplied as music information. . In this example, the music information shown at the bottom of the drawing includes lyrics data and the like in addition to the song data of the nth part.
[0021]
As in the case of FIG. 1 above, tags TAG1-1 and TAG1-2 are added to male vocal data and female vocal data, and TAG2-1 to TAG2-n are added to n pieces of music data. It is clarified that each piece of music information belongs to the same song by a tag (specifically, identification information included in the tag).
[0022]
In each piece of music information, the vocal data includes a tag including the above identification information, and a synchronization tag for reproducing a vocal sound at a timing in accordance with the progress of the song (not shown). Details thereof will be described later. Details of vocal data, song data, etc. will also be described later.
[0023]
As described above, in the present embodiment, each piece of music information is supplied to the consumer together with identification information indicating which song each belongs to. Therefore, even if each piece of music information is supplied to the consumer through a separate route, the consumer side identifies each tag by adding a tag added to the head of each piece of music information. You can know that it belongs to music. In other words, in the past, a song was provided to a consumer as a single finished product, but in this embodiment, the material constituting the song or the material accompanying the song is recognized as a finished product. Are provided to consumers independently. If the individual materials are combined appropriately, it will constitute a song that is another finished product, but what materials are combined can be determined arbitrarily by the customer based on the tags attached to each. It's good.
[0024]
As shown in FIGS. 1 and 2, the identification information may be supplied separately to the music information as well as the music information, or may be supplied separately from the music information. For example, a notice such as “send music information at what time and in minutes” may be given, and the music information may be transmitted at the scheduled time. In this case, the content of the advance notice made in advance is the identification information. In short, the music information and the identification information need only be supplied in association with each other so that the music information can be associated with the identification information on the consumer side, and it is not always necessary to supply both as one.
[0025]
Music information and identification information are supplied from a provider to a consumer in the following form, for example.
a. Recording and shipping music information and tags on a recording medium
As the recording medium, for example, a CD (compact disc), an MD (mini disc), or the like can be considered.
b. A form in which music information and tags are transmitted by communication means
Various forms of communication are conceivable, and either wireless communication or wired communication can be used. For example, music information or the like may be transmitted to an unspecified number of consumers by wireless communication means such as satellite broadcasting, or may be supplied to a specific consumer through a wired line.
c. A specific type of music information of one song is recorded on a recording medium and shipped, and other types of music information are transmitted by communication means.
[0026]
Next, the consumer side device will be described. FIG. 3 is a block diagram showing the configuration of the music information reproducing apparatus according to this embodiment. The music information reproducing apparatus according to the present embodiment is used as a karaoke apparatus, and has a satellite broadcast receiving unit 1 and a CD reproducing unit 2 as the above-described music information input means. This music information reproducing apparatus receives each music information shown in FIG. 1 by these means and reproduces it as music.
[0027]
The satellite broadcast receiver 1 is means for receiving and demodulating music information and tags broadcast from communication satellites. In the present embodiment, music information including song data, lyrics data, and hammer control data is broadcast from a communication satellite together with a tag and received by the satellite broadcast receiving unit 1. Here, the song data is time-series data for generating instrument sounds and chorus sounds constituting the song, and MIDI events for instructing the pronunciation of instrument sounds and ADPCM (adaptive predictive coding) representing chorus sound waveforms. The data and the ADPCM playback event for instructing the chorus sound are mixed. The specific contents of the song data, the lyrics data, and the hammer control data will be described later.
[0028]
  The CD playback unit 2 is means for reading information from a CD. On the recording surface of the CD handled by the CD reproducing unit 2, vocal data obtained by encoding a vocal sound waveform at a predetermined sampling frequency and further performing compression processing is recorded together with a tag. CD playback unit 2Recording / playbackUnder the control of the unit 4, the vocal data is read from the CD, and the vocal data is subjected to expansion processing, thereby outputting linear PCM data representing the vocal sound. The CD playback unit 2 outputs the vocal data as it is without performing the decompression process, and records it.RecordThe playback unit 4 may be configured to perform vocal data expansion processing.
[0029]
The HD (hard disk) drive unit 3 is means for storing music information and tags acquired by the satellite broadcast receiving unit 1 in the HD and reproducing from the HD under the control of the recording / playback unit 4.
[0030]
The recording / reproducing unit 4 is the most characteristic means of this music information reproducing apparatus, and mainly performs the following functions.
[0031]
a. Function to save music information in HD by tag
Music information and tags are received from the satellite broadcast receiving unit 1, are associated with each other, and are stored in the HD by the HD driving unit 3.
[0032]
b. Playback of music information
  In the HD, song data, lyric data, and hammer control data of each song are stored in a state associated with a tag that identifies the song to which each song belongs. In addition, on the CD, vocal data of each song is stored in a state in which the vocal data is associated with a tag that identifies the song to which each song belongs. When a song to be played is specified by operating an operation unit (not shown),RecordThe playback unit 4 obtains a tag corresponding to the song. Then, by sending a command to the HD drive unit 3 or the CD playback unit 2, music information such as song data and vocal data associated with the tag is selected and played back from the HD and CD. Here, the music data read from the HD includes ADPCM data of chorus sound, but this ADPCM data is decoded into linear PCM data by the recording / reproducing unit 4.
[0033]
In this music information reproducing apparatus, a part to be reproduced can be designated by operating an operation unit (not shown). When this part is designated, the recording / reproducing unit 4 sends an instruction to the HD driving unit 3 or the CD reproducing unit 2 to reproduce only the music information of the designated part from the HD or CD.
[0034]
The control of the reproduction timing of each music information described above from the CD or HD will be described later.
[0035]
c. Sorting music information played from HD or CD
Vocal sound linear PCM data is reproduced from the CD. In addition, music data, lyrics data, and hammer control data are reproduced from the HD. The recording / reproducing unit 4 distributes each piece of information to an appropriate device. More specifically, the CD playback unit 2 outputs vocal PC linear PCM data, and the recording / playback unit 4 supplies this to the vocal DSP 6. The song data read by the HD drive unit 3 includes a MIDI event and chorus sound ADPCM data. The MIDI event is supplied to the sound source 7, and the ADPCM data is converted into linear PCM data for back music. Supply to DSP5. The lyrics data is supplied to the image processing unit 8, and the hammer control data is supplied to a vocal adapter (not shown).
[0036]
Next, each device for processing the music information distributed by the recording / reproducing unit 4 in this way will be described.
[0037]
First, the back music DSP 5 and the vocal DSP 6 perform various processes on the chorus sound and vocal sound linear PCM data reproduced via the recording / reproducing unit 4 as necessary. For example, when this music information reproducing apparatus is used as a karaoke apparatus, there is a case where the user is instructed to change the key. In such a case, each of these DSPs performs linear PCM according to the instructed key. Change the pitch period of the data.
[0038]
Next, the sound source 7 is a so-called MIDI sound source and forms a musical sound signal in accordance with a MIDI event reproduced via the recording / reproducing unit 4. The image processing unit 8 generates lyric image information according to the lyric data, synthesizes image information reproduced from a video reproduction device (not shown) and the lyric image information, and supplies the combined information to the television receiver 9. As a result, an image obtained by superimposing the lyrics on the video image is displayed on the television receiver 9.
[0039]
The mixer 10 receives the output signals of the back music DSP 5, vocal DSP 6, and sound source 7, and also inputs digital audio signals via a microphone, an A / D converter, and a vocal adapter (all not shown). Is done. The mixer 10 mixes these signals and outputs them from the sound system 11 as sound.
[0040]
Next, FIG. 4 shows the lyric data, the hamori control data and the song data reproduced from the HD, and the vocal data reproduced from the CD in time series. Each piece of music information is slightly different from each other, but material information that represents the material itself, such as lyrics and sounds, and this material information as materials (that is, as lyrics that can be grasped visually or sounds that can be grasped by hearing) ) Common in that it is composed of timing information that designates the timing of output to the outside. Hereinafter, with reference to FIG. 4, the details of the operation of reproducing the music information by the recording / reproducing unit 4 will be described.
[0041]
The lyric data is data obtained by chronologically organizing a lyric display event for instructing the image processing unit 8 to display lyrics and duration data Δt for designating a waiting time until the execution timing of the event.
[0042]
At the time of reproducing the music, the recording / reproducing unit 4 sequentially reproduces the duration data Δt and the lyrics display event from the HD while measuring the elapsed time by a timing unit (not shown), and waits for the passage of the time corresponding to the duration data Δt. The operation of supplying the lyric display event to the image processing unit 8 is repeated.
[0043]
Here, one lyric display event is a time series of a series of commands such as a lyric display command, a coloring command, a color erasing command,..., A coloring command, and a lysing command. These series of commands are sequentially supplied to the image processing unit 8 by the recording / reproducing unit 4. As a result, first or second line of lyrics is displayed on the television receiver 9, then the first word of the lyrics is colored, then the second word is colored, and so on. At the same time, lyrics are displayed and words to be uttered are colored.
[0044]
The hammer control data and the song data are basically time series data having the same configuration as the lyrics data. First, the hammer control data includes a hammer control event that specifies the pitch of the hammer part (chorus part) and duration data Δt.
[0045]
At the time of reproducing the music, the recording / reproducing unit 4 sequentially reproduces the duration data Δt and the hammer control event from the HD while measuring the elapsed time by the time measuring means, and waits for the passage of the time corresponding to the duration data Δt, and then the subsequent hammer. The operation of supplying a control event to a vocal adapter (not shown) is repeated. The supply of the hammer control data is performed in parallel with the supply of the lyric data to the image processing unit 8, and the control of the supply timing is performed using the same timing means as in the case of the lyric data.
[0046]
In the vocal adapter, the vocal sound signal input from the microphone is pitch-shifted according to the hamori control event, and a vocal sound signal corresponding to the pitch of the hamori part is generated. This sound part vocal sound signal is input to the mixer 10 together with the original vocal sound signal.
[0047]
The song data is composed of a MIDI event, an ADPCM playback event, duration data Δt, and an ADPCM data table.
[0048]
The MIDI event is an event for instructing the sound source 7 to form a specific musical sound signal. The ADPCM data table is a table composed of ADPCM data corresponding to various chorus sounds. The ADPCM playback event is an event for instructing playback of ADPCM data of a specific chorus sound in the ADPCM data table.
[0049]
The execution timing of the MIDI event is determined by the duration data Δt as in the case of the lyrics display event and the hammer control event. That is, each MIDI event is sent to the sound source 7 when a time corresponding to the duration data Δt placed before the MIDI event has passed, and is output as a sound.
[0050]
The ADPCM playback event is basically played back as a sound at the timing determined by the duration data Δt. However, since this playback process takes a certain amount of time, the time is required before the sound playback timing. Start with a margin. That is, prior to outputting a sound corresponding to an ADPCM playback event from the sound system 11, ADPCM data corresponding to the event is read from the ADPCM data table and converted to linear PCM data. The linear PCM data is sent to the back music DSP 5 and output from the sound system 11 as a chorus sound. The ADPCM data is read in advance so that the chorus sound is output at the timing determined by the duration data Δt. In FIG. 4, corresponding to three ADPCM playback events, ADPCM data of three chorus sounds are read from the ADPCM data table, and each chorus sound generated from each of these ADPCM data is represented by each ADPCM playback event. A state of output at the execution timing is shown.
[0051]
The lyric display event, the hammer control event, the MIDI event, and the ADPCM playback event described above are all controlled by using a common time measuring means (timing finally output as sound or image). Therefore, the lyrics display, the musical sound, and the chorus sound are reproduced as the music progresses.
[0052]
The recording / reproducing unit 4 controls the reproduction of vocal data by the CD reproducing unit 2 in parallel with the reproduction of the music information in the HD described above. Here, the vocal data is reproduced from the CD by the CD reproducing unit 2 which is a reproduction system different from the HD driving unit 3. Further, since the vocal data in the CD has been subjected to compression processing, it is decompressed during reproduction. Therefore, even if the reproduction of vocal data by the CD reproduction unit 2 is started at the same time as the reproduction of music information from the HD, if the song takes a long time, for example, as the song progresses, the vocal gradually begins with the back music. A situation such as delay may occur.
[0053]
Therefore, in this embodiment, a synchronization tag is inserted in advance in vocal data for one song in advance, and synchronization control using this synchronization tag is performed when reproducing vocal data. Thus, the vocal sound corresponding to the vocal data is reproduced at a timing that matches the progress of the song. Hereinafter, the synchronization control using the synchronization tag will be described.
[0054]
First, as shown in FIG. 4, the vocal data recorded on the CD is composed of a plurality of blocks of an appropriate size, and a synchronization tag T is placed at the head of each block.0, T1, T2, ... are added. Normally, humans take a breath even when singing a song, so that a vocal sound for one song can be divided into a plurality of blocks of sound waveforms of an appropriate length. Therefore, a block of vocal data is created for each block of these speech waveforms, and a tag is added to each block. Each tag T0, T1, T2,... Includes timing information for designating the timing at which a vocal sound corresponding to each added vocal data is to be reproduced, that is, how many seconds after the music reproduction is started.
[0055]
The recording / playback unit 4 reads and decompresses vocal data from the CD in units of blocks by the CD playback unit 2 in parallel with playback of other music information from the HD. Then, each of the linear PCM data obtained thereby is synchronized with the synchronization tag T added to each original vocal data.0, T1, T2,... Are sequentially supplied to the vocal DSP 6 at a timing corresponding to the timing information in the. The control of the supply timing of the linear PCM data is performed by using the time measuring unit used in the control of the execution timing of the above-described MIDI event or the like. Here, there is a certain delay time from when the instruction to read the vocal data of each block is given to the CD reproducing unit 2 until the linear PCM data corresponding to the block is output. Therefore, the recording / reproducing unit 4 includes0, T1, T2When the linear PCM data corresponding to each block with... Is reproduced, the reproduction instruction of each block is sent to the CD reproducing unit 2 before the reproduction timing by the delay time. By performing such timing control, the reproduction of the vocal sound is advanced in synchronization with the reproduction of other music information.
[0056]
If the vocal sound persists for a long time without breathing, the recorded vocal sound waveform is divided into several blocks, and a synchronization tag is added to each block to create a CD. Need to record. In the example shown in FIG.1And T2These blocks are drawn in a state of being temporally continuous, but these are those obtained by dividing the original continuous vocal sound waveform into two parts and recording them on a CD as vocal data.
[0057]
In this way, when reproducing a block of vocal data continuous in time, if the time required for decompression processing of each vocal data is uneven, each linear PCM data corresponding to each vocal data is not reproduced continuously. It becomes.
[0058]
For example, in the example shown in FIG.1Since the extension processing of the preceding vocal data to which the tag is added has been completed early, the tag T2Until the decompression processing result of the subsequent vocal data to which the is added is obtained, the linear PCM data is not reproduced at all.
[0059]
Further, in FIG.1An example is shown in which the extension processing of the preceding vocal data to which the above is added has been prolonged. In this example, the tag T2The output of the preceding linear PCM data has not yet been completed at the time when the decompression process of the subsequent vocal data to which “1” is added is started and the output of the linear PCM data is started. Therefore, in this case, it is necessary to forcibly stop the output of the preceding linear PCM data, but if this is stopped, annoying noise will be generated in the reproduced vocal sound.
[0060]
Therefore, in the present embodiment, two playback systems are provided in the CD playback unit 2, and the above problems are dealt with by using these playback systems.
[0061]
First, vocal data read from a CD is decompressed by alternately using two playback systems in units of blocks. As shown in FIG. 5, when the preceding block decompression process ends early, as shown by the broken line, the preceding block decompression process is continued until the subsequent block decompression process is started. This is performed in an extended manner (for example, linear PCM data of the last sound is repeatedly output).
[0062]
On the other hand, when the preceding vocal data decompression process is prolonged, the preceding vocal data decompression process and the subsequent vocal data decompression process are temporally overlapped by the two playback systems. Therefore, during this overlap period, as indicated by a broken line in FIG. 6, the level of the linear PCM data obtained from the preceding vocal data is gradually attenuated, while the level of the linear PCM data obtained from the subsequent vocal data is reduced. The level is gradually increased from the 0 level, and each linear PCM data is mixed and output from the CD reproducing unit 2. This is a so-called crossfade. By performing this crossfade, the preceding linear PCM data is naturally transferred to the later one, and generation of annoying noise is prevented.
[0063]
As described above, according to the present embodiment, the music information of each part associated by the tag can be synchronously reproduced in accordance with the progress of the song. In the above description, the case where all music information in the CD and HD is reproduced is taken as an example. However, as already described, in this music information reproducing apparatus, a part to be reproduced can be designated. Therefore, for example, when a part excluding vocals is designated as a part to be reproduced, only the lyrics data, song data, and hammer control data in the HD are reproduced, and an operation as a karaoke apparatus is obtained. Further, in the above embodiment, the case where one kind of music data is reproduced has been taken as an example. However, when music data for a plurality of parts with the same tag is stored in the HD, all of them are stored. Are reproduced in parallel. Of course, it is also possible to reproduce only the music data of a specific part instead of all parts.
[0064]
The scope of application of the present invention is not limited to the above-described embodiment, and the following various modifications can be considered.
(1) When a HD having a large storage capacity can be used, vocal data is read from the CD and stored in the HD, and all necessary music information including the vocal data is read from the HD. Also good. In this case, since all music information is synchronously reproduced by one reproduction system, there is an advantage that timing control becomes easy.
[0065]
(2) As music data, data including only MIDI data (eg, ADPCM data in the above-described embodiment) that does not include a MIDI event and encodes a voice waveform may be used. In this case, it is only necessary to output the music data as it is.
[0066]
(3) In the music information reproducing device in the above embodiment, the same tag is attached regardless of whether the music information is provided from the same provider or from a plurality of different providers. As long as the music information is recorded, it is handled as belonging to the same song. Therefore, if a tag to be used for each song is decided between a plurality of providers providing music information, even if the customer plays the same song, it is provided by various providers. The music information of a song can be selected and played according to preference.
[0067]
(4) In the above-described embodiment, an example in which vocal data is recorded and supplied on a CD has been described as an example, but may be supplied by satellite broadcasting.
[0068]
【The invention's effect】
As described above, according to the present invention, music information such as back music, vocals, and lyrics provided from the provider side can be arbitrarily combined on the consumer side, and each music information can be reproduced in synchronization. Therefore, there is an effect that it can respond to various demands for music.
[Brief description of the drawings]
FIG. 1 is a diagram showing a supply form of music information according to an embodiment of the present invention.
FIG. 2 is a diagram showing another example of the supply form.
FIG. 3 is a block diagram showing a configuration of a music information reproducing apparatus according to an embodiment of the present invention.
FIG. 4 is a time chart showing the operation of the embodiment.
FIG. 5 is a time chart showing vocal data reproduction processing in the embodiment;
FIG. 6 is a time chart showing vocal data reproduction processing in the embodiment;
[Explanation of symbols]
1 ... Satellite broadcast receiver,
2 ... CD player
3. HD drive unit (music information storage means) (End of input means)
4. Recording / playback unit (selective playback control means)
5 …… Back music DSP,
6 ... DSP for vocals, 7 ... Sound source, 8 ... Image processing unit,
9 …… TV receiver (reproduction means)

Claims (6)

曲を構成する音声波形を分割した各ブロックの符号化デジタルデータおよび各ブロックの符号化デジタルデータの再生タイミングを指定するタイミング情報からなる音楽情報を入力する入力手段と、
前記入力手段により入力された音楽情報における符号化デジタルデータの再生処理を行う再生手段と、
経過時間を計測する計時手段と、
前記計時手段によって計測される経過時間に基づき、前記入力手段により入力された音楽情報における前記各ブロックの符号化デジタルデータが当該符号化デジタルデータに対応したタイミング情報によって指定されたタイミングで再生されるように前記各ブロックの符号化デジタルデータの再生処理を前記再生手段に指令する手段とを具備し、
前記再生手段は、前記符号化デジタルデータを再生する2系統の再生系を有し、各ブロック単位で各再生系を交互に使用することにより、各ブロックの符号化デジタルデータの再生処理を順次実行し、先行するブロックの再生処理が終了する前に後発のブロックの再生処理を開始することとなる場合には、各再生処理が重複して行われる期間、各再生処理により得られる各信号を合成したものを出力する
ことを特徴とする音楽情報再生装置。
Input means for inputting music information composed of encoded digital data of each block obtained by dividing a speech waveform constituting a song and timing information for specifying reproduction timing of the encoded digital data of each block;
Reproduction means for performing reproduction processing of encoded digital data in the music information input by the input means;
A time measuring means for measuring elapsed time;
Based on the elapsed time measured by the time measuring means, the encoded digital data of each block in the music information input by the input means is reproduced at the timing specified by the timing information corresponding to the encoded digital data. Means for instructing the reproduction means to reproduce the encoded digital data of each block as described above ,
The reproduction means has two reproduction systems for reproducing the encoded digital data, and sequentially executes reproduction processing of the encoded digital data of each block by alternately using each reproduction system for each block. If the playback processing of the subsequent block is started before the playback processing of the preceding block is completed, the signals obtained by the playback processing are combined during the period in which each playback processing is repeated. A music information reproducing apparatus characterized in that the output is output .
前記入力手段は、衛星放送により送信された前記音楽情報を受信する衛星放送受信手段を具備することを特徴とする請求項1に記載の音楽情報再生装置。It said input means, the music information reproducing apparatus according to claim 1, characterized in that it comprises a satellite receiving means for receiving the music information transmitted by satellite. 前記入力手段は、記録媒体に記録された前記音楽情報を読み取る手段を具備することを特徴とする請求項1に記載の音楽情報再生装置。Said input means, the music information reproducing apparatus according to claim 1, characterized in that it comprises means for reading said music information recorded on the recording medium. 曲を構成する素材または曲に付随した素材である複数の音楽情報と、各音楽情報が帰属する曲を特定し、かつ、同一の曲に帰属する各音楽情報を相互に関連付ける識別情報とを各々入力する入力手段と、
前記入力手段により入力された音楽情報のうち、曲を構成する音声波形を分割した各ブロックの符号化デジタルデータと、各ブロックの符号化デジタルデータの再生タイミングを指定するタイミング情報とからなる音楽情報について、符号化デジタルデータの再生処理を行う再生手段と、
経過時間を計測する計時手段と、
特定の曲の再生の指示があった場合には、前記入力手段により入力された各音楽情報に関連付けられた各識別情報に基づいて、当該特定の曲に対応した1または2以上の音楽情報を選択し、当該音楽情報についての再生処理を前記再生手段に指令する選択再生制御手段とを具備し
記選択再生制御手段は、前記符号化デジタルデータとタイミング情報とを含む音楽情報については、前記計時手段によって計測される経過時間に基づき、前記各ブロックの符号化デジタルデータが当該符号化デジタルデータに対応したタイミング情報によって指定されたタイミングで再生されるように前記各ブロックの符号化デジタルデータの再生処理を前記再生手段に指令し、
前記再生手段は、前記符号化デジタルデータを再生する2系統の再生系を有し、各ブロック単位で各再生系を交互に使用することにより、各ブロックの符号化デジタルデータの再生処理を順次実行し、先行するブロックの再生処理が終了する前に後発のブロックの再生処理を開始することとなる場合には、各再生処理が重複して行われる期間、各再生処理により得られる各信号を合成したものを出力する
とを特徴とする音楽情報再生装置。
A plurality of pieces of music information which is a material constituting a song or a material attached to a song, and identification information for identifying a song to which each piece of music information belongs and correlating each piece of music information belonging to the same song Input means for inputting;
Of the music information input by the input means, music information comprising encoded digital data of each block obtained by dividing a speech waveform constituting a song, and timing information designating the reproduction timing of the encoded digital data of each block Reproducing means for performing reproduction processing of encoded digital data ,
A time measuring means for measuring elapsed time;
When there is an instruction to reproduce a specific song, one or more pieces of music information corresponding to the specific song are obtained based on each piece of identification information associated with each piece of music information input by the input means. And a selection reproduction control means for selecting and instructing the reproduction means to reproduce the music information ,
Before Symbol selection reproduction control means, wherein the music information including encoded digital data and timing information, based on the elapsed time measured by said time measuring means, the coded digital data is the coded digital data of each block The reproduction means is instructed to reproduce the encoded digital data of each block so that it is reproduced at the timing specified by the timing information corresponding to
The reproduction means has two reproduction systems for reproducing the encoded digital data, and sequentially executes reproduction processing of the encoded digital data of each block by alternately using each reproduction system for each block. If the playback processing of the subsequent block is started before the playback processing of the preceding block is completed, the signals obtained by the playback processing are combined during the period in which each playback processing is repeated. Output what
Music information reproducing apparatus according to claim and this.
記選択再生制御手段は、前記再生手段における各再生によって行われる再生処理の処理遅延に基づき、当該再生に対して再生処理を指令するタイミングを補正することを特徴とする請求項に記載の音楽情報再生装置。 Before Symbol Selection regeneration control means, based on the processing delay of the playback processing performed by each of the reproduction system of the reproducing device, in claim 4, characterized in that for correcting the timing of an instruction to play back process to the regeneration system The music information reproducing apparatus described. 前記音楽情報を前記識別情報と関連付けて保存する音楽情報保存手段を具備し、前記選択再生制御手段が前記入力手段により入力される音楽情報または前記音楽情報保存手段によって保存された音楽情報の中から前記特定の曲に対応した音楽情報の選択を行うことを特徴とする請求項またはに記載の音楽情報再生装置。Music information storing means for storing the music information in association with the identification information, wherein the selective reproduction control means is selected from the music information input by the input means or the music information stored by the music information storage means. music information reproduction apparatus according to claim 4 or 5, characterized in that the selection of music information corresponding to the particular song.
JP04942597A 1997-03-04 1997-03-04 Music information playback device Expired - Fee Related JP3900576B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP04942597A JP3900576B2 (en) 1997-03-04 1997-03-04 Music information playback device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04942597A JP3900576B2 (en) 1997-03-04 1997-03-04 Music information playback device

Publications (2)

Publication Number Publication Date
JPH10247091A JPH10247091A (en) 1998-09-14
JP3900576B2 true JP3900576B2 (en) 2007-04-04

Family

ID=12830747

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04942597A Expired - Fee Related JP3900576B2 (en) 1997-03-04 1997-03-04 Music information playback device

Country Status (1)

Country Link
JP (1) JP3900576B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3846425B2 (en) 2003-01-14 2006-11-15 ヤマハ株式会社 Performance information reproducing apparatus and program
JP2005339615A (en) * 2004-05-24 2005-12-08 Funai Electric Co Ltd Information playback system

Also Published As

Publication number Publication date
JPH10247091A (en) 1998-09-14

Similar Documents

Publication Publication Date Title
US5454723A (en) Karaoke apparatus and method for medley playback
US20020189429A1 (en) Portable digital music player with synchronized recording and display
US7683251B2 (en) Method and apparatus for playing in synchronism with a digital audio file an automated musical instrument
JP2008505430A (en) How to record, play and manipulate acoustic data on data support
CN102822887B (en) mixing data delivery server
JP3900576B2 (en) Music information playback device
JP4107212B2 (en) Music playback device
JPH10247090A (en) Transmitting method, recording method, recording medium, reproducing method, and reproducing device for musical sound information
JP2007133440A (en) Music information reproducing apparatus
JP3320056B2 (en) Karaoke video playback device
JP2000137490A (en) Karaoke sing-along machine
JP3178694B2 (en) Karaoke equipment
JP2975535B2 (en) Music / video playback device
KR100826659B1 (en) Method for listening specific performance part which is erased or selected from music file
JP2972073B2 (en) Video playback device
JP2950379B2 (en) Electronic music player
JP2000122672A (en) Karaoke (sing-along music) device
JP2548723Y2 (en) Music playback device
JPH04190397A (en) 'karaoke' (instrumental accompaniment) data recording medium and 'karaoke' (instrumental accompaniment) performing device
JP3911243B2 (en) Karaoke device characterized by karaoke video system
JPH01204271A (en) Video acoustic reproducing device
JPH04238393A (en) Music reproducing device with back-ground chorus reproducing function
JPH03253889A (en) Acoustic device with video composing function
JP2001344878A (en) Reproducing device
JPH07182789A (en) Cd-rom and cd-rom reproducing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20031209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060926

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061225

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110112

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120112

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130112

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140112

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees