JP2006084748A - 再生装置および再生方法 - Google Patents

再生装置および再生方法 Download PDF

Info

Publication number
JP2006084748A
JP2006084748A JP2004269085A JP2004269085A JP2006084748A JP 2006084748 A JP2006084748 A JP 2006084748A JP 2004269085 A JP2004269085 A JP 2004269085A JP 2004269085 A JP2004269085 A JP 2004269085A JP 2006084748 A JP2006084748 A JP 2006084748A
Authority
JP
Japan
Prior art keywords
content data
audio content
data
audio
signal processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004269085A
Other languages
English (en)
Other versions
JP4412128B2 (ja
Inventor
Yasushi Miyajima
靖 宮島
Katsuaki Yamashita
功誠 山下
Motoyuki Takai
基行 高井
Yoichiro Sako
曜一郎 佐古
Toshiro Terauchi
俊郎 寺内
Toru Sasaki
徹 佐々木
Yuichi Sakai
祐市 酒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004269085A priority Critical patent/JP4412128B2/ja
Priority to US11/211,461 priority patent/US7728215B2/en
Priority to EP05255401A priority patent/EP1638100A1/en
Priority to KR1020050083814A priority patent/KR101136974B1/ko
Priority to CN2005101031544A priority patent/CN1838229B/zh
Publication of JP2006084748A publication Critical patent/JP2006084748A/ja
Application granted granted Critical
Publication of JP4412128B2 publication Critical patent/JP4412128B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/11Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information not detectable on the record carrier
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals

Abstract

【課題】豊富に利用可能な音声コンテンツデータに対し、後から独自の編曲(アレンジ)などを簡単かつ迅速に行って、音声コンテンツデータのさまざまな態様での再生を実現できるようにする。
【解決手段】コンテンツデータ読取り部12によって取得される音声コンテンツデータに対しては、当該音声コンテンツデータに対応する付加情報であって、付加データ読取り部22により取得された付加データに基づいて、コンテンツデータ信号処理部14、付加データ信号処理部24、MIDI発音部25、音声加算・編集部31、出力用信号処理部32のうちの必要な部分が機能して、信号処理を施すことによりアレンジするようにし、このアレンジされた音声コンテンツデータを再生できるようにする。
【選択図】図1

Description

この発明は、例えば、CD(Compact Disc)、MD(Mini Disc(登録商標))、DVD(Digital Versatile Disc)、ハードディスク、半導体メモリーカードなどの種々の記録媒体やインターネットなどのネットワークを通じて提供される音声コンテンツデータの再生装置、再生方法に関する。
昨今の携帯型のシリコンオーディオプレイヤーやハードディスク音楽プレイヤーの台頭によって、数百〜数万曲の楽曲(音楽コンテンツ)を1台の再生装置内部の記録媒体に記録し、これを再生することができるようになり、ユーザーは自分の好みの楽曲をすべて持ち出して、これをいつでも再生して聴けるようになった。
数多くの楽曲を記録媒体に記録し、再生可能にしておくことで長時間音楽を楽しむことができ、また、再生順番をランダムに変更して再生するいわゆるシャッフル再生を行うことで思いもよらなかった曲順で楽曲を聴けるため飽きがきにくい。しかしながら、これらのオーディオプレイヤーは予め録音された楽曲を単純に再生するだけであり、曲数は増えているが1曲1曲について見れば、毎回同じ音声を再生しているにすぎない。
一方、音楽業界について動向をうかがってみると、既存の曲を編曲するなどしたリミックスアルバムが数多く発売されている。また、DJ(Disk Jockey)という職種が定着し、既存の音楽を素材として新たな曲に仕立て上げることはいまや珍しいことではない。また、プロ、セミプロ、音楽を趣味とする一般ユーザー用にサンプリングした音声を自由にピッチ変換、テンポ変換して合成するソフトウェアおよびハードウェアも存在する。
例えば、後に記す特許文献1には、キーボードやマウスを介したユーザー入力に応じて、複数の音素材を組み合わせて楽曲を対話的に編集したり再生したりできるようにする情報処理装置、情報処理方法についての技術が開示されている。この特許文献1に記載の技術を用いることにより、比較的に簡単に音素材を処理し、編集して楽しむことができるようにされる。
特開2003−044046号公報
ところが、上述の特許文献1に記載の技術や、音楽編集のためのソフトウェアやハードウェアは、あくまでもある程度の編曲の技術を持った人物が編曲を行い、編曲した結果を一般のユーザーが聴いて楽しむものである。DJなどのようにリアルタイムに楽曲を編曲(アレンジ)することも可能であるが、DJの能力や嗜好・趣向によるところが大きく、自分の好みの楽曲に対して好みの編曲(アレンジ)をくわえることができるわけではない。
このため、自分の好みの楽曲に対して、再生テンポ、再生ピッチ、再生音量などを簡単に調整できるようにしたり、新しい音声を合成したり、挿入したり、あるいは、自分の好みの楽曲について、気に入っている部分を複数回繰り返すようにしたり、不要と思われる部分を削除したりして、自由に、しかもできるだけ簡単に、楽曲を編曲(アレンジ)して個人的に利用できるようにしたいとする要求がある。
以上の点に鑑み、この発明は、豊富に利用可能な音声コンテンツデータに対し、後から独自の編曲(アレンジ)などを簡単かつ迅速に行って、音声コンテンツデータのさまざまな態様での再生を実現できるようにする再生装置、および、再生方法を提供することを目的とする。
上記課題を解決するため、請求項1に記載の発明の再生装置は、
再生対象の音声コンテンツデータを取得する第1の取得手段と、
前記第1の取得手段により取得される前記音声コンテンツデータに対応する付加情報を取得する第2の取得手段と、
前記第2の取得手段により所得される前記付加情報に基づいて、前記第1の取得手段により取得される前記音声コンテンツデータに対して信号処理を加えるようにし、処理後の前記音声コンテンツデータによるコンテンツに変化を与えるようにする信号処理手段と
を備えることを特徴とする。
この請求項1に記載の再生装置によれば、第1の取得手段によって取得された音声コンテンツデータに対しては、当該音声コンテンツデータに対応する付加情報であって、第2の取得手段により取得された付加情報に基づいて、信号処理手段によって信号処理が施され、アレンジするようにされる。
これにより、信号処理後の音声コンテンツデータを再生することにより得られるコンテンツに変化を与えることができるようにされる。したがって、当該音声コンテンツデータを通常通り再生した場合と異なる態様のコンテンツをユーザーに提供することができるようにされる。
また、請求項2に記載の再生装置は、請求項1に記載の再生装置であって、
前記信号処理手段は、前記音声コンテンツデータについての再生テンポの変更、再生ピッチの変更、再生音量の変更、前記音声コンテンツデータへの1つ以上の音声データの合成、1つ以上の音声データの挿入、前記音声コンテンツデータの部分的な並べ替え、部分的な繰り返し、部分的な削除、前記音声コンテンツデータに対するエフェクトの適用のうちの少なくとも1つ以上を行うようにすることにより、前記コンテンツに変化を与えることを特徴とする。
この請求項2に記載の再生装置によれば、信号処理手段においては、音声コンテンツデータの再生テンポ、再生ピッチ、再生音量の変更のほか、1つ以上の音声データの合成や挿入、音声コンテンツデータの部分的な並べ替え、繰り返し、削除などの編集処理や、音声コンテンツデータに対するエフェクト処理などを施すことができるようにされる。
これにより、既存の音声コンテンツデータによるコンテンツを、これに対応する予め用意される付加情報に応じて種々の態様でアレンジすることができるようにされ、このアレンジされた音声コンテンツデータに応じたコンテンツが再生されてユーザーに提供するようにされる。したがって、既存の音声コンテンツデータを新たな種々の態様で再生し、これをユーザーに提供することができるようにされる。
また、請求項3に記載の発明の再生装置は、請求項1に記載の再生装置であって、
前記付加情報は、前記音声コンテンツデータの目的とする部分を特定する時間情報と対応付けられており、
前記信号処理手段は、前記時間情報と対応付けられた前記付加情報に基づいて、前記音声コンテンツデータの目的とする部分に信号処理を施すようにして、前記コンテンツに変化を与えるようにすることを特徴とする。
この請求項3に記載の発明の再生装置によれば、付加情報は、対応付けられた時間情報によって、音声コンテンツデータのどの部分に対する付加情報であるかを特定することができるようにされる。これにより、信号処理手段において、音声コンテンツデータの目的とする部分に目的とする信号処理を容易に施すことができるようにされる。
また、請求項4に記載の発明の再生装置は、請求項1または請求項3に記載の再生装置であって、
前記付加情報は、前記音声コンテンツデータのテンポ、コード進行、音高、音長、拍子、構造情報、楽器の種類、音量のうちの少なくとも1つ以上を含むものであり、
前記信号処理手段は、前記付加情報により、前記音声コンテンツデータの元の状態を把握することを特徴とする。
この請求項4に記載の発明の再生装置によれば、付加情報に含まれる情報によって、テンポ、コード進行、音高、音長、拍子などの再生対象の音声コンテンツデータの既存の状態が把握できるようにされる。これにより、再生対象の音声コンテンツデータ自体に対して実際にどのような信号処理を施すかを正確に特定し、信号処理手段において、適切に信号処理を施すことができるようにされる。
また、請求項5に記載の発明の再生装置は、請求項4に記載の再生装置であって、
前記構造情報は、前記音声コンテンツデータの繰り返しパターン、イントロ部分、サビ部分、Aメロ部分、Bメロ部分、リフ部分(曲の中で何回か繰り返される1、2小節〜4小節程度からなる印象的なフレーズ)を示す時間情報を含んでおり、
前記信号処理手段は、前記構造情報に基づいて、前記音声コンテンツデータの信号処理前の元のデータ構造を把握することを特徴とする。
この請求項5に記載の発明の再生装置によれば、付加情報には再生対象の音声コンテンツデータの構造情報が含まれており、この構造情報により、再生対象の音声コンテンツデータの繰り返しパターン、イントロ部分、サビ部分などの構造を把握することができるようにされる。
これにより、例えば、繰り返しを増やしたり減らしたり、また、イントロ部分を削除したり、サビ部分を繰り返したりといった、コンテンツの構造を変更するようにするアレンジを、信号処理手段において簡単に行うことができるようにされる。
また、請求項6に記載の発明の再生装置は、請求項1、請求項3、請求項4または請求項5に記載の再生装置であって、
前記付加情報は、前記音声コンテンツデータに対して合成あるいは挿入するための1つ以上の音声データを含んでおり、
前記信号処理手段は、前記音声コンテンツデータに対して、前記付加情報に含まれる音声データを合成あるいは挿入する処理を行うことができるものであることを特徴とする。
この請求項6に記載の発明の再生装置によれば、付加情報には、再生対象の音声コンテンツデータに対して合成したり、挿入したりするための音声データが含まれており、当該付加情報に含まれている音声データが信号処理手段において、再生対象の音声コンテンツデータに対して合成したり、挿入したりすることができるようにされる。
これにより、再生対処の音声コンテンツデータに対して、付加情報に含めて提供される音声データを合成したり、挿入したりして新たな音声が付加するようにされた音声コンテンツをユーザーに提供することができるようにされる。
また、請求項7に記載の発明の再生装置は、請求項6に記載の再生装置であって、
前記信号処理手段は、前記付加情報に含まれる前記音声データに対して、テンポの変更、ピッチの変更、音量の変更、エフェクト適用を行って、前記音声コンテンツデータへの合成あるいは挿入するようにすることを特徴とする。
この請求項7に記載の発明の再生装置によれば、付加情報に含まれる音声データに対しても、信号処理手段において、テンポ、ピッチ、音量の変更や、エフェクトを加える処理などを行うことができるようにされる。
これにより、付加情報に含まれる音声データを再生対象の音声コンテンツデータに対して適正に合成したり挿入したりすることができるようにされる。したがって、付加情報に含まれる音声データを合成したり挿入したりした音声コンテンツデータを再生して得られるコンテンツがユーザーに対して違和感を与えることもないようにされる。
この発明によれば、既存の楽曲などの音声コンテンツデータを単に再生して楽しむだけでなく、その音声コンテンツデータにより提供される楽曲などの音声コンテンツをベースにして、これにさまざまなアレンジを加えて楽しむことが可能となる。
また、同じ音声コンテンツデータによる音声コンテンツであっても、ユーザー1人1人の好みに合わせたアレンジが可能で、さらにそのときの気分によってノリのよいアレンジにしてみたり、しっとりと落ち着いたアレンジにしてみたりとさまざまなシチュエーションに合わせた編曲(アレンジ)とその再生が可能となる。
また、再生対象の音声コンテンツデータを含まない、いわゆるアレンジ情報だけをまとめた「付加情報」のみを提供するようにしているので、再生対象の音声コンテンツデータを持っているユーザーのみが、再生時においてアレンジを行った音声コンテンツを聴取することができるようにされ、個人的な利用の範囲内において、音声コンテンツデータに信号処理を加えて利用することができる。
また、再生対象の音声コンテンツデータとは別に、音声コンテンツデータに対してアレンジを施すための付加情報を作成し流通させることによって、音声コンテンツの楽しみ方の新たな態様を提供することができ、音楽産業全体の活性化を促進させることができる。
[再生装置について]
図1は、この発明による装置、方法の一実施の形態が適用された再生装置を説明するためのブロック図である。CDやMDなどの種々の記録媒体やインターネットなどのネットワークを通じて豊富に提供されるようになった楽曲の音声コンテンツデータ(オリジナルデータ)に対して、その音声コンテンツデータとは別個に用意される付加情報を用いて種々のアレンジを施すようにして再生することができるようにしたものである。
図1に示すように、この実施の形態の再生装置は、音声コンテンツデータ処理系10と、付加データ(付加情報)処理系20と、出力データ処理系30と、制御部40と、時間計測部50と、音声コンテンツデータ・付加データ対応データベース(以下、対応DBという。)60からなっている。
音声コンテンツデータ処理系10は、図1に示すように、コンテンツデータ記憶部11と、コンテンツデータ読取り部12と、デコード部13と、コンテンツデータ信号処理部14とを備えたものである。そして、音声コンテンツデータ処理系10は、コンテンツデータ記憶部11から再生対象の楽曲の音声コンテンツデータを読取って(取得して)、この読取った音声コンテンツデータに対して種々のアレンジを施すための処理を行う部分である。
付加データ処理系20は、図1に示すように、付加データ記憶部21と、付加データ読取り部22と、デコード部23と、付加データ信号処理部24と、MIDI(Musical Instrument Digital Interface)発音部25とを備えたものである。そして、付加データ処理系20は、音声コンテンツデータ処理系10において処理の対象になっている音声コンテンツデータに対応する付加データを付加データ記憶部21から読取り(取得し)、この取得した付加データに基づいて、音声コンテンツデータ処理系に対して信号処理の内容を指示したり、付加データに含まれる音声データに対して処理を施して、再生対象の音声コンテンツデータに対して合成したり、挿入したりできるようにする処理を行う部分である。
出力データ処理系30は、図1に示したように、音声加算・編集部31と、出力用信号処理部32と、D/A(Digital/Analog)変換部(以下、D/A部という。)33と、スピーカなどの出力装置部34とを備えたものである。そして、出力データ処理系30は、音声コンテンツデータ処理系10からの処理済みの音声コンテンツデータと、付加データ処理系20からの音声データを加算(合成)したり、挿入したり、あるいは、音声コンテンツデータ処理系10からの処理済みの音声コンテンツデータの一部分を削除したり、並べ替えたりするなどの処理を行うとともに、出力対象の音声コンテンツデータに対して種々のエフェクト処理をも行うものである。
制御部40は、CPU(Central Processing Unit)41、ROM(Read Only Memory)42、RAM(Random Access Memory)43を備えたマイクロコンピュータであり、この実施の形態の再生装置の各部を制御するものである。制御部40には、ユーザーからの操作入力を受け付ける操作部45が接続されている。これにより、制御部40は、操作部45を通じて受け付けたユーザーからの操作入力に応じて各部を制御することができるようにされる。
時間計測部50は、コンテンツデータ読取り部12、付加データ読取り部22、付加データ信号処理部24、MIDI発音部25のそれぞれにおいての処理の同期を取るようにするためのいわゆるタイミング制御機能を有するものである。また、対応DB60は、再生対象の音声コンテンツデータとこれに対応する付加データとの対応付けを管理するためのものである。
そして、音声コンテンツデータ処理系10において、コンテンツデータ読取り部12は、操作部45を通じて受け付けたユーザーからの操作入力に応じて、既に録音済みの楽曲の音声コンテンツデータを読取る。この場合、音楽の提供元は、図1に示したように、CD、DVD、MDなどのディスク媒体11a、磁気ディスク11b、半導体メモリー11c、インターネット上のサーバやピア・ツー・ピア(Peer to Peer)コネクションされたパーソナルコンピュータなど、WAN(Wide Area Network)やLAN(Local Area Network)などのネットワーク11dなどである。
したがって、コンテンツデータ読取り部12は、音声コンテンツデータの提供元がCD、DVD、MDなどの光ディスク、光磁気ディスクである場合には、光ピックアップなどを備えた読取り装置部であり、音声コンテンツデータの提供元が磁気ディスクの場合には、磁気ヘッドなどを備えた読取り装置部であり、音声コンテンツデータの提供元が半導体メモリーの場合には、メモリーへのアクセス手段を備えた読取り装置部である。また、音声コンテンツの提供元がネットワークである場合には、コンテンツデータ読取り部12は、ネットワークへの接続機能を備えた通信部ということになる。
コンテンツデータ読取り部12により読取られた音声コンテンツデータが、ATRAC(Adaptive Transform Acoustic Coding)方式やMP3(MPEG-1 Audio Layer-3)方式などのデータ圧縮技術によりデータ圧縮されたものである場合には、デコード部13は音声コンテンツデータをその圧縮方式に従ってデコード処理し、リニアPCM(Plus Code Modulation)データに変換して、これをコンテンツデータ信号処理部14に供給する。
一方、付加データ処理系20の付加データ読取り部22は、制御部40の制御に応じて、コンテンツデータ処理系10のコンテンツデータ読取り部12によって読取られた音声コンテンツデータに対応する付加データを読取る。この実施の形態において、再生対象の音声コンテンツデータとこれに対応する付加データとには、同じ識別子が付加されており、音声コンテンツデータと付加データとの対応付けを確実に取ることができるようにしている。
そして、付加データが記憶保持されている読取り先のメディアは、音声コンテンツ処理系10の場合と同様に、既存のCD、DVD、MDなどの光ディスクや光磁気ディスクなどのディスク媒体21a、磁気ディスク21b、半導体メモリー21c、WAN(Wide Area Network)やLAN(Local Area Network)などのネットワーク21dなど、音声コンテンツデータの記録や読出しができる形態であればどのようなものであってもよい。
また、この実施の形態の付加データ読取り部22は、例えば、CPUやメモリーを備え、詳しくは後述もするように、付加データに含められて提供される種々のアレンジ処理のためのデータからデータテーブルやデータマップを形成し、これらを必要な処理部に供給することができるものである。また、付加データに含められて提供されるアレンジ用音声データは、付加データ読取り部22から付加データ信号処理部24に供給される。
なお、付加データに含められて提供されるアレンジ用音声データがデータ圧縮されたものであるある場合には、当該音声データはデコード部23においてその圧縮方式に応じてデコード処理され、リニアPCMデータに変換された後に付加データ信号処理部24に供給される。また、付加データに含められてMIDIデータが適用された場合には、当該MIDIデータは付加データ読取り部22からMIDI発音部25に供給され、リニアPCMデータに変換される。
そして、時計計測部50は、再生対象の音声コンテンツデータについての再生時間および再生位置を管理しており、これらの管理している値に基づいて、コンテンツデータ読取り部12、付加データ読取り部22のデータの読取りタイミングや読取り位置を制御し、必要な部分の音声コンテンツデータ、必要な部分の付加データを読み出すことができるようにしている。
音声コンテンツデータ処理系10のコンテンツデータ信号処理部14は、詳しくは後述もするが、付加データ処理系20の付加データ読取り部22からのアレンジのためのデータの供給を受けて、これに基づき、音声コンテンツデータに対して信号処理を施して、当該音声コンテンツデータにより得られるコンテンツ(再生音声)に変化を与える(アレンジを行う)。具体的には、後述もするように、テンポの変更、ピッチの変更、エフェクトの適用、音量の変更などの各処理が行うようにされる。
付加データ処理系20の付加データ信号処理部24は、付加データに含まれるアレンジ用音声データに対して、付加データに含まれる情報に基づいて所定の信号処理を施すことにより変化を与えるようにする。具体的には、後述もするが、テンポの変更、ピッチの変更、エフェクトの適用、音量の変更などである。このようにアレンジ用音声データに対して信号処理を施すことによって、音声コンテンツデータに対して不都合なくアレンジ用音声データを合成したり、挿入したりすることができるようにされる。なお、付加データにアレンジ用音声データが含まれない場合には、付加データ信号処理部24においての処理は行われない。
また、付加データにアレンジ用音声データとしてMIDI発音データ(MIDIデータ)が含まれる場合には、MIDIデータはMIDI発音部25に供給される。MIDI発音部25にはMIDI音源が含まれており、付加データ読取り部22からのMIDIデータおよび時間計測部50からのタイミングに基づいて、MIDI発音部25のMIDI音源がドライブされ発音結果がリニアPCMデータとして出力され、音声加算・編集処理部31に供給される。
なお、後述もするが、アレンジ用音声データは1つとは限らず、同一時間で見た場合に複数の音声データを合成することもできるようにされている。また時間軸上で見た場合にある時間ごとに別の音声データに切り替えて合成するようにすることもできるようにされている。
このように、音声コンテンツデータ処理系10においては、再生対象の音声コンテンツデータを取得して、この取得した音声コンテンツデータに対し、付加データ処理系20の付加データ読取り部22により読取られた付加データのうちのアレンジのためのデータに応じて信号処理を施す処理が行われる。
また、付加データ処理系20においては、再生対象の音声コンテンツデータに対応する付加データを取得して、この取得した付加データに含まれる音声コンテンツデータに対するアレンジ処理(編曲処理)を行うためのアレンジ情報を音声コンテンツデータ処理系10のコンテンツデータ信号処理部14に供給し、付加データに含まれるアレンジ用音声データを処理して、出力データ処理系の音声加算・編集部31に供給し、また、付加データに含まれる音声コンテンツデータの編集処理に関する情報を音声加算・編集部31に供給する処理を行う。
そして、出力データ処理系30の音声加算・編集部31は、音声コンテンツデータ処理系10のコンテンツデータ信号処理部14からの音声コンテンツデータに対して、付加データ処理系20の付加データ信号処理部24あるいはMIDI発音部25からのアレンジ用音声データを加算(合成)する加算処理を施したり、音声コンテンツデータ処理系10のコンテンツデータ信号処理部14からの音声コンテンツデータの複数個の区間を並べ替えたり、繰り返しを変更したり、所定の区間を削除したりするなどの編集処理を施したりする。
音声加算・編集部10からの処理後の音声コンテンツデータは、出力用信号処理部32に供給される。なお、アレンジ用音声データが存在しない場合や、音声コンテンツデータに対する編集処理が付加データによって指示されていない場合には、音声加算・編集部10においては加算処理、編集処理を行うことなく、コンテンツデータ信号処理部14からの音声コンテンツデータをそのまま出力用信号処理部32に供給する。また、加算処理と編集処理の一方だけを行う場合もある。
出力用信号処理部32は、音声加算・編集処理部31からの音声コンテンツデータに対して、付加データに基づいて、あるいは、制御部40からの制御に基づいて、最終的なエフェクト処理および音量調整処理を行う。出力用信号処理部32においては、リバーブ処理やエコー処理などの種々のエフェクト処理を行うことができるようにしている。
そして、出力用信号処理部32からの音声コンテンツデータは、D/A部33に供給され、ここでアナログ音声信号に変換された後にスピーカなどの出力装置に供給される。これにより、音声コンテンツデータ処理系10において読取られた音声コンテンツデータに対して、付加データ処理系20において読取られた付加データに応じたアレンジ処理を施し、このアレンジした音声コンテンツデータを再生して、アレンジされた音声コンテンツデータに応じた音声がスピーカ34から放音される。これによって、アレンジされた音声コンテンツデータに応じた音声をユーザーが聴取することができるようにされる。
また、上述の説明から分かるように、この実施の形態においては、コンテンツデータ読取り部12が再生対象の音声コンテンツデータを取得する第1の取得手段としての機能を備え、付加データ読取り部22が、再生対象の音声コンテンツデータに対応する付加データを取得する第2の取得手段としての機能を備えている。
そして、コンテンツデータ信号処理部14、付加データ信号処理部24、MIDI発音部25、音声加算・編集部31、出力用信号処理部32のそれぞれが機能して、再生対象の音声コンテンツデータに対してアレンジ処理を施す信号処理手段としての機能を実現するようにしている。
なお、対応DB(コンテンツ・付加データ対応データベース)60は、音声コンテンツデータと付加データとの対応付けを管理するためのデータベースであり、音声コンテンツデータから対応する付加データを特定したり、付加データから音声コンテンツデータを特定したりすることができるものである。この対応DB60は、必須ではないが、音声コンテンツデータをユーザーが手作業で探す手間を省いたり、逆に音声コンテンツデータから利用できる付加データをリストアップしたりするなどのことを可能にし、ユーザーの利便性を向上させることができる。
また、対応DB60のデータ構造は種々のものが考えられ、単に、音声コンテンツデータと付加データとの対応付けを管理するだけのものから、音声コンテンツデータのジャンルやアーティストなどで分類したり、付加データのアレンジの種類に応じて分類したりするなどのことも可能である。
また、対応DB60は、ローカルシステム内で管理してもよいし、インターネットなどの広域ネットワーク上のサーバにおいて1元管理されているもであってもよい。CDDB(CDデータベース)と同様の仕組みを利用して、目的とする音声コンテンツデータについての曲名やアルバム名などと同時に、その音声コンテンツデータに対してアレンジ処理を施すための付加データをダウンロードしてくるようにしてももちろんよい。
また、逆に、音声コンテンツデータが記録、保持されている音声コンテンツデータの提供元と同じ場所に、対応する付加データが記録、保持するようにされていてももちろんよい。すなわち、音声コンテンツデータとこれに対応する付加データとが、同じディスク記録媒体、磁気ディスク、半導体メモリーに記録、保持されていてもよいし、また、ネットワーク上のサーバ装置などに記憶、保持さていてもよい。
この場合には、音声コンテンツデータ読取り部12と付加データ読取り部22とは、構成上同じものが用いられることになる。そして。この場合、音声コンテンツデータとこれに対応する付加データとを読取る読取り部は、読取った付加データを分類して分離し、必要な処理部に供給する機能を備えることになる。
すなわち、音声コンテンツデータとこれに対応する付加データとを読取る読取り部は、コンテンツデータ信号処理部14、音声加算・編集部31、出力用信号処理部32に供給する情報であって種々のアレンジ処理を指示するためのアレンジ情報と、デコード部23や付加データ信号処理部24に供給するアレンジ用音声データと、MIDI発音部25に供給するアレンジ用音声データであるMIDIデータとを分離、抽出し、そのそれぞれを対応する処理部に供給する機能を備えることになる。
[再生装置で行われる種々のアレンジ処理について]
次に、上述したように、コンテンツデータ読取り部12によって読取られた再生対象の音声コンテンツデータに対して、付加データ読取り部21によって読取られた付加データに基づいて行うようにされるアレンジ処理の具体例について、図2〜図7の図を参照しながら説明する。
以下に説明する各アレンジ処理は、上述もしたように、コンテンツデータ信号処理部14、付加データ信号処理部24、MIDI発音部25、音声加算・編集部31、出力用信号処理部32の対応処理部において、あるいは、コンテンツデータ信号処理部14、付加データ信号処理部24、MIDI発音部25、音声加算・編集部31、出力用信号処理部32の対応処理部のそれぞれが機能して行うようにされるものである。
この実施の形態の再生装置においては、音声コンテンツデータに対してアレンジを行うということは、以下に詳述するように、テンポの変更、ピッチの変更、音量の変更、エフェクトの適用、パンの変更、アレンジ用音声データの合成、アレンジ用音声データの挿入、スキップ(読み飛ばし)、繰り返し再生、並び替えを行うようにするものである。以下、そのそれぞれについて詳述する。
まず、テンポの変更について説明する。図2Aは、音声コンテンツデータのテンポの変更について説明するための図である。図2Aにおいて、(1)は、再生対象の元になる音声コンテンツデータ(オリジナルデータ)の波形であり、(2)は、(1)の音声コンテンツデータのテンポを速くするように変更して(アレンジして)形成した音声コンテンツデータ(アレンジ後データ)の波形である。
元になる音声コンテンツデータのテンポを速くするように変更した場合には、図2Aの(2)に示したように、テンポを早くしたアレンジ後の音声コンテンツデータの再生時間は、元になる音声コンテンツデータの再生時間よりも短くなる。逆に、元になる音声コンテンツデータのテンポを遅くするように変更した場合には、テンポを遅くしたアレンジ後の音声コンテンツデータの再生時間は、元になる音声コンテンツデータの再生時間よりも長くなる。
このように、この実施の形態において、音声コンテンツデータのテンポの変更は、再生対象の元の音声コンテンツデータ(オリジナルデータ)の全体あるいは所定の部分について、ピッチを変更することなくテンポだけを速くしたり遅くしたりすることによって行われるものである。
次に、ピッチの変更について説明する。図2Bは、音声コンテンツデータのピッチの変更について説明するための図である。図2Bにおいて、(1)は、再生対象の元になるの音声コンテンツデータ(オリジナルデータ)の波形であり、(2)は、(1)の音声コンテンツデータのピッチを変更して(アレンジして)形成した音声コンテンツデータ(アレンジ後データ)の波形である。
この実施の形態において、音声コンテンツデータのピッチの変更は、再生対象の元の音声コンテンツデータ(オリジナルデータ)の全体あるいは所定の部分について、テンポを変更することなくピッチだけを上げたり下げたりすることによって行われるものである。したがって、ピッチが上げられた音声コンテンツデータによる再生音声は高くなり、逆にピッチが下げられた音声コンテンツデータの再生音声は低くなることになる。
次に、音量の変更について説明する。図3Aは、音量の変更について説明するための図である。図3Aにおいて、(1)は、再生対象の元になる音声コンテンツデータ(オリジナルデータ)の波形であり、(2)は、(1)の音声コンテンツデータの中央部分において音量を下げた後に再度上げるように変更して(アレンジして)形成した音声コンテンツデータ(アレンジ後データ)の波形である。
このように、この実施の形態において、音声コンテンツデータの音量の変更は、再生対象の元になる音声コンテンツ(オリジナルデータ)の全体あるいは所定の部分について、音量を変更する処理である。
次に、エフェクトの適用について説明する。図3Bは、エフェクトの適用について説明するための図である。図3Bにおいて、(1)は、再生対象の元になる音声コンテンツデータ(オリジナルデータ)の波形であり、(2)は、(1)の音声コンテンツデータの中央部分においてエフェクトとしてディストーションを適用して(アレンジして)形成した音声コンテンツデータ(アレンジ後データ)の波形である。
このように、この実施の形態において、音声コンテンツデータのエフェクトの適用は、再生対象の元になる音声コンテンツ(オリジナルデータ)の全体あるいは所定の部分に対して、種々のエフェクトをかけるようにする処理である。なお、エフェクト信号処理(効果処理)の具体例としては、上述したディストーションの他、リバーブ、コーラス、イコライザ、LPF(Low Pass Filter)処理、HPF(High Pass Filter)処理などの種々のものが適用可能である。
次に、パンの変更について説明する。図4は、パンの変更について説明するための図である。図4において、(1)は、再生対象の元になる音声コンテンツデータ(オリジナルデータ)の波形であり、(2)は、(1)の波形の音声コンテンツデータから形成したL(左)チャンネルの音声コンテンツデータの波形であり、(3)の波形は、(1)の波形の音声コンテンツデータから形成したR(右)チャンネルの音声コンテンツデータの波形である。
この図4に示した例の場合には、音声コンテンツデータの中央部分において、(2)のLチャンネルの音声コンテンツデータと、(3)のRチャンネルの音声コンテンツデータとを連動させるように、左右のバランスを調整することにより、これらの音声コンテンツデータを再生することにより放音される音声がLチャンネル側からRチャンネル側に移動するようにしている。このように、複数のチャンネルの音声コンテンツデータのバランスを調整することによって、放音される音声の音像を移動させるようにする処理をこの実施の形態においては、音声のパンの変更と呼んでいる。
なお、図4においては、L(左)R(右)2チャンネルの音声チャンネルの音声コンテンツデータを処理する場合を例にして説明したが、これに限るものではない。4チャンネルや5.1チャンネルなどのいわゆるマルチチャンネルのシステムの場合には、左右だけでなく、前後、上下などの音像の空間的位置を変更(移動)することができるようにされる。
次に、アレンジ用音声データの合成(加算)について説明する。図5は、アレンジ用音声データの合成について説明するための図である。図5において、(1)、再生対象の元になる音声コンテンツデータ(オリジナルデータ)の波形であり、(2)、(3)の波形は、元になる音声コンテンツデータに合成するアレンジ用音声データの波形である。そして、(4)の音声コンテンツデータが、(1)の元になる音声コンテンツデータに対して、(2)、(3)のアレンジ用音声データを合成することにより得られる音声コンテンツデータ(アレンジ後データ)の波形である。
すなわち、この図5に示す例の場合には、(1)に示した元になる音声コンテンツデータに対して、上述もしたように、付加データに含められて提供される(2)、(3)に示したアレンジ用音声データが加算処理されることにより、(4)に示したアレンジされた音声コンテンツデータが形成されることになる。
このように、この実施の形態において、アレンジ用音声データの合成は、元の音声コンテンツデータの所定の位置に所定の長さのアレンジ用音声データを1つ以上合成することである。このようにすることによって、楽曲に対して別の音声データを一つ以上合成し、もともとの楽曲に含まれていなかった楽器やボーカルなどのパートを付加することが可能となる。
次に、アレンジ用音声データの挿入について説明する。図6Aは、アレンジ用音声データの挿入について説明するための図である。図6Aにおいて、(1)は、再生対象の元になる音声コンテンツデータ(オリジナルデータ)の波形であり、(2)は、(1)の元の音声コンテンツデータの1部分にアレンジ用音声データを挿入して形成したアレンジ後の音声コンテンツデータ(アレンジ後データ)の波形である。
この図6Aに示す例の場合、(2)に示す音声コンテンツデータは、(1)に示した元の音声コンテンツデータの位置a以降の音声コンテンツデータを位置bにずらすようにし、位置aから位置bまでの区間(ab間)に新たな音声データであるアレンジ用音声データを挿入するようにして形成したものである。
このように、元になる音声コンテンツデータの所定の位置に所定の長さのアレンジ用音声データを1つ以上挿入する事をアレンジ用音声データの挿入と呼んでいる。このアレンジ用音声データの挿入を用いることにより、元になる音声コンテンツデータには含まれていなかった楽器やボーカルなどの新たなパート、あるいは、挿入用の新たな音声データなどを付加して、新たな音声コンテンツデータ(アレンジ後データ)を形成することができる。ここで、このアレンジ用音声データの挿入と上述したアレンジ用音声データの合成との違いは、元の音声コンテンツデータは、新たな音声データが挿入された音声データの時間分後ろにずれることである。
次に、音声コンテンツデータのスキップ(読み飛ばし)について説明する。図6Bは、音声コンテンツデータのスキップについて説明するための図である。図6Bにおいて、(1)は、再生対象の元になる音声コンテンツデータ(オリジナルデータ)の波形であり、(2)は、(1)の元になる音声コンテンツデータの1部分をスキップして形成するようにされたアレンジ後の音声コンテンツデータ(アレンジ後データ)の波形である。
この図6Bに示す例の場合、(2)に示すアレンジ後の音声コンテンツデータは、(1)に示した元になる音声コンテンツデータの位置aから位置bまでの音声コンテンツデータを読み飛し、位置a以降において、位置b以降の音声コンテンツデータを処理するようにした場合を示している。したがって、図6Bの(1)における位置aから位置bまでのab区間の音声コンテンツデータをスキップする(読み飛ばす)することにより再生しないようにして、図6B(2)に示したようなアレンジ後の音声コンテンツデータを形成することができる。
次に、音声コンテンツデータの繰り返し再生について説明する。図7Aは、音声コンテンツデータの繰り返し再生について説明するための図である。図7Aにおいて、(1)は、再生対象の元の音声コンテンツデータ(オリジナルデータ)の波形であり、(2)は、(1)の元になる音声コンテンツデータの1部分(位置aから位置bまでの区間)を繰り返し再生するようにして形成するようにしたアレンジ後の音声コンテンツデータの波形である。
この図7Aに示す例の場合、(2)に示す音声コンテンツデータは、横矢印で示したように、(1)に示した元になる音声コンテンツデータの位置aから位置bまでの区間が四回繰り返すようにして形成したものである。したがって、図7Aの(1)における音声コンテンツデータにおいて、横矢印が示すように位置aから位置bまでの区間が4回繰り返された後に、(1)における音声コンテンツデータの位置b以降の音声コンテンツデータが続くようにされて、(2)に示す音声コンテンツデータが形成されている。
このように、音声コンテンツデータの繰り返し再生は、元の音声コンテンツデータの所定の部分のデータを2回以上繰り返して再生を行うようにすることによって、新たな音声コンテンツデータを形成するようにするものである。
次に、音声コンテンツデータのデータの並べ替えについて説明する。図7Bは、音声コンテンツデータの並べ替えについて説明するための図である。図7Bにおいて、(1)は、再生対象の元の音声コンテンツデータ(オリジナルデータ)の波形であり、(2)は、(1)の元の音声コンテンツデータの所定の部分を並べ替えることにより形成したアレンジ後の音声コンテンツデータ(アレンジ後データ)の波形である。
この図7Bに示す例の場合、(2)に示す音声コンテンツデータは、(1)に示した元になる音声コンテンツデータのab区間のデータとbc区間のデータとを図7Bにおいて矢印で示したように入れ替えることによって形成したものである。このように、音声コンテンツデータの入れ替えは、元になる音声コンテンツデータの所定の部分のデータを入れ替えることによって、新たな音声コンテンツデータを形成するようにするものである。
そして、図2から図7を用いて説明した各アレンジ処理のうち、1つ以上、好ましくは2つ以上を同時に適用することによって、元になる音声コンテンツデータ(オリジナルデータ)を劇的に変化させることができるようにしている。
また、上述した各アレンジ処理のうち、再生対象の元になる音声コンテンツデータに対するテンポの変更、ピッチの変更は、音声コンテンツデータ処理系10のコンテンツデータ信号処理部14において行われ、アレンジ用音声データに対するテンポの変更、ピッチの変更は、付加データ処理系20の付加データ信号処理部24において行われる。
また、パンの変更、アレンジ用音声データの合成、アレンジ用音声データの挿入、スキップ(読み飛ばし)、繰り返し再生、並び替えなどの各アレンジ処理は、出力データ処理系30の音声加算・編集部31において行われる。また、音量の変更、エフェクトの適用は出力データ処理系の出力用信号処理部32において行われる。
また、元になる音声コンテンツデータについてだけ、所定のエフェクトを適用したり、音量を調整をしたりしたい場合には、これらの処理は、音声コンテンツデータ処理系10のコンテンツデータ信号処理部14において行うことができる。同様に、アレンジ用音声データについてだけ、所定のエフェクトを適用したり、音量を調整したりしたい場合には、付加データ処理系20の付加データ信号処理部24において行うことができる。
[アレンジ処理を行うための付加データについて]
そして、図1を用いて説明したように、この実施の形態の再生装置において、再生対象の音声コンテンツデータに対してアレンジを施して再生するためには、再生対象の音声コンテンツデータに対応するアレンジ処理を施すための付加データが必要になる。
この付加データは、上述もしたように、大きく分けると、再生対象の音声コンテンツデータの既存の状態(元の状態)を示す楽音情報と、再生対象の音声コンテンツデータやアレンジ用音声データに対してアレンジを施すようにするための情報であるアレンジ情報と、再生対象の音声コンテンツデータに対して合成したり挿入したりするアレンジ用音声データとを含むものである。
そして、より具体的には、付加データは、(1)再生対象の音声コンテンツデータ(オリジナルデータ)の楽音情報と対応する時間情報、(2)再生対象の音声コンテンツデータの構造情報と対応する時間情報、(3)アレンジ用音声データ、(4)アレンジ用音声データに対する楽音情報と対応する時間情報、(5)再生対象の音声コンテンツデータに対するアレンジ情報と対応する時間情報などを含むものである。
すなわち、上記の(1)、(2)の情報が再生対象の音声コンテンツデータの既存の状態を示す楽音情報であり、(4)、(5)の情報がどのようなアレンジを行うようにするかを示すアレンジ情報であり、また、(3)がアレンジ用音声データそのものである。以下においては、付加データを構成する上記の(1)〜(5)の各情報について詳述する。
まず、(1)再生対象の音声コンテンツデータの楽音情報と対応する時間情報について説明する。ここで、音声コンテンツデータの楽音情報は、その音声コンテンツデータを再生することにより得られる楽曲のテンポ、スケール(キー)、コード進行、BPM(Beats per Minute)、ビート情報(ドラムパターン)、拍子、音量(peak,loudness)、音符情報などである。
なお、テンポは、楽曲進行の速さであり、スケール(キー)は、ハ長調、ニ長調などの楽曲の主音の位置に応じて決まる楽曲の特性であり、コード進行は、楽曲の和音(コード)の変化状態である。また、BPMは、1分間あたりの拍の数(4/4拍子の楽曲の場合、4分音符の拍数)であり、ビート情報は、ここではドラムのリズムパターン(ドラムパターン)であり、拍子は、2拍子、3拍子などのように楽曲においてひとまとまりとなりリズムの基礎をなす拍の数であり、音量は、音の大きさのピークや強さ(レベル)などであり、音符情報は、例えばMIDIデータのような楽曲を構成する音符を表す情報である。
そして、上述のテンポ、スケール(キー)、コード進行、BPM(Beats per Minute)、ビート情報(ドラムパターン)、拍子、音量(peak,loudness)、音符情報のうちの必要な情報が、それらの内容と、その内容の開始点、終了点の時刻情報と対応付けられて、付加データに含められて提供される。そして、この実施の形態の再生装置においては、再生対象の音声コンテンツデータに対応する付加データに含められて提供される楽音情報の内容と、その内容の開始点、終了点の時刻情報とからなる情報が表(テーブル)として管理することができるようにしている。
図8は、再生対象の音声コンテンツデータの付加データとして提供される楽音情報と対応する時間情報とから形成される表(テーブル)の一例を説明するための図である。図8において、図8Aはコード進行テーブルを、図8Bはドラムパターン進行テーブルを、図8Cはテンポ進行テーブルを説明するための図である。
楽音情報が、コード進行の場合には、この実施の形態の再生装置においては、図8Aに示すように、楽音情報の内容に相当するコードを示す情報と、そのコードの開始点、終了点の時刻を示す時刻情報とからなるコード進行テーブルを形成してこれを管理することができる。図8Aに示したコード進行テーブルの場合、開始点、終了点の時刻情報は、再生対象の音声コンテンツデータにより再生される楽曲の先頭(0秒)からの相対時間である。
すなわち、図8Aに示したコード進行テーブルの場合、再生対象の音声コンテンツデータにより再生される楽曲の先頭(0秒)から4.12秒までのコードが「A♭」、4.12秒から8.24秒までのコードが「E♭」、8.24秒から17.408秒までのコードが「Fm」、17.408秒から22.515秒までのコードが「D♭」、…というように、コードとそのコードの開始点、終了点とを時刻情報に従って順番に並べることにより、楽曲の先頭からのコード進行を把握することができるものとなるようにしている。
また、楽音情報が、ドラムパターン進行の場合には、この実施の形態の再生装置においては、図8Bに示すように、楽音情報の内容に相当するドラムパターンを示す情報と、そのドラムパターンの開始点、終了点の時刻を示す時刻情報とからなるドラムパターン進行テーブルを形成してこれを管理することができる。図8Bに示したドラムパターン進行テーブルの場合にも、図8Aを用いて上述したコード進行テーブルの場合と同様に、開始点、終了点の時刻情報は、再生対象の音声コンテンツデータにより再生される楽曲の先頭(0秒)からの相対時間である。
したがって、図8Bに示したドラムパターン進行テーブルの場合、再生対象の音声コンテンツデータにより再生される楽曲の先頭(00分00.000秒)から4.12秒までのドラムパターンがパターン「Dr1」、4.12秒から8.24秒までのドラムパターンがパターン「Dr2」、8.24秒から13.245秒までのドラムパターンがパターン「Dr1」、13.245秒から22.515秒までのドラムパターンがパターン「Dr2」、…というように、ドラムパターンとそのドラムパターンの開始点、終了点とを時刻情報に従って順番に並べることにより、楽曲の先頭からのドラムパターンの進行を把握することができるものとなるようにしている。
また、通常、テンポ、拍子、スケールは楽曲の先頭から最後まで、一貫して変わらないことも多い、このため、楽音情報がテンポの場合であって、そのテンポが一貫して変わらない場合には、例えば、図8Cに示すように、テンポを示す数値情報と、楽曲全体を示す時間範囲だけのテーブルとなる。
すなわち、図8Cの場合には、テンポを示す数値情報は、「119.45」であり、開始時刻は00分00.000秒、終了時刻は27.148秒である。もちろん、楽曲中において、テンポが変わる場合には、図8A、図8Bに示したように、テンポを示す数値情報と、その開始点、終了点を示す時刻情報とから構成されるテーブルとなる。
また、BPM、拍子、音量などの楽音情報についても、図8に示したように、楽音情報の内容と、その内容の開始点、終了点の時刻情報とからなるテーブルが形成され、再生装置において管理される。また、音符情報については、時間の進行にしたがって配列するようにされているので、時刻情報との対応付けは必要ない場合もあるが、区切りの部分を管理できるようにするために、時刻情報を含めるようにされている場合もある。
この例では、楽曲の先頭からの絶対時間を時刻情報として用いたが、これに限らず、例えば「xx小節のyy拍目」というように指定することも可能である。絶対時間と小節や拍の関係はBPMによって変換可能で、例えば、BPM=120のとき、1拍は0.5秒、180拍目は90秒で、楽曲が4/4拍子の場合45小節目の1拍目になる。つまり一般的に、時刻T=60(秒)×n(拍)/BPM、あるいは、n(拍)=BPM×T/60で求められる。
そして、図8に示した各テーブル情報に基づいて、再生対象の音声コンテンツデータの楽音情報の一覧テーブルである再生対象の元になる音声コンテンツデータの時系列マップ(オリジナルデータ時系列マップ)を形成することができるようにされる。図9は、図8に示した各テーブルの情報に基づいて形成されるオリジナルデータ時系列マップの一例を説明するための図である。
図9において上段の波形は、再生対象の音声コンテンツデータの波形であり、コード進行とドラムパターンとが、それぞれの開始点と終了点の時刻情報に関連付けて配列したものである。この図9に示すオリジナルデータ時系列マップから分かるように、再生対象の音声コンテンツデータを時系列で見た場合のコードやドラムパターンの変化を正確に把握できるようにして、種々の利用に供することができるようにしている。
次に、(2)再生対象の音声コンテンツデータの構造情報と対応する時間情報について説明する。ここで、音声コンテンツデータの構造情報は、イントロ(前奏)部分、Aメロ(第1メロディ)部分、Bメロ(第2メロディ)部分、サビ部分、ギターソロ部分、エンディング(終了)部分などの音声コンテンツデータによって再生される楽曲を構成する各部分を示す情報である。また、繰り返し、ダルセーニョなどを表すジャンプ情報などを含むものである。
この場合にも、例えば、イントロ部分であることを示す情報、イントロ部分の開始点、終了点の時刻情報とが対応付けられるというように、図8に示した各表の場合と同様に、各部分を示す情報と、その各部分ごとの開始点、終了点を示す時刻情報とを対応付けて、テーブル化し管理、利用することができるようにされる。また、繰り返し、ダルセーニョの場合は、その記号が出てくるタイミング(時刻情報)と飛び先の位置を示す時刻情報とがあればよい。
このように、楽曲の構造を把握できるようにしておくことによって、例えば、イントロ部分にのみアレンジを加えたり、イントロ部分を削除したり、サビ部分を繰り返すようにしたりするなど、目的とする部分を対象としてアレンジを施すようにすることができるようにされる。
次に、(3)アレンジ用音声データについて説明する。アレンジ用音声データは、図4、図5Aを用いて説明したように、再生対象の音声コンテンツデータに対して別の楽器や音声などを合成したり、挿入したりするための音声データである。なお、音声コンテンツデータの同じ小節部分に複数のアレンジ用音声データを合成したり、挿入したりすることも可能であるため、アレンジ用音声データは、1つに限らず複数用意されている場合もある。
なお、MIDIデータによりアレンジ用音声を発音する場合には、アレンジ用音声データが存在しない場合もある。もちろん、アレンジ用音声データとMIDIデータとの両方を用いるようにすることも可能であるし、また、アレンジ用音声データやMIDIデータを全く用いないようにする場合ももちろんある。
次に、(4)アレンジ用音声データに対する楽音情報と対応する時間情報について説明する。上述もしたように、再生対象の元になる音声コンテンツデータがどのような特徴のある、あるいは、どのような性質の楽曲であるかを正確に把握できなければ、適切なアレンジを行うことができない。このことは、アレンジ用音声データについても同様である。つまり、アレンジ用音声データが存在する場合には、そのアレンジ用音声データがどのような特徴や性質をもっているのかが分からなければ、合成や挿入前においてアレンジ用音声データを調整することができなくなってしまう。
そこで、この実施の形態においては、アレンジ用音声データを付加データに含める場合には、アレンジ用音声データに対する楽音情報と対応する時間情報も付加データに含められるようにされる。ここで、アレンジ用音声データの楽音情報は、再生対象の音声コンテンツデータの場合と同様に、アレンジ用音声データのテンポ、スケール(キー)、コード進行、BPM、ビート情報、拍子、音符情報、音量(peak, loudness)などであり、さらに、楽器情報、長さ(拍数)も含むものである。
なお、楽器情報は楽器の種類コードが入る。ドラム系の楽器や特に音階のない効果音の場合には、ピッチ変換をする必要がない(逆にしてはいけない場合が多い)ためこの情報をもとにピッチ変換の適応をするか否かを決定することができるようにされる。
このように、アレンジ用音声データの楽音情報は、再生対象の音声コンテンツデータによって再生される楽曲のテンポ、コード進行、ビート情報に違和感なくアレンジ用の音声データを加算合成するための情報である。そして、再生対象の音声コンテンツデータのどこを再生しているかが分かればコード進行やテンポ、リズムがわかるため、アレンジ用音声データのピッチ変換、テンポ変換を行って合成したり、挿入したりすることにより、聴取者に違和感を与えないようにアレンジを行うことができるようにされる。なお、MIDIデータによる発音を行う場合には、アレンジ用音声データがないため、音符情報を用いて発音することになる。
次に、(5)再生対象の音声コンテンツデータに対するアレンジ情報と対応する時間情報について説明する。ここで、アレンジ情報と対応する時間情報とは、再生対象の音声コンテンツデータの楽音情報をもとに、どのタイミングで図2〜図7を用いて説明したどのアレンジを用いるかを示した情報である。
図10は、アレンジ情報の具体例について説明するための図である。このうち、図10Aの音声加算アレンジ情報テーブルは、再生対象の音声コンテンツデータに対して、どのタイミングで、どのアレンジ用音声データを、どのコードで、加算合成するかを管理するものである。
この図10Aに示した音声加算アレンジ情報テーブルの場合には、アレンジ処理の順番を示すアレンジ番号、アレンジ処理の開始点、終了点の時刻情報、加算するアレンジ用音声データを特定するための音声データ番号、コード情報、音量情報(音量レベル情報)からなるものである。
したがって、アレンジ番号が1番の場合、再生対象の音声コンテンツデータの開始時刻が0分0.00秒(先頭)〜4.12秒までの区間のデータに対して、音声データ番号が1番のアレンジ用音声データを、コードA♭、音量−10dBで加算する旨が指示するようにされている。同様に、アレンジ番号が2番の場合、再生対象の音声コンテンツデータの4.12秒〜8.24秒までの区間のデータに対して、音声データ番号が2番のアレンジ用音声データを、コードE♭、音量−4dBで加算する旨が指示するようにされている。
また、アレンジ番号が3番目と4番目においては、再生対象の音声コンテンツデータの同じ区間に対して、音声データ番号が3番と4番との異なる2種類のアレンジ用音声データが、いずれもコードFmで、音量−10dBと−6dBとで合成することが指示され、アレンジ番号が5番目と6番目においても、再生対象の音声コンテンツデータの同じ区間に対して、音声データ番号が1番と3番との異なる2種類のアレンジ用音声データが、いずれもコードD♭で、音量−10dBと−6dBとで合成することが指示するようにされている。
また、図10Bは、テンポ変更アレンジ情報テーブルであり、テンポの変更タイミングを管理するものである。すなわち、図10Bの場合、再生対象の音声コンテンツデータの先頭(0分0.000秒)から8.24秒までは、テンポは120.225BPMであるが、8.24秒から27秒148までは、テンポは91.3と低くなるように制御される。
また、図10Cは、繰り返しアレンジ情報テーブルであり、どの部分を何回繰り返すかを指示するものである。図10Cの場合には、再生対象の音声コンテンツデータの先頭から4.12秒までのコンテンツデータを2度繰り返すこと、また、13秒245から22.515までを2回繰り返すことが指示するようにされている。
このように、付加データとして提供される各アレンジ情報から図10に示したような各アレンジ情報テーブルを作成し、これら図10に示したような各情報から図11に示すような再生対象の音声コンテンツデータとアレンジ情報との関係を管理できるようにするアレンジ時系列マップが形成される。
図11において最上段の波形は、再生対象の音声コンテンツデータの波形である。波形の下には、各コードの開始点、終了点の時刻情報が管理するようにされ、その下に、各区間に合成されるアレンジ用音声データの波形が、さらにその下には、各区間のコード情報が配置するようにされる。
なお、図10、図11における時間情報はオリジナルの音声コンテンツデータのもともとの再生時間を基準にしている。再生対象のオリジナルの音声コンテンツデータのテンポを変更する場合には、この時間情報は再計算されて使用される。時間情報の再計算は、時間情報×再生テンポ/オリジナルテンポで求めることができる。
そして、上述もしたように、この実施の形態の再生装置においては、再生対象の音声コンテンツデータが決まると、これに対応する一連の付加データが取得される。この場合、再生対象の音声コンテンツデータと付加データとは識別情報(識別ID)によって関連付けられており、再生対象の音声コンテンツデータが有するようにされる付加が行われることになる。
読取られた付加データは、上述した(1)〜(5)の各情報を含んでおり、再生対象の音声コンテンツデータについての情報テーブルとして、図8を用いて説明したような各テーブルが形成され、これらのテーブル情報から図9に示したオリジナルデータ時系列マップを作成するとともに、アレンジ情報についてのテーブルとして、図10を用いて説明したような各テーブルが形成され、これらから図11に示したアレンジ時系列マップが形成される。
そして、これらオリジナルデータ時系列マップとアレンジ時系列マップとを参照しながら、再生対象の音声コンテンツデータに対してアレンジを施して、アレンジされた音声コンテンツデータを形成し、これを再生処理して、スピーカから放音することができるようにしている。
[再生装置の具体的な動作について]
次に、上述したように、ユーザーによって再生が指示された音声コンテンツデータを再生する場合に、当該再生対象の音声コンテンツデータに対応する付加データを取得し、この付加データに応じて音声コンテンツデータにより再生するようにされるコンテンツ(楽曲)にアレンジを施して再生するようにするこの実施の形態の再生装置の動作について、図12から図14のフローチャートを参照しながら説明する。
[付加データ読取り部22の動作について]
まず、付加データを取得して、図8、図10に示したテーブル(表)や図9、図11に示した時系列マップを作成し、図2から図7を用いて説明した各種のアレンジ処理を行うための準備を行う付加データ読取り部22の動作について説明する。
図12、図13は、付加データ読取り部22の動作を説明するためのフローチャートである。この図12、図13に示すフローチャートに示す処理は、制御部40からの制御により、操作部45を通じて受け付けたユーザーからの再生指示に応じた音声コンテンツデータ(オリジナルデータ)の再生処理時において、付加データ読取り部22において実行される処理である。
具体的には、付加データ読取り部22は、制御部40からの再生対象の音声コンテンツデータの識別情報を含む付加データの読み出し指示が到来した場合に、図12、図13の処理を開始する。そして、まず、付加データ読取り部22は、付加データが記録されている付加データファイルを開く(ステップS101)。
そして、付加データ読取り部22は、再生が指示された音声コンテンツデータ(再生対象の音声コンテンツデータ(オリジナルデータ))をレコード単位で読み出し、読み出した付加データのレコードが、オリジナルデータすなわち再生対象の音声コンテンツデータのテンポ、スケール(キー)、コード進行などの情報と時間情報とからなる楽音情報か否かを判断する(ステップS102)。
ステップS102の判断処理において、読取ったレコードが再生対象の音声コンテンツデータの楽音情報であると判断したときには、各楽音情報に基づいて、図8を用いて説明したような楽音情報テーブルを生成する(ステップS103)。また、ステップS102の判断処理において、読取ったレコードが楽音情報でないと判断したときには、読取ったレコードは、再生対象の音声コンテンツデータに対するアレンジ情報であるか否かを判断する(ステップS104)。
ステップS104の判断処理において、読取ったレコードがアレンジ情報であると判断したときには、各アレンジ情報に基づいて、図10を用いて説明したようなアレンジテーブルを生成する(ステップS105)。また、ステップS104の判断処理において、読取ったレコードがアレンジ情報ではないと判断したときには、読取ったレコードはアレンジ用音声データか否かを判断する(ステップS106)。
ステップS106の判断処理において、読取ったレコードがアレンジ用音声データであると判断したときには、当該アレンジ用音声データを所定のメモリーに書き込みいつでも使用できるようにし、あるいは、音声ファイルとして開いて、使用できるようにしておく(ステップS107)。
また、ステップS106の判断処理において、読取ったレコードがアレンジ用音声データではないと判断したときには、読取ったレコードは、アレンジ用音声データに対する楽音デジタルであると判断し、アレンジ用音声データの楽音情報として、当該アレンジ用音声データとペアで管理するようにする(ステップS108)。このステップS108の処理は、具体的には、アレンジ用音声データについての図8に示したような楽音情報のテーブルを生成する処理である。
そして、ステップS103、ステップS105、ステップS107、ステップS108の処理の後に、図13に示す処理に進み、今回処理したレコードが処理対象の付加データの最後のレコードか否かを判断する(ステップS109)。ステップS109の判断処理において、最後のレコードではないと判断したときには、図12に示したステップS102からの処理を繰り返すようにし、次のレコードを読取って、当該レコードについての処理を行う。
また、ステップS109の判断処理において、最後のレコードであると判断したときには、ステップS103において生成した楽音情報のテーブルに基づいて、図9に示したような、再生対象の音声コンテンツデータについての時系列マップ(オリジナルデータ時系列マップ)を作成する(ステップS110)。
次に、付加データ読取り部22は、テンポ情報を考慮しながら(時間変換をしながら)、ステップS105において生成したアレンジ情報の時系列マップを作成する(ステップS111)。このようにして、再生対象の音声コンテンツデータの楽音情報についての時系列マップおよびアレンジ情報の時系列マップを作成した後に、読取り対象の付加データファイルを閉じて(ステップS112)、付加データ読取り部22は、図12、図13に示した処理を終了する。
このように、付加データ読取り部22は、再生対象の音声コンテンツデータに対応する付加データを取得し、この付加データに含まれる再生対象の音声コンテンツデータの楽音情報、アレンジのタイミングと種類の情報、アレンジ用音声データ実体、アレンジ用音声データの楽音情報のそれぞれを用い、再生対象の音声コンテンツデータの楽音情報についての時系列マップとアレンジ情報の時系列マップを生成するとともに、アレンジ用音声データを利用可能に準備し、さらに、当該アレンジ用音声データについての楽音情報のテーブルをも作成して、アレンジ用音声データについての処理も適切に行えるようにする準備を整えるようにしている。
これによって、ある時刻に必要な再生対象の音声コンテンツデータの位置、必要なアレンジの種類、アレンジのためのコードやテンポの変換情報などがすべてわかるようにされる。
[各処理系の信号処理部14、24、31、32の動作について]
次に、この実施の形態の再生装置において、実際にアレンジ処理を行うコンテンツデータ信号処理部14、付加データ信号処理部24、MIDI発音部25、音声加算・編集部31、出力用信号処理部32の動作について説明する。図14は、この実施の形態の再生装置において、各処理系10、20、30の動作について説明するためのフローチャートである。
図14に示した処理のうち、ステップS201からステップS204までの処理がオリジナルデータである再生態様の音声コンテンツデータの処理系10の処理であり、ステップS301からステップS306までの処理が付加データの処理系20の処理であり、ステップS401からステップS404までの処理が出力処理系30の処理である。
図12、図13の処理の後に、この実施の形態の再生装置の音声コンテンツデータ処理系10、付加データ処理系20、出力処理系30とが共同して図14に示す処理を実行する。まず、音声コンテンツデータ処理系10のコンテンツデータ読取り部12は、再生対象の音声コンテンツデータの読取りを行うが、この場合、時間計測部50から、再生対象の音声コンテンツデータの再生位置を取得する(ステップS201)。
読取られた音声コンテンツデータは、上述もしたように、デコード部13においてデコード処理されてデコード後の音声コンテンツデータがコンテンツデータ信号処理部14に供給される。そして、コンテンツデータ信号処理部14は、図12、図13を用いて説明したように、付加データ読取り部22において生成されて提供される楽音情報の時系列マップを参照し、再生対象の音声コンテンツデータの現時点のリズムパターンやコードなどの情報を取得する(ステップS202)。
そして、コンテンツデータ信号処理部14において、付加データ読取り部22において形成されて提供されるテンポやピッチについてのアレンジテーブルを参照して、テンポ変換やピッチ変換を行った音声コンテンツデータを生成し、これを出力処理部30の音声加算・編集部31に供給する(ステップS203)。
一方、付加データ処理系10においては、付加データ読取り部22は、再生対象の音声コンテンツデータの再生位置を取得する(ステップS301)。そして、図12、図13を用いて説明したように、付加データ読取り部22において生成したアレンジ時系列マップを参照し(ステップS302)、現時点の処理対象の音声コンテンツデータに対して行うアレンジ処理は、アレンジ用音声データの加算処理が否かを判断する(ステップS303)。
ステップS303の判断処理において、アレンジ用音声データの加算処理であると判断したときには、付加データ読取り部22において生成されるアレンジ用音声データについての楽音情報のテーブルと、アレンジ情報の時系列マップに基づいて、用いるアレンジ用音声データのテンポやピッチを変換し、変換後のアレンジ用音声データを出力処理系30の音声加算・編集部31に供給する(ステップS304)。
また、ステップS303の判断処理において、現時点の処理対象の音声コンテンツデータに対して行うアレンジ処理は、アレンジ用音声データの加算処理ではないと判断したときには、MIDIデータに基づいた発音処理か否かを判断する(ステップS305)。ステップS305の判断処理において、MIDIデータの発音処理であると判断したときには、MIDI発音部25において、付加データとして提供されたMIDIデータからPCPデータを作成し、これを出力処理系30の音声加算・編集部31に供給する(ステップS306)。
そして、出力処理系10の音声加算・編集部31において、コンテンツデータ信号処理部14からのテンポやピッチが変換するようにされた音声コンテンツデータと、付加データ信号処理部24からのテンポやピッチが変換されたアレンジ用音声データ、あるいは、MIDI発音部25からのPCMデータとが加算処理(合成処理)される(ステップS401)。
一方、ステップS305の判断処理において、MIDIデータの発音処理ではないと判断したときには、付加データ処理系20の付加データ読取り部22は、生成したアレンジ字形列マップに応じた情報をコンテンツデータ信号処理部14に供給し、アレンジ時系列マップの情報に応じた各種のアレンジ処理を行う(ステップS204)。この後、音声加算・編集部31において、アレンジ時系列データに応じて、リバーブ処理や所定区間の削除や入れ替えなどの音声コンテンツデータの編集を行う(ステップS402)。
そして、アレンジ用音声データの加算処理を行うステップS401の後、あるいは、音声コンテンツデータに対するアレンジ処理を行うステップS402の処理の後、付加データ読取り部22は、まだ施すべきアレンジが存在するか(アレンジ時系列マップの情報がまだ存在するか)を判断する(ステップS403)。
ステップS403の判断処理において、まだ処理すべきアレンジが存在すると判断したときには、ステップS302からの処理を繰り返す。ステップS403の判断処理において、処理すべきアレンジは存在しないと判断したときには、再生対象の音声コンテンツデータであって、種々のアレンジ処理が施された音声コンテンツデータの全体に対して適用するリバーブ等のエフェクト処理があれば、これを出力用信号処理部32において実行する(ステップS404)。そして、この図14に示す処理は終了することになる。
この図14に示した処理を通じて形成された、種々のアレンジが施された音声コンテンツデータがD/A変換され、これがスピーカに供給され、種々のアレンジが施すようにされた再生対象の音声コンテンツデータが再生される。
このように、この実施の形態の再生装置は、オリジナルの音声コンテンツデータに対してどのような処理をするかを記述した付加データをもとに具体的な信号処理を行い、さらに、オリジナルの音声コンテンツデータに対し、アレンジ用音声データを合成したり、音声データの入れ替えなどの編集処理をも行ったりして、既存の音声コンテンツデータをベースにして新たな音声コンテンツデータを形成して、これを利用できるようにしている。
なお、上述もしたように、音声コンテンツデータの同一部分に対して、複数種類のアレンジが施される場合ももちろんある。すなわち、音声コンテンツデータについてある一瞬の再生時刻を見た場合、アレンジが何種類も同時にかかっている場合がある。
このように、この実施の形態の再生装置においては、アレンジに必要な付加データを含まない音声コンテンツデータ(オリジナルデータ)に対して、アレンジに必要な情報を付加データとして付加し、さらにそれをオリジナルの音声コンテンツデータと分離して管理し、再生時もしくは再生前にアレンジを行う点にある。
したがって、音声コンテンツデータに対する付加データは、記録媒体やネットワークを通じて音声コンテンツデータとは別経路でユーザーが取得できるようにする。もちろん、再生対象の音声コンテンツデータとともに、付加データを提供することももちろんできる。具体的には、CDに音声コンテンツデータとこれに対応する付加データとを対になるように記録するようにし、必要に応じて付加データを読み出して利用できるようにするなどのことが可能である。
もちろん、インターネットなどのネットワークを通じて音声コンテンツデータを取得する場合にも、音声コンテンツデータとともに、これに対応する付加データを提供するようにし、ユーザーに利用できるようにしておくことも可能である。すなわち、再生対象の音声コンテンツデータとこれに対応する付加データとに、共通の識別情報を付加するようにすれば、音声コンテンツデータとは別途にアレンジのための付加データだけを提供することも可能である。
また、音声コンテンツデータ処理系のコンテンツデータ読取り部12によって取得される音声コンテンツデータは、リニアPCMデータの形式であってもよいし、また、各種のデータ圧縮方式によりデータ圧縮するようにされた圧縮音声データであってももちろんよい。
また、付加データとして提供されるアレンジ用音声データは、予め録音されたリニアPCM音声データ、圧縮音声データ、MIDIデータのうち少なくとも一つを使用することができるようにされる。もちろん、複数を用いることも可能である。
また、上述もしたように、付加データは音声コンテンツデータとは別のメディアからも取得可能である。例えば、音声コンテンツデータはCDから取得し、これに対応する付加データは、例えば半導体メモリー、磁気記録媒体、光記録媒体、光磁気記録媒体などの各種の記録媒体を通じて提供を受けたり、あるいは、インターネットなどのネットワークを通じて提供を受けたりするなどのことができるようにされる。
また、再生対象の音声コンテンツデータとこれに対応する付加データとは、それらを対応付ける共通の識別子(識別ID)によって対応付けることが可能である。簡単には、音声コンテンツデータの識別子を、当該音声コンテンツデータに対応する付加データに付加するするようにしたり、逆に、付加データの識別子を、当該付加データに対応する音声コンテンツデータに付加するようにしたりすればよい。
また、上述の実施の形態においては、音声コンテンツデータの再生時において、リアルタイムにアレンジ処理を行って、アレンジ処理後の音声コンテンツデータを再生するようにした。しかし、これに限るものではない。音声コンテンツデータに対して、対応する付加データを用いて予め種々のアレンジを施したアレンジ処理済みの音声コンテンツデータを形成しておき、これを再生するようにすることもできる。すなわち、付加データを用いたアレンジ処理はバッチ処理的に行っておき、音声コンテンツデータの再生時には、アレンジ処理済みの音声コンテンツデータそのまま再生するようにすることも可能である。
また、1つの楽曲の音声コンテンツデータに対して、異なる複数のアレンジを行うために、1まとまりとなる複数の付加データを複数種類用意し、ユーザーが任意に付加データを選択して利用できるようにすることも可能である。例えば、同じ音声コンテンツデータに対して、朝用のアレンジ情報や夜用のアレンジ情報などのさまざまな種類の付加情報を用意しておき、ユーザーに選択された付加情報を用いて、目的とする音声コンテンツデータに対して好みのアレンジを加えることが可能である。
さらに、付加データをこのシステムとは別の外部プログラムによって動的に生成して、付加データ読取り部22に読み取らせるようにしてもよい。これによって、もともと静的に用意されたアレンジをユーザーの環境によって一部あるいは全体を変更してアレンジすることもできる。また、聴きながらユーザーが自分でアレンジを一部あるいは全部変更することも可能となる。
この発明の一実施の形態が適用された再生装置を説明するためのブロック図である。 音声コンテンツデータに対するアレンジ態様を説明するための図である。 音声コンテンツデータに対するアレンジ態様を説明するための図である。 音声コンテンツデータに対するアレンジ態様を説明するための図である。 音声コンテンツデータに対するアレンジ態様を説明するための図である。 音声コンテンツデータに対するアレンジ態様を説明するための図である。 音声コンテンツデータに対するアレンジ態様を説明するための図である。 付加データとして提供される楽音情報と対応する時間情報とから形成される表(テーブル)の一例を説明するための図である。 オリジナルデータ時系列マップの一例を説明するための図である。 アレンジ情報の具体例について説明するための図である。 アレンジ時系列マップの一例を説明するための図である。 付加データ読取り部22の動作を説明するためのフローチャートである。 図12に続くフローチャートである。 主に各信号処理部の動作について説明するためのフローチャートである。
符号の説明
10…音声コンテンツデータ処理系、11…コンテンツデータ記憶部、12…コンテンツデータ読取り部、13…デコード部、14…コンテンツデータ信号処理部、20…付加データ処理系、21…付加データ記憶部、22…付加データ読取り部、23…デコード部、24…付加データ信号処理部、25…MIDI発音部、30…出力データ処理系、31…音声加算・編集部、32…出力用信号処理部、33…D/A部、34…スピーカ(出力装置部)、40…制御部、操作部45、50…時間計測部、60…対応データベース

Claims (14)

  1. 再生対象の音声コンテンツデータを取得する第1の取得手段と、
    前記第1の取得手段により取得される前記音声コンテンツデータに対応する付加情報を取得する第2の取得手段と、
    前記第2の取得手段により所得される前記付加情報に基づいて、前記第1の取得手段により取得される前記音声コンテンツデータに対して信号処理を加えるようにし、処理後の前記音声コンテンツデータによるコンテンツに変化を与えるようにする信号処理手段と
    を備えることを特徴とする再生装置。
  2. 請求項1に記載の再生装置であって、
    前記信号処理手段は、前記音声コンテンツデータについての再生テンポの変更、再生ピッチの変更、再生音量の変更、前記音声コンテンツデータへの1つ以上の音声データの合成、1つ以上の音声データの挿入、前記音声コンテンツデータの部分的な並べ替え、部分的な繰り返し、部分的な削除、前記音声コンテンツデータに対するエフェクトの適用のうちの少なくとも1つ以上を行うようにすることにより、前記コンテンツに変化を与えることを特徴とする再生装置。
  3. 請求項1に記載の再生装置であって、
    前記付加情報は、前記音声コンテンツデータの目的とする部分を特定する時間情報と対応付けられており、
    前記信号処理手段は、前記時間情報と対応付けられた前記付加情報に基づいて、前記音声コンテンツデータの目的とする部分に信号処理を施すようにして、前記コンテンツに変化を与えるようにすることを特徴とする再生装置。
  4. 請求項1または請求項3に記載の再生装置であって、
    前記付加情報は、前記音声コンテンツデータのテンポ、コード進行、音高、音長、拍子、構造情報、楽器の種類、音量のうちの少なくとも1つ以上を含むものであり、
    前記信号処理手段は、前記付加情報により、前記音声コンテンツデータの元の状態を把握することを特徴とする再生装置。
  5. 請求項4に記載の再生装置であって、
    前記構造情報は、前記音声コンテンツデータの繰り返しパターン、イントロ部分、サビ部分、Aメロ部分、Bメロ部分、リフ部分を示す時間情報を含んでおり、
    前記信号処理手段は、前記構造情報に基づいて、前記音声コンテンツデータの信号処理前の元のデータ構造を把握することを特徴とする再生装置。
  6. 請求項1、請求項3、請求項4または請求項5に記載の再生装置であって、
    前記付加情報は、前記音声コンテンツデータに対して合成あるいは挿入するための1つ以上の音声データを含んでおり、
    前記信号処理手段は、前記音声コンテンツデータに対して、前記付加情報に含まれる音声データを合成あるいは挿入する処理を行うことができるものであることを特徴とする再生装置。
  7. 請求項6に記載の再生装置であって、
    前記信号処理手段は、前記付加情報に含まれる前記音声データに対して、テンポの変更、ピッチの変更、音量の変更、エフェクト適用を行って、前記音声コンテンツデータへの合成あるいは挿入するようにすることを特徴とする再生装置。
  8. 再生対象の音声コンテンツデータを取得する第1の取得工程と、
    前記第1の取得手段により取得する前記音声コンテンツデータに対応する付加情報を取得する第2の取得工程と、
    前記第2の取得工程において所得する前記付加情報に基づいて、前記第1の取得工程において取得する前記音声コンテンツデータに対して信号処理を加え、処理後の前記音声コンテンツデータによるコンテンツに変化を与えるようにする信号処理工程と
    からなることを特徴とする音声コンテンツデータの再生方法。
  9. 請求項8に記載の再生方法であって、
    前記信号処理工程においては、前記音声コンテンツデータについての再生テンポの変更、再生ピッチの変更、再生音量の変更、前記音声コンテンツデータへの1つ以上の音声データの合成、1つ以上の音声データの挿入、前記音声コンテンツデータの部分的な並べ替え、部分的な繰り返し、部分的な削除、前記音声コンテンツデータに対するエフェクトの適用のうちの少なくとも1つ以上を行うようにすることにより、前記コンテンツに変化を与えるようにすることを特徴とする再生方法。
  10. 請求項8に記載の再生方法であって、
    前記付加情報は、前記音声コンテンツデータの目的とする部分を特定する時間情報と対応付けられており、
    前記信号処理工程においては、前記時間情報と対応付けられた前記付加情報に基づいて、前記音声コンテンツデータの目的とする部分に信号処理を施すようにして、前記コンテンツに変化を与えるようにすることを特徴とする再生方法。
  11. 請求項8または請求項10に記載の再生方法であって、
    前記付加情報は、前記音声コンテンツデータのテンポ、コード進行、音高、音長、拍子、構造情報、楽器の種類、音量のうちの少なくとも1つ以上を含むものであり、
    前記信号処理工程においては、前記付加情報により、前記音声コンテンツデータの元の状態を把握することを特徴とする再生方法。
  12. 請求項11に記載の再生方法であって、
    前記構造情報は、前記音声コンテンツデータの繰り返しパターン、イントロ部分、サビ部分、Aメロ部分、Bメロ部分、リフ部分を示す時間情報を含んでおり、
    前記信号処理工程においては、前記構造情報に基づいて、前記音声コンテンツデータの信号処理前の元のデータ構造を把握することを特徴とする再生方法。
  13. 請求項8、請求項10、請求項11または請求項12に記載の再生方法であって、
    前記付加情報は、前記音声コンテンツデータに対して合成あるいは挿入するための1つ以上の音声データを含んでおり、
    前記信号処理工程においては、前記音声コンテンツデータに対して、前記付加情報に含まれる音声データを合成あるいは挿入する処理を行うことを特徴とする再生方法。
  14. 請求項13に記載の再生方法であって、
    前記信号処理工程においては、前記付加情報に含まれる前記音声データに対して、テンポの変更、ピッチの変更、音量の変更、エフェクト適用を行って、前記音声コンテンツデータへの合成あるいは挿入するようにすることを特徴とする再生方法。
JP2004269085A 2004-09-16 2004-09-16 再生装置および再生方法 Expired - Fee Related JP4412128B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2004269085A JP4412128B2 (ja) 2004-09-16 2004-09-16 再生装置および再生方法
US11/211,461 US7728215B2 (en) 2004-09-16 2005-08-26 Playback apparatus and playback method
EP05255401A EP1638100A1 (en) 2004-09-16 2005-09-02 Playback apparatus and playback method
KR1020050083814A KR101136974B1 (ko) 2004-09-16 2005-09-08 재생장치 및 재생방법
CN2005101031544A CN1838229B (zh) 2004-09-16 2005-09-16 重放装置和重放方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004269085A JP4412128B2 (ja) 2004-09-16 2004-09-16 再生装置および再生方法

Publications (2)

Publication Number Publication Date
JP2006084748A true JP2006084748A (ja) 2006-03-30
JP4412128B2 JP4412128B2 (ja) 2010-02-10

Family

ID=35453497

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004269085A Expired - Fee Related JP4412128B2 (ja) 2004-09-16 2004-09-16 再生装置および再生方法

Country Status (5)

Country Link
US (1) US7728215B2 (ja)
EP (1) EP1638100A1 (ja)
JP (1) JP4412128B2 (ja)
KR (1) KR101136974B1 (ja)
CN (1) CN1838229B (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1930901A2 (en) * 2006-12-04 2008-06-11 Sony Corporation Method of distributing mashup data, mashup method, server apparatus for mashup data, and mashup apparatus
JP2008134375A (ja) * 2006-11-28 2008-06-12 Sony Corp マッシュアップ用のデータファイル、マッシュアップ装置およびコンテンツの作成方法
JP2008225474A (ja) * 2007-03-08 2008-09-25 Burmester Audiosysteme Gmbh デジタル音声信号を作るための装置および方法
JP2008233493A (ja) * 2007-03-20 2008-10-02 Yamaha Corp 曲編集装置およびプログラム
JP2009020323A (ja) * 2007-07-12 2009-01-29 Nec Soft Ltd 自動作曲装置および自動作曲方法ならびにプログラム
US7626112B2 (en) 2006-12-28 2009-12-01 Sony Corporation Music editing apparatus and method and program

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10576355B2 (en) 2002-08-09 2020-03-03 2Breathe Technologies Ltd. Generalized metronome for modification of biorhythmic activity
US8672852B2 (en) 2002-12-13 2014-03-18 Intercure Ltd. Apparatus and method for beneficial modification of biorhythmic activity
EP1804649A4 (en) 2004-07-23 2009-01-28 Intercure Ltd APPARATUS AND METHOD FOR DETERMINING A BREATHING MODEL USING A CONTACTLESS MICROPHONE
US8198525B2 (en) * 2009-07-20 2012-06-12 Apple Inc. Collectively adjusting tracks using a digital audio workstation
JP5870687B2 (ja) * 2011-12-27 2016-03-01 ヤマハ株式会社 コンテンツ管理装置
JP5990962B2 (ja) * 2012-03-23 2016-09-14 ヤマハ株式会社 歌唱合成装置
JP2014052469A (ja) * 2012-09-06 2014-03-20 Sony Corp 音声処理装置、音声処理方法、及び、プログラム
CN104427389B (zh) * 2013-08-27 2018-06-26 广州艾缔亿生物科技有限公司 基于多媒体内容投入式声音信号的广告系统及方法
CN108831425B (zh) * 2018-06-22 2022-01-04 广州酷狗计算机科技有限公司 混音方法、装置及存储介质

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5204969A (en) * 1988-12-30 1993-04-20 Macromedia, Inc. Sound editing system using visually displayed control line for altering specified characteristic of adjacent segment of stored waveform
JPH0385819A (ja) 1989-08-29 1991-04-11 Nec Corp 音声信号制御方式
JP3263996B2 (ja) 1992-10-21 2002-03-11 キヤノン株式会社 番組制作装置、情報伝送方法及び再生装置
JP3355748B2 (ja) 1993-12-28 2002-12-09 ヤマハ株式会社 編曲支援装置
US5728962A (en) * 1994-03-14 1998-03-17 Airworks Corporation Rearranging artistic compositions
JPH08146985A (ja) 1994-11-17 1996-06-07 Sanyo Electric Co Ltd 話速制御システム
JP4028001B2 (ja) * 1995-09-29 2007-12-26 ヤマハ株式会社 Mdマルチトラックレコーダ
JPH09146554A (ja) 1995-11-27 1997-06-06 Roland Corp 波形圧縮伸長装置
US20020023103A1 (en) * 1998-04-21 2002-02-21 Rejean Gagne System and method for accessing and manipulating time-based data using meta-clip objects
JP2000075868A (ja) 1998-08-27 2000-03-14 Roland Corp ハーモニー生成装置およびカラオケシステム
JP2000206972A (ja) 1999-01-19 2000-07-28 Roland Corp 波形デ―タの演奏制御装置
JP3491553B2 (ja) * 1999-03-02 2004-01-26 ヤマハ株式会社 演奏データ処理装置及びその記録媒体
JP3551817B2 (ja) * 1999-03-23 2004-08-11 ヤマハ株式会社 演奏データ処理装置
JP2001042866A (ja) * 1999-05-21 2001-02-16 Yamaha Corp ネットワークを介したコンテンツ提供方法及びシステム
JP3570309B2 (ja) * 1999-09-24 2004-09-29 ヤマハ株式会社 リミックス装置および記憶媒体
JP3843688B2 (ja) 2000-03-15 2006-11-08 ヤマハ株式会社 楽曲データ編集装置
JP4433566B2 (ja) * 2000-04-10 2010-03-17 ソニー株式会社 プロダクションシステム、アセットマネージメントシステム及びアーカイブシステム、プロダクション方法、アセットマネージメント方法及びアーカイブ方法
JP3870671B2 (ja) 2000-06-26 2007-01-24 ヤマハ株式会社 携帯端末装置
JP3666577B2 (ja) * 2000-07-18 2005-06-29 ヤマハ株式会社 コード進行修正装置、コード進行修正方法及び同装置に適用されるプログラムを記録したコンピュータ読取り可能な記録媒体
JP3707364B2 (ja) * 2000-07-18 2005-10-19 ヤマハ株式会社 自動作曲装置、方法及び記録媒体
US7305273B2 (en) * 2001-03-07 2007-12-04 Microsoft Corporation Audio generation system manager
US20020144588A1 (en) * 2001-04-09 2002-10-10 Naples Bradley J. Multimedia data file
JP4465577B2 (ja) * 2001-04-19 2010-05-19 ソニー株式会社 情報処理装置および方法、情報処理システム、記録媒体、並びにプログラム
JP3778024B2 (ja) * 2001-07-30 2006-05-24 ソニー株式会社 情報処理装置及び情報処理方法、並びに記憶媒体
JP3867596B2 (ja) * 2002-03-19 2007-01-10 ヤマハ株式会社 演奏音提供装置、通信端末、演奏音提供方法、プログラムおよび記録媒体
JP3829780B2 (ja) * 2002-08-22 2006-10-04 ヤマハ株式会社 奏法決定装置及びプログラム
EP1420583A3 (en) * 2002-11-15 2007-10-10 Sony Corporation Data processing method, data processing apparatus, and program and data recording medium therefor
JP3938015B2 (ja) * 2002-11-19 2007-06-27 ヤマハ株式会社 音声再生装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008134375A (ja) * 2006-11-28 2008-06-12 Sony Corp マッシュアップ用のデータファイル、マッシュアップ装置およびコンテンツの作成方法
US8115090B2 (en) 2006-11-28 2012-02-14 Sony Corporation Mashup data file, mashup apparatus, and content creation method
EP1930901A2 (en) * 2006-12-04 2008-06-11 Sony Corporation Method of distributing mashup data, mashup method, server apparatus for mashup data, and mashup apparatus
JP2008165837A (ja) * 2006-12-04 2008-07-17 Sony Corp マッシュアップ用データの配布方法、マッシュアップ方法、マッシュアップ用データのサーバ装置およびマッシュアップ装置
US7626112B2 (en) 2006-12-28 2009-12-01 Sony Corporation Music editing apparatus and method and program
JP2008225474A (ja) * 2007-03-08 2008-09-25 Burmester Audiosysteme Gmbh デジタル音声信号を作るための装置および方法
JP2008233493A (ja) * 2007-03-20 2008-10-02 Yamaha Corp 曲編集装置およびプログラム
JP4623028B2 (ja) * 2007-03-20 2011-02-02 ヤマハ株式会社 曲編集装置およびプログラム
JP2009020323A (ja) * 2007-07-12 2009-01-29 Nec Soft Ltd 自動作曲装置および自動作曲方法ならびにプログラム
JP4506998B2 (ja) * 2007-07-12 2010-07-21 Necソフト株式会社 自動作曲装置および自動作曲方法ならびにプログラム

Also Published As

Publication number Publication date
CN1838229A (zh) 2006-09-27
KR20060051123A (ko) 2006-05-19
CN1838229B (zh) 2011-07-06
US7728215B2 (en) 2010-06-01
KR101136974B1 (ko) 2012-04-19
US20060054005A1 (en) 2006-03-16
EP1638100A1 (en) 2006-03-22
JP4412128B2 (ja) 2010-02-10

Similar Documents

Publication Publication Date Title
KR101136974B1 (ko) 재생장치 및 재생방법
US8513512B2 (en) Personalized music remixing
JP5243042B2 (ja) 音楽編集装置及び音楽編集方法
US20110112672A1 (en) Systems and Methods of Constructing a Library of Audio Segments of a Song and an Interface for Generating a User-Defined Rendition of the Song
KR20080074977A (ko) 음악 편집 장치 및 음악 편집 방법
JP3503958B2 (ja) オムニバスカラオケ演奏装置
JPWO2007066813A1 (ja) 音楽編集装置、音楽編集情報の作成方法、並びに音楽編集情報が記録された記録媒体
JP5594052B2 (ja) 情報処理装置、楽曲再構成方法及びプログラム
KR100283134B1 (ko) 악곡과 매칭되는 음성 효과를 생성하는 가라오케 장치 및 방법
US20050036628A1 (en) Interactive digital medium and system
WO2002075718A2 (en) Method of remixing digital information
JP2005521979A (ja) “dj”モードを有するメディアプレーヤ
US7442870B2 (en) Method and apparatus for enabling advanced manipulation of audio
JP2004212473A (ja) カラオケ装置及びカラオケ再生方法
JP2007522604A (ja) リビングオーディオおよびビデオシステムおよび方法
JP2008505430A (ja) データサポート上で音響データを記録、再生及び操作する方法
JPWO2006087891A1 (ja) 情報選択方法及び情報選択装置等
JP4739598B2 (ja) 音楽データ再生装置
JP3214623B2 (ja) 電子楽音再生装置
JPH09311691A (ja) カラオケ装置
JP2001318670A (ja) 編集装置、方法、記録媒体
JP3194884B2 (ja) カラオケ装置のコンテンツ記録媒体
JP2005164977A (ja) マイナスワンの記録方法及び対応する楽譜
JP3911243B2 (ja) カラオケ映像システムに特徴を有するカラオケ装置
Katz Putting the album together

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090729

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090928

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20091002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091027

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091109

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121127

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131127

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees