JP2007114691A - 音楽コンテンツ作成装置、方法及びプログラム - Google Patents

音楽コンテンツ作成装置、方法及びプログラム Download PDF

Info

Publication number
JP2007114691A
JP2007114691A JP2005308711A JP2005308711A JP2007114691A JP 2007114691 A JP2007114691 A JP 2007114691A JP 2005308711 A JP2005308711 A JP 2005308711A JP 2005308711 A JP2005308711 A JP 2005308711A JP 2007114691 A JP2007114691 A JP 2007114691A
Authority
JP
Japan
Prior art keywords
music
data
audio
file
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005308711A
Other languages
English (en)
Other versions
JP4655878B2 (ja
Inventor
Juichi Sato
寿一 佐藤
Toshiaki Kaburagi
利明 鏑木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2005308711A priority Critical patent/JP4655878B2/ja
Publication of JP2007114691A publication Critical patent/JP2007114691A/ja
Application granted granted Critical
Publication of JP4655878B2 publication Critical patent/JP4655878B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

【課題】既存の楽曲データを流用しつつ、携帯電話機などの携帯端末に配信するのに好適なマルチメディア音楽コンテンツを作成すること。
【解決手段】このシステムでは、イベントシーケンスで表わされた演奏情報及び表示情報を含む既存の歌詞付き楽曲データDt1が、オーディオ及び動画生成手段BR1,BR2に供給される。オーディオ生成手段BR1は、楽曲データDt1の演奏情報を順次音源に供給し音源から楽音信号を取り込んで演奏情報による演奏楽音を波形データで表わしたオーディオファイルDt2を生成し、動画生成手段BR2は、演奏進行に対応して順次表示される楽譜を画像データで表わした音無し動画ファイルDt4を生成する。データ合成及び変換手段BR3,BR4は、オーディオファイルDt2を動画ファイルDt4に結合した音付き動画ファイルDt5を配信用に変換した音楽コンテンツDtを生成する。
【選択図】図2

Description

この発明は、通信ネットワークを介して携帯電話機などの端末装置に配信されるマルチメディア音楽コンテンツを作成する音楽コンテンツ作成システムに関する。
近年、携帯電話機などの携帯端末向けの配信サービスは、顧客ニーズの多様化により、従来のイベントシーケンスで構成される着信メロディの配信のみならず、オーディオデータによる音楽情報の配信や、映像情報を含むマルチメディアコンテンツの配信などが提供されるようになってきた。そこで、このような音楽コンテンツ配信サービスの1つとして楽譜表示付の楽曲データの配信を行うことが考えられる。
これに対して、演奏データに基づいて歌詞や楽譜の画像を生成し、演奏データの再生に応じて楽譜の表示ならびに演奏位置の表示を行うようにした画像表示技術は、例えば、特許文献1により知られている。
特開2005−148563号公報
特許文献1に開示された画像表示技術に対応可能な楽曲フォーマットに準拠した楽曲データは既に多数存在しているので、上述のように楽譜表示付の楽曲データの配信を行う場合、携帯端末向けの音楽コンテンツを一からオーサリングするのではなく、特許文献1の画像表示技術を利用して既存の楽曲データ資産を流用することができれば、品質の維持も図ることができる上に経済的になる。
しかしながら、特許文献1の画像表示技術では、楽曲データのみから楽譜画像などを生成すると共に楽曲再生の進行に応じて逐次楽譜画像の表示を切り替えるための演算は、複雑かつ処理負荷が高く、携帯電話機などのように処理能力が十分でない端末装置に適用することは困難である。
また、サーバからMIDIデータの提供を受けるパーソナルコンピュータにおいて、映像データの再生に合わせてMIDIデータをオーディオデータ(音声データ)に変換し、変換されたオーディオデータを映像データに付加するようにしたデータ変換技術が、例えば、特許文献2により知られている。
特開2003−255939号公報
従って、携帯端末で楽譜表示付の楽曲データを取得するために、特許文献2に記載されたデータ変換技術を応用し、MIDIデータなどの楽曲データとその楽譜画面の映像データの提供を携帯端末で事前に受け、携帯端末上において、楽曲データに基づくオーディオデータを映像データに付加するようにすることが考えられるが、この方法は、著作物の権利保護の観点や携帯端末の使用上の制約から望ましくない。
この発明は、このような事情に鑑み、既存の楽曲データを流用しつつ、携帯電話機などの端末装置に配信するのに好適なマルチメディア音楽コンテンツを作成することができる音楽コンテンツ作成システムを提供することを目的とする。
この発明の主たる特徴に従うと、イベントシーケンスで表わされた演奏情報及び表示情報を含む楽曲データ(Dt1)を入力するデータ入力手段(M2)と、データ入力手段(M2)により入力された楽曲データ(Dt1)の演奏情報に基づいて、楽曲演奏の楽音を波形データで表わしたオーディオファイル(Dt2)を生成するオーディオ生成手段(BR1;M3,M4)と、データ入力手段(M2)により入力された楽曲データ(Dt1)の演奏情報及び表示情報に基づいて、楽曲演奏の進行に対応して順次表示される楽譜を画像データで表わした動画ファイル(Dt4)を生成する動画生成手段(BR2;M5:S1〜S14)と、オーディオ生成手段(BR1)及び動画生成手段(BR2)により生成されたオーディオファイル(Dt2)及び動画ファイル(Dt4)を結合して音楽コンテンツ(Dt6)を生成するコンテンツ生成手段(BR3,BR4;M7)とを具備する音楽コンテンツ作成装置(電子音楽装置、コンピュータ)〔請求項1〕、イベントシーケンスで表わされた演奏情報及び表示情報を含む楽曲データ(Dt1)を入力するデータ入力ステップ(M2)と、データ入力ステップ(M2)で入力された楽曲データ(Dt1)の演奏情報に基づいて、楽曲演奏の楽音を波形データで表わしたオーディオファイル(Dt2)を生成するオーディオ生成ステップ(M3,M4)と、データ入力ステップ(M2)で入力された楽曲データ(Dt1)の演奏情報及び表示情報に基づいて、楽曲演奏の進行に対応して順次表示される楽譜を画像データで表わした動画ファイル(Dt4)を生成する動画生成ステップ(M5:S1〜S14)と、オーディオ生成ステップ(M3,M4)及び動画生成ステップ(M5)で生成されたオーディオファイル(Dt2)及び動画ファイル(Dt4)を結合して音楽コンテンツを生成するコンテンツ生成ステップと(M7)を備える音楽コンテンツ作成方法〔請求項4〕、並びに、イベントシーケンスで表わされた演奏情報及び表示情報を含む楽曲データ(Dt1)を入力するデータ入力ステップ(M2)と、データ入力ステップ(M2)で入力された楽曲データ(Dt1)の演奏情報に基づいて、楽曲演奏の楽音を波形データで表わしたオーディオファイル(Dt2)を生成するオーディオ生成ステップ(M3,M4)と、データ入力ステップ(M2)で入力された楽曲データ(Dt1)の演奏情報及び表示情報に基づいて、楽曲演奏の進行に対応して順次表示される楽譜を画像データで表わした動画ファイル(Dt4)を生成する動画生成ステップ(M5:S1〜S14)と、オーディオ生成ステップ(M3,M4)及び動画生成ステップ(M5)で生成されたオーディオファイル(Dt2)及び動画ファイル(Dt4)を結合して音楽コンテンツを生成するコンテンツ生成ステップと(M7)とから成る手順をコンピュータ(電子音楽装置)に実行させる音楽コンテンツ作成プログラム〔請求項5〕が提供される。なお、括弧書きは、理解の便のために付記した実施例の参照記号、用語等を表わし、以下においても同様である。
この発明による音楽コンテンツ作成装置において、動画生成手段(BR2;M5,S1〜S14)は、所定の小節数分の楽曲データに対応する楽譜を1ページの画像データで表わし、楽曲演奏の進行に同期して逐次ページが切り替えられる動画ファイル(Dt4)を生成する(S14)と共に、この動画ファイル(Dt4)とは別個に、各ページの画像データを静止画ファイル(Dt3)として保存する(S13)〔請求項2〕ように構成することができる。
この発明による音楽コンテンツ作成装置において、動画生成手段(BR2;M5,S1〜S14)は、データ入力手段(M2)により入力された楽曲データ(Dt1)の表示情報に含まれる歌詞データに基づく歌詞を描画した動画ファイル(Dt4)を生成し(S8)、その際、楽曲演奏の進行に対応させて描画すると歌詞の文字に重なりが生じる(b1)との判定結果に応じて、重なりが生じる文字(C〜I)について、先頭文字(C)の位置を基準に楽曲演奏の進行方向(右方向)に移動して互いに重ならないように配置する第1手順(b2)、第1手順で歌詞描画域(Lg)に収まり切らない場合に最後の文字の位置を歌詞描画域終端(Pe)に合わせて逆方向(左方向)に移動する第2手順(b3)、第2手順で他の歌詞(A,B)と重なりが生じた場合に先頭文字の位置を当該他の歌詞(A,B)の末尾(Po)に合わせて進行方向(右方向)に移動する第3手順(b4)、及び、第3手順で歌詞描画域(Lg)に収まり切らない部分(H,I)を次の行に配置する第4手順(b4)を、順次、講じる(S9)〔請求項3〕ように構成することができる。
この発明の主たる特徴による音楽コンテンツ作成システムでは(請求項1,4,5)、「歌詞付き楽曲データ」と呼ばれ、イベントシーケンスで表わされた演奏情報及び表示情報を含む既存の楽曲データ(Dt1)が、楽曲データ記憶部(2)に用意されている。音楽コンテンツ作成のために、歌詞付き楽曲データ(Dt1)をシステムに入力すると(M2)、楽曲データ(Dt1)中の演奏情報を順次音源(5)に供給して再生させ、音源(5)で形成される楽音信号を取り込む(M3,M4)ことによって、演奏情報に基づく楽曲演奏の楽音を波形データで表わしたオーディオファイル(Dt2)が生成される(BR1)と共に、楽曲演奏の進行に対応して順次表示される楽譜を画像データで表わした動画ファイル(Dt4)が生成され(BR2;M5)、生成されたオーディオファイル(Dt2)及び動画ファイル(Dt4)は、記憶手段(1;RAM)に記憶しておくことができる(M4,M6)。そして、これらオーディオファイル(Dt2)及び動画ファイル(Dt4)を結合することによりマルチメディア音楽コンテンツ(Dt6)が生成され(BR3,BR4;M7)、音楽コンテンツ記憶部(2)に保存される(M9)。
従って、この発明によれば、上述のように、既存の楽曲データをほぼそのまま流用して、オーディオ波形データによる演奏楽音の再生に合わせて楽譜画像データによる楽譜を順次表示するマルチメディア音楽コンテンツを生成するようにしているので、低コストでありながら、携帯電話機などのように処理能力が十分でない端末装置向けに好適かつ新規なマルチメディア音楽コンテンツを作成することができる。
また、この発明では(請求項2)、動画ファイル(Dt4)において、1ページが所定の小節数分の楽曲データに対応し、楽曲演奏の進行に同期して逐次ページが切り替えられる各ページの画像データを、動画ファイル(Dt4)とは別に、静止画ファイル(Dt3)としてログファイル記憶部(2)に保存する(S13)ようにしている。従って、この発明によれば、さらに、作成されたマルチメディア音楽コンテンツに含まれる各ページの画像データの確認・検証作業を容易に行うことができる。
さらに、この発明では(請求項3)、楽曲データの表示情報に含まれる歌詞データに基づいて、楽譜上の歌詞を画面の歌詞描画域(Lg)に描画する処理の際に(S8)、歌詞の文字に重なりが生じているか否かを判定し、重なりが生じている場合は(b1)、重なりが生じた文字(C〜I)について、歌詞イベント位置の先頭から重ならないように、先頭文字(C)の位置を基準にして、順次、楽曲演奏の進行方向(右方向)へ配置し(b2)、その結果、歌詞描画域(Lg)に収まり切らない場合は、重ならないようにした文字群(C〜I)を右寄せにして配置し直し(b3)、その結果、他の歌詞(A,B)と重なりが生じた場合には、当該他の歌詞(A,B)の末尾(Po)から順次歌詞文字を配置し、それでも歌詞描画域(Lg)に収まらない部分(H,I)は右寄せで二行目に配置するという文字重なり回避策を講じる(S9)ようにしている。従って、この発明によれば、さらに、歌詞文字の重なりを自動的に修正することができ、表示画面のサイズが制約される携帯電話機などの携帯端末向けに対応して読み易い歌詞を表示することができる。
なお、作成されたマルチメディア音楽コンテンツ(Dt6)の構成要素である動画ファイル(Dt4)のページ画像データには、歌詞付き楽曲データ(Dt1)の表示情報に含まれるタイトルデータに基づき生成されるタイトル画像データを含め、音楽コンテンツ(Dt6)の再生時に楽譜画像データに基づく楽譜表示に先立ってタイトル画像データに従ったタイトル画面を表示することができる。この場合、タイトル画像データの生成についても上述の文字重なり回避策を講じることができ、これにより、タイトル文字についても、歌詞と同様に、携帯端末の制約された表示画面に対応することができる。
〔音楽コンテンツ作成システムの概要〕
図1は、この発明の一実施例による音楽コンテンツ作成システムの概要を表わすブロック図である。電子音楽装置EMは、例えば、音楽情報処理機能を有するパーソナルコンピュータ(PC)で構成され、音楽コンテンツを作成する機能が与えられており音楽コンテンツ作成装置とも呼ばれる。この電子音楽装置EMは、図1に示すように、処理部1、記憶部2、入力部3、出力部4、音源部5及び通信部6を備え、これらの要素1〜6はバス7を介して互いに接続される。
処理部1は、この電子音楽装置EM全体を制御する中央処理装置(CPU)、メインメモリとして機能するランダムアクセスメモリ(RAM)、音楽コンテンツ作成処理プログラムを含む各種制御プログラムや制御用データを記憶した読出専用メモリ(ROM)などを備え、所定の制御プログラムに従って対応する処理を行う。
記憶部2は、所謂外部記憶装置から成り、ハードディスクドライブ(HDD)の外、フレキシブルディスク(FD)、光磁気(MO)ディスク、コンパクトディスク(CD)、多目的ディスク(DVD)、半導体記憶素子などの記憶媒体及びその駆動装置を含む。記憶部2には、処理部1で利用される制御プログラムや種々のデータを記憶することができる。これらのデータには、ハードディスク音楽コンテンツ作成処理などに用いられる楽曲データや、この処理で得られたログ画像データ及び音楽コンテンツが含まれ、各データを記憶部2〔例えばハードディスク(HD)〕の楽曲データ記憶領域や、ログデータ記憶領域及び音楽コンテンツ記憶領域に記憶することができる。
入力部3は、キーボードや、マウス等のポイティングデバイスなどの操作子及び操作検出装置を備え、操作に対応する情報を入力する。出力部4は、表示回路及びD/A変換器・アンプ等の出力制御装置やLCDディスプレイ及びスピーカ等の出力機器を備え、入力部3の操作援助や処理部1による処理結果に関する映像情報及び音響情報を視覚的及び聴覚的に出力することができる。
音源部5は、音源やディジタル信号処理回路を備え、楽曲データを処理して楽音信号を生成する楽音信号生成部として機能し、例えば、音楽コンテンツ作成処理において、記憶部2に記憶された楽曲データからオーディオデータを作成するのに利用される。なお、音源部5の楽音信号生成機能はソフトウエアを用いて実現することができる。
通信部6は、各種データを伝送させるための通信プロトコルに対応したモデムやLANカード等の通信インタフェース(I/F)であり、有線又は無線により他の情報処理装置と交信することができ、電子音楽装置EMで作成された音楽コンテンツは、通信部6を通じて音楽コンテンツ提供サーバSVに送り込むことができる。
音楽コンテンツ提供サーバSVは、音楽コンテンツデータベースを備え、インターネットなどの通信ネットワークCNに接続される。音楽コンテンツデータベースには、電子音楽装置EMから送り込まれた音楽コンテンツが、携帯端末に提供可能な音楽コンテンツとして蓄積され、通信ネットワークCNを通じてサーバSVにアクセスしてきた携帯電話機などの携帯端末TMa,TMb,…に対して、所望の音楽コンテンツを配信することができる。なお、電子音楽装置EMは、音楽コンテンツ提供サーバSVとしても機能させ、記憶部2に音楽コンテンツデータベースを構築し、直接、携帯端末TMa,TMb,…に音楽コンテンツを配信するように構成してもよい。
この発明の一実施例による電子音楽装置は、上述のように、ソフトウェアにより通常のPCを音楽コンテンツ作成装置として機能するものであり、このソフトウェアによる音楽コンテンツ作成機能は、オーディオデータの生成、画像データの生成、両データの合成及びデータ変換から成る。図2は、この発明の一実施例による音楽コンテンツ作成機能を概略的に表わした機能ブロック図であり、図3は、画像データの生成過程で出力される2種の画像データ(出力画像)の例を画面への画像展開(描画)図で表わす。
電子音楽装置EMの制御部1は、音楽コンテンツ作成処理の際に、図2に示すように、夫々機能ブロックBR1〜BR4で示されるオーディオ生成手段、画像生成手段、データ合成手段及びデータ変換手段として機能する。また、記憶部2の楽曲データ記憶領域には、夫々MIDI形式(例えば、XFフォーマット)で記述された楽曲データを含む楽曲ファイルが多数記憶されており、これらの楽曲データは、イベントシーケンスで表わされた演奏情報及び表示情報から成り、「歌詞付き楽曲データ」と呼ばれる。つまり、楽曲データ中の表示情報には、演奏情報中の対応する楽音イベント(MIDIノートイベント)のタイミングデータに対応して記述された歌詞文字やコード名を表わす歌詞データやコードデータ、さらに、楽曲名や、作詩者、作曲者などを表わすタイトルデータが含まれる。
音楽コンテンツ作成のために、処理部1の読出し機能によって、入力部3からの楽曲指示に応じて選択された楽曲ファイルが処理部1のRAM上に読み出されると、まず、オーディオ生成手段BR1により、読み出された楽曲ファイルに含まれる歌詞付き楽曲データDt1の演奏情報からオーディオデータDt2を生成する。つまり、オーディオ生成手段BR1は、処理部1のソフトウエアによるシーケンサ機能に従って、楽曲データDt1の演奏情報を音源部5に送り込み、音源部5に再生(楽音信号生成)動作を行わせ、楽曲データDt1に対応して音源部5から順次出力される波形データ形式即ち音声データ形式のオーディオデータDt2を取得し、第1中間ファイルとして、オーディオデータDt2を含む即ち音声データのみのオーディオファイルを作成する。
画像生成手段BR2は、描画(表示)される楽譜画面やタイトル画面について、各部(譜線、記号、音休符、歌詞文字、コード名、ワイプカーソル、楽曲名・作詩者・作曲者等のタイトル文字など)の描画色、形状及び配置や、1ページ内小節数などの、楽譜やタイトルの基本的な画像生成条件を設定する画像生成条件設定部や、画像生成条件設定部で設定された基本的画像生成条件を含む画像生成条件に従って歌詞付き楽曲データから楽譜画像データ及びタイトル画像データを生成する画像生成処理部(楽譜生成エンジン)を備える。そして、処理部1により、オーディオ生成手段BR1によるオーディオデータDt2の生成と同時並行して、或いは、これとは別途に、楽曲ファイルが読み出されると、画像生成手段BR2は、読み出された楽曲ファイルに含まれる歌詞付き楽曲データDt1に基づいて、まず静止画データDt3を生成し、次いで動画データDt4を生成する。
すなわち、画像生成手段BR2は、楽曲データDt1中の演奏情報(MIDIノートイベント)及び表示情報に基づいて、画像生成条件に従い、順次、ビットマップ等の画像データ形式で楽譜やタイトルを表わす静止画データDt3を生成し、複数枚(ページ)の静止画データDt3を含む音声データ無しのログ用静止画ファイルを作成する。そして、作成された静止画ファイルDt3は記憶部2のログデータ記憶領域に蓄積され、必要に応じて、通信部6を通じコンテンツ提供サーバSVのログデータ記録部に転送される。
図3の出力画像例のうち図3〔1〕は、画像生成手段BR2により中間的に生成される静止画ファイルDt3中の或る楽譜ページの内容を画面に展開される画像として示す。図示の例では、画面中段の譜面描画エリアには、演奏情報に基づくト音記号や音符などの画像が譜表画像の上に展開され、下段及び上段の歌詞及びコード描画エリアには、音符画像に対応して歌詞データ及びコードデータに基づく歌詞文字及びコード名が展開される。
画像生成手段BR2は、続いて、生成された複数枚(ページ)の音声無し静止画(楽譜ページ)データDt3から、演奏情報中のMIDIタイミング情報に基づいて、適宜、表示されるワイプカーソルが移動し、静止画(楽譜ページ)データが切り替わるようにした動画データ(「音無し動画データ」と呼ばれる)Dt4を生成し、第2中間ファイルとして、動画データDt4を含む音声データ無しの(音無し)動画ファイルを作成する。
図3〔2〕の出力画像例は、画像生成手段BR2で出力される音無し動画ファイルDt4の或る時点における楽譜画像データの内容を、図3〔2〕の例に対応して、画面に展開される画像として示す。図3〔2〕に示すように、動画ファイルDt4では、画面の中段、下段及び上段の譜面、歌詞及びコード描画エリアに、図3〔1〕と同様に、夫々、音符、歌詞文字及びコード名の画像が展開されると共に、演奏情報の進行に従って、これら3段にまたがって動的に移動するワイプカーソルCSが展開される。
なお、画像生成手段BR2で生成される静止画ファイルDt3及び動画ファイルDt4には、楽譜を表わす複数枚の楽譜画像データ(楽譜ページ)の外に、タイトルを表わすタイトル画像データ(タイトルページ)が含まれ、タイトル画像データは、歌詞付き楽曲データDt1の表示情報に含まれるタイトルデータ及び指定されたタイトル画像生成条件に従って生成される。また、これらの画像データを生成する際には、後述するように、音符や文字の画像について適宜の重なり対策が講じられる。
データ合成手段BR3は、オーディオ生成手段BR1及び画像生成手段BR2で第1及び第2中間ファイルとして個別に作成されたオーディオファイルDt2及び音無し動画ファイルDt4をマージ(結合)する。例えば、動画ファイルDt4の音声レイヤーにオーディオファイルDt2の内容を足し込むことで両ファイルDt2,Dt4を結合することができる。このようなデータ合成(結合)処理により、動画データDt4による楽譜の表示に伴いオーディオデータDt2による楽音が再生されるようにしたオーディオデータ付きの(音付き)動画データDt5を生成する。
データ変換手段BR4は、音付き動画データDt5を配信可能なフォーマットの配信用音付き動画データDt6に変換し、配信用音付き動画データDt6を含む配信用音付き動画ファイルを作成する。そして、作成された配信用音付き動画ファイルDt6は、配信ファイルと略称され、マルチメディア音楽コンテンツとして記憶部2の音楽コンテンツ記憶領域に蓄積され、さらに、通信部6を通じてコンテンツ提供サーバSVの音楽コンテンツデータベースに転送される。これにより、音楽コンテンツDt6をサーバSVから通信ネットワークCNを通じて携帯端末TMa,TMb,…に配信することができる。
従って、各携帯端末TMa,TMb,…では、サーバSVからダウンロードした音楽コンテンツDt6の音付き動画データを簡単に再生して楽しむことができる。すなわち、音楽コンテンツDt6のタイトル画像データ(タイトルページ)によりオーディオデータの楽曲再生開始前にタイトル画面が表示され、その後、オーディオデータ基づいて楽曲演奏の楽音が放音されると共に、楽譜画像データに基づいて、楽曲演奏の進行に合わせて変化する楽譜が動的に表示される。例えば、楽譜画像データ図3〔2〕の描画例に則して、進行中の楽曲に対応する譜面、歌詞文字及びコード名を表示画面の中段、下段及び上段に表示し、楽曲演奏の進行に従ってワイプカーソルCSを移動表示し、ワイプカーソルCSが譜面の右端に達すると次の画面表示に切り換えられる。
また、音楽コンテンツ作成装置TM或いはコンテンツ提供サーバSV側では、ログ用静止画ファイルDt3に基づく静止画の楽譜を出力部4のディスプレイに表示して各静止画データ(楽譜ページ及びタイトルページ)を確認したり検証することができる。
以上説明したように、この音楽コンテンツ作成システムでは、イベントシーケンスで表わされた演奏情報及び表示情報を含む既存の歌詞付き楽曲データDt1が多数用意されており、音楽コンテンツ作成の際には、所望の楽曲データDt1がオーディオ及び動画生成手段BR1,BR2に供給される。オーディオ生成手段BR1は、楽曲データDt1中の演奏情報を順次音源5に供給し音源5で形成される楽音信号を取り込むことによって、演奏情報に基づく演奏楽音を波形データで表わしたオーディオファイルDt2を生成し、動画生成手段BR2は、演奏進行に対応して順次表示される楽譜を画像データで表わした音無し動画ファイルDt4を生成する。データ合成(結合)及び変換手段BR3,BR4は、オーディオファイルDt2を音無し動画ファイルDt4に結合した音付き動画ファイルDt5を更に配信用に変換して配信用音付き動画ファイルDt6を生成し、マルチメディア音楽コンテンツとして記憶部2に保存する。
〔処理フロー例〕
図4は、この発明の一実施例による音楽コンテンツ作成処理(メイン処理)を表わすフローチャートであり、図5は、図4のメイン処理における動画生成処理を表わすフローチャートであり、図6は、この発明の一実施例による楽譜要素の重なり対策の例を表わす。
ユーザ操作に基づくコンテンツ作成処理開始の指示により図4の音楽コンテンツ作成処理(メイン処理)が開始すると、処理部1は、最初のステップM1でパラメータの初期化を行い、例えば、音楽コンテンツ作成処理の対象となる1乃至複数の楽曲ファイル(Dt1)や、画像生成条件設定部(BR2)の画像生成条件などから所望の条件を指定する。
ここで、画像生成条件には、譜線、音部記号・拍子記号などの各種音楽記号、音休符、歌詞文字、コード名、ワイプカーソル、タイトル文字等の楽譜やタイトルの各部に対する描画色や形状などのパラメータ〔具体的には、例えば、描画される文字、各種楽譜記号、音休符などのフォーマット(フォント、サイズ、描画色等)〕の指定や1ページ内小節数(「基本小節数」と呼ばれ、図5の処理例では“2”)の指定などがあり、任意のパラメータをデフォルトで指定したりユーザ操作により指定変更することができる。
次のステップM2では、初期化ステップM1で最初の楽曲に指定された楽曲ファイル(Dt1)を記憶部2から処理部1のRAM内の楽曲ファイル格納領域に読み込み、続くステップM3において、処理部1のシーケンサ機能に従って、順次、読み込まれた楽曲ファイルに含まれる歌詞付き楽曲データDt1の演奏情報を音源部5に再生させる。続くステップM4では、楽曲データDt1の演奏情報の再生に従って音源部5から出力される楽音信号をオーディオデータDt2として処理部1のRAM内のオーディオファイル格納領域に一時的に格納する。つまり、ステップM3,M4での処理によって楽曲データDt1の演奏情報が音声データ形式のオーディオデータDt2に変換することにより、オーディオデータDt2を含む音声データのみのオーディオファイルを作成することができる。
処理部1は、ステップM4でオーディオファイルDt2を作成すると、ステップM5に進み、図5に示される動画生成処理を行い、前述した画像生成機能(BR2)によって、歌詞付き楽曲データDt1から音声データ無しの(音無し)動画ファイルDt4を生成する。そして、ステップM6で、動画生成処理(M5:図5)により生成された音無し動画ファイルDt4をRAM内の音無し動画ファイル格納領域上に一時的に格納し、更にステップM7に進む。なお、動画生成処理では、動画ファイルDt4の生成過程で中間的に複数ページ(タイトルページ及び楽譜ページ)の静止画ファイルDt3が生成され、必要に応じて、記憶部2のログ記録領域に保存することができる。
ステップM7では、処理部1のデータ合成機能(BR3)によって、オーディオファイル(音源出力)Dt2と音無し動画ファイル(画像出力)Dt4とを結合する。例えば、動画ファイルDt4の音声レイヤーにオーディオファイルDt2の内容を足し込むことで両ファイルDt2,Dt4が結合される。そして、このような結合処理の後、データ変換機能(BR4)によるデータ変換処理を経て、1楽曲ファイル分の配信用音付き動画ファイル(配信ファイル)Dt6を生成する。
なお、両ファイルDt2,Dt4を結合する際、オーディオファイルDt2の再生時間長と動画ファイルDt4の再生時間長が完全には一致しない場合がある。この場合は、再生時間が長い方に合わせる方法を適用することができる。すなわち、
(1)オーディオファイルDt2の再生時間長>動画ファイルDt4の再生時間長の場合は、動画ファイルDt4の最終フレームを繰り返し、
(2)オーディオファイルDt2の再生時間長<動画ファイルDt4の再生時間長の場合には、音声ファイルに無音区間を挿入する。
ステップM7で配信用音付き動画ファイル(配信ファイル)Dt6を生成した後は、ステップM8に進み、ステップM1で指定された楽曲ファイルの数だけ音楽コンテンツ作成処理を行ったか否かを判定する。ここで、ファイル数分の処理していないときは(M8→NO)、ステップM2に戻り、次の楽曲に指定された楽曲ファイルを読み込んで、読み込まれた楽曲ファイルについてステップM2〜M8の処理を繰り返す。そして、指定ファイル数分の処理が完了すると(M8→YES)、ステップM9に進み、ステップM7で生成された各楽曲の配信ファイルDt6を音楽コンテンツとして記憶部2の音楽コンテンツ記憶領域、或いは、直接、通信部6を介して音楽コンテンツ提供サーバSVの音楽コンテンツデータベースに保存し、この音楽コンテンツ作成処理を終了する。
〔動画生成処理フロー例及び画像要素の重なり対策例〕
次に、図4のステップM5で実行される動画生成処理について、図5の処理フロー例に従い、図6の重なり対策例を用いて具体的に説明する。動画生成処理(図4:M5)が開始すると、処理部1は、ステップS1で、RAM内の楽曲ファイル格納領域に格納されている楽曲ファイル1曲分の歌詞付き楽曲データDt1の演奏情報から、指定された小節数分の演奏データ、例えば、2小節分の演奏データを処理対象として取り出す。
続くステップS2では、ステップS1で取り出された2小節分演奏データの第1小節及び第2小節の音符の数を算出し、次のステップS3では、算出された第1小節及び第2小節の何れかの音符数が所定の閾値を超えているか否かを判定する。そして、何れかの音符数が閾値を超えていると(S3→YES)、ステップS4で、1ページ当り1小節分の楽譜を描画するものとし、閾値を超えていないときは(S3→NO)、ステップS5で、1ページ当り2小節分の楽譜を描画するものとする。
つまり、メイン処理のステップM1(図4)で指定された基本小節数分の演奏データについて、1小節当りの音符の密度を算出し、音符密度が低い場合は当該小節数分の音符を1ページの画面に描画し、音符密度が高い場合には、画面を複数ページに分けて各ページに所定小節の音符を描画する。ここで、音符密度の算出や、音符数判定のための閾値の設定には、ステップM1で指定された音符の大きさや譜表サイズ等に応じた任意の方法を採用することができる。
例えば、譜表が描画される楽曲進行方向の譜表描画域(譜表描画最大幅)Laは、図3のように楽曲進行方向の画面サイズ(画面幅)Lbに若干狭いがほぼ等しく設定しておき(La<Lb且つLa≒Lb)、この譜表描画域Laから、音部記号等の所定の音楽記号を描画する音楽記号描画域(記号描画幅)Lcを差し引いた部分を、音符描画が可能な音符描画域(音符描画幅)Ldとする。従って、図3の例やこの処理例のように、基本的に、2小節分の音符を1ページの画面に描画するものとした場合には、音符描画域Ldを等分した前半に第1小節、後半に第2小節を表示し、1小節分の音符を描画するための領域の幅即ち基本小節描画幅Leは、譜表最大描画幅La及び記号描画幅Lcに対して次式(1)で求めることができる:
基本小節描画幅Le=音符描画域Ld/2
=(譜表最大描画幅La−記号描画幅Lc)/2 …(1)
また、閾値には、次式(2)で求められる描画可能音符数Sを用いる:
描画可能音符数S=係数K×基本小節描画幅Le/四分音符描画幅Lf …(2)
ここで、係数Kは、0.0〜1.0の間の所定値、例えば、0.8を採ることができ、
四分音符描画幅Lfには、ステップM1で指定された音符サイズを採用する。
さて、ステップS4又はステップS5の後は、順次、ステップS6〜S9に進んで1ページ分の描画処理を行い、1ページ分の画像データを生成する。まず、最初のステップS6では、描画される楽譜に対応する小節の演奏データに含まれるノートイベントに従って、音符を譜表上の該当ノートタイミングに対応する位置に配置する。具体的には、音符(休符を含む)を表わす音符画像を該当位置に配置した場合の各音符画像の描画位置を計算する。次のステップS7では、このように配置された場合の音符画像について音符の重なりチェックを行い、音符の重なりがなければ、ステップM1で指定された属性に従って音符を描画すべきものとする。また、音符の重なりがあったときには、重なった音符について、例えば、図6(a)のように、描画態様を変更する。
図6(a)は、音符の重なりがある場合に画面内の1又は2小節分の音符描画域Ldに音符を描画した音符画像データの例を、音符の画像を“1”〜“7”で簡略化して表わしており、この例では、音符画像“5”,“6”が互いに重なり合っている。このように音符の重なりがある場合は、重なった音符画像“5”,“6”の描画属性を指定の描画属性から変更する。例えば、指定された音符の描画色(即ち、重なりがない他の音符画像“1”〜“4”,“7”の描画色)が黒色や青色であれば、これとは異なる赤色で音符画像“5”,“6”を描画し直すように、当該音符の描画色を変更する。
音符重なりチェック(S7)の後は、ステップS8で、描画される楽譜に対応する小節の演奏データに含まれる演奏情報(ノートイベント)及び表示情報に従って、歌詞の文字及びコード名をノートタイミング(音符画像位置)に対応する位置に順次配置する。続くステップS9では、このように配置された場合の歌詞文字について文字の重なりチェックを行い、このチェックで重なった歌詞文字については、例えば、図6(b)に示されるような方法で、重なり回避策を講じる。
図6(b)の(b1)は、画面内の1又は2小節分の歌詞描画域Lg(Lg≒Ld)内に歌詞文字を描画する際に文字の重なりがある場合の例を、歌詞文字の画像を“A”〜“I”で簡略化して表わしており、この例では、文字画像“C”〜“I”が互いに重なり合っている。このように文字の重なりがある場合は、(b2)〜(b4)に示される手順により、これらの文字画像“C”〜“I”が重ならないように、当該文字画像“C”〜“I”の描画位置を、ステップS8での配置に基づく既定の描画位置から変更する。
まず、(b2)に示すように、重なりがある(b1)の文字画像“C”〜“I”の描画位置について、先頭文字画像“C”の描画始端位置p1を固定し、次の文字画像“D”から、順次、直前の文字画像と重ならないように楽曲進行方向(右方向)にシフトさせて配置する。この手順により、最後の文字画像“I”の描画終端位置p2が歌詞描画域Lgの終端(右端)Peを越えなければ、各文字画像“D”〜“I”の描画位置を、(b2)のように右方向にシフトさせた後の位置に変更する。
また、(b2)の手順では図示のように右方向シフト後の文字画像が歌詞描画域Lgからはみ出る場合は、(b3)に示す手順によって、一旦右シフトさせた文字画像“D”〜“I”を、その終端p2が歌詞描画域Lgの終端(右端)Peに一致するように、先頭文字画像“C”と共に、楽曲進行と逆方向(左方向)にシフトさせて再配置する。この右寄せ手順により、左シフト後の先頭文字画像“C”の描画始端位置p1が先頭文字画像“C”の直前の文字画像“B”の描画終端位置Poを越えなければ、これらの文字画像“C”〜“I”の描画位置を、(b3)のように左方向にシフトさせた後の位置に変更する。
さらに、(b3)の手順により文字画像“C”〜“I”の終端p2を歌詞描画域Lgの終端Peに寄せて(画面右寄せで)文字画像群“C”〜“I”を左方向にシフトし再配置しても、図示のように、先行する文字画像“A”,“B”と重なる場合は、(b4)に示す手順によって、左方向シフトさせた文字画像群“C”〜“I”を、その始端p1が直前の文字画像“B”の描画終端位置Poに一致するように、再び、右方向にシフトさせる。
ここで、右方向再シフト後の文字画像“C”〜“I”のうち、歌詞描画域終端Peからはみ出る文字画像“H”,“I”は、右寄せで2行目に配置するものとし、その際、2行目の最後の文字画像“I”の終端は、図示のように1行目の最後の文字画像“G”の終端に一致させても、歌詞描画域終端Peに一致させてもよい。そして、(b4)の手順により配置された結果に従って、重なりがあった文字画像“C”〜“I”の描画位置を、(b4)のように左方向に再シフトさせた後の位置に変更する。
さらに、(b4)の手順によっても、文字画像“C”〜“I”が歌詞描画域Lgからはみ出る(例えば、2行目の先頭文字の始端が歌詞描画域Lgの始端Psを越える)場合には、重なりがあった(b1)の文字“C”〜“I”について、配置位置以外の他の描画属性を変更し、例えば、重なり部分の文字について強調表示の描画にし直す。
ステップS9の処理の後は、ステップS10で、ステップS6〜S9で定められた音符の位置乃至他の描画属性(S6,S7)、コード名の位置(S8)、並びに、音符の位置乃至他の描画属性(S8,S9)に従って1ページ分の画像データDt2を生成し、RAM内のページデータ格納領域に一時的に格納して1ページ分の描画処理を終了する。
なお、タイトル画像データのタイトル文字(楽曲名、作詩者、作曲者など)についても、図6(b)で説明した文字画像“C”〜“I”の重なり回避処理と同様の方法で、タイトル文字の重なり回避処理が実行される。この場合は、図6(b)における直前の文字画像“B”の描画終端位置Po〜歌詞描画域終端Pe間をタイトル描画域として取り扱う。
次に、ステップS11にて、指定された小節数分の演奏データについてステップS6〜S9の描画処理が完了したか、つまり、この処理例では、演奏データの2小節目の描画処理が完了したか否かを判定する。ここで、2小節目の処理が完了していない(ステップS3からステップS4に進んで1ページに1小節目の楽譜を描画する処理しか行っていない)ときは(S11→NO)、ステップS6に戻って、2小節目の演奏データにつき、再度、ステップS6〜S10の処理を行い、次のページの画像データDt2を生成し、RAM内のページデータ格納領域に一時的に格納する。
そして、2小節目の処理(指定小節数分の処理)が完了したときには(S11→YES)、ステップS12で、全ページの描画処理が完了したか否か、つまり、メイン処理のステップM2(図4)で読み込んだ楽曲ファイルDt1の全ての演奏データについて、ステップS6〜S10の描画処理が完了したか否かを判定する。ここで、全ページの描画処理が完了していないときは(S12→NO)、ステップS1に戻り、次に取得される2小節分の演奏データについて、順次、ステップS1〜S12の処理を繰り返す。これにより全ての演奏データについて全ページの描画処理が完了したときは(S12→YES)、ステップS13に進み、RAM内のページデータ格納領域に格納されている全ページ(楽譜ページ及びタイトルページ)の画像データDt2を記憶部2のログ記録領域に保存した上、さらに、ステップS14に進む。
ステップS14においては、動画像生成機能(BR2)により楽譜を動的に表示するための画像データDt4を出力する。すなわち、RAM内のページデータ格納領域に格納されている全ページの画像データDt2及びメイン処理のステップM2(図4)で読み込んだ楽曲ファイルDt1の演奏データに基づいて、楽曲の進行タイミングに同期して楽譜ページを順次切り替え、各楽譜ページでは楽曲の進行タイミングに同期してワイプカーソルCSが順次移動する動画ファイルDt4を生成する。そして、この動画生成処理を終了し、メイン処理のステップM6にリターンする。
〔種々の実施態様〕
以上、図面を参照しつつこの発明の好適な実施の形態について詳述したが、これは単なる一例であって、この発明の精神を逸脱しない範囲で種々の変更が可能である。例えば、データ作成処理の設定段階(図4:M1)で背景画像を指定し、指定された背景画像をタイトルや楽譜の背景として利用した画像データを生成するようにしてもよい。
さらに、音部記号、音符、ワイプカーソル等は、図3のような通常の表記に代えて、任意のキャラクタ等の画像を利用するようにしてもよい。この場合、実施例におけるデータ作成処理の設定段階(図4:M1)にて代替画像の指定を行うことができる。
また、歌詞の重なり対策については、画面全体で行う例を説明したが、小節単位で行ってもよい。例えば、画面に2小節分の楽譜を表示する場合、基本小節描画幅Leにほぼ等しい2つ歌詞描画域Lgの夫々に図6(b)の重なり回避手順を適用することができる。
この発明の一実施例による音楽コンテンツ作成システムの概要を表わすブロック図である。 この発明の一実施例による音楽コンテンツ作成機能を概略的に表わす機能ブロック図である。 この発明の一実施例における出力画像の例を表わす図である。 この発明の一実施例による音楽コンテンツ作成のメイン処理を表わすフローチャートである。 この発明の一実施例による動画生成処理を表わすフローチャートである。 この発明の一実施例における画像要素の重なり対策の例を表わす図である。
符号の説明
EM 電子音楽装置又は音楽コンテンツ作成装置、
BR3 データ合成手段又はデータ結合手段、
Dt1 歌詞付き楽曲データ或いはそのファイル(歌詞付き楽曲ファイル)、
Dt2 オーディオデータ或いはそのファイル(オーディオファイル)、
Dt3 静止画データ(ページデータ)或いはそのファイル(ログ用静止画ファイル)、
Dt4 音無し動画データ或いはそのファイル(音無し動画ファイル)、
Dt5 音付き動画データ或いはそのファイル(音付き動画ファイル)、
Dt6 配信用音付き動画データ或いはそのファイル(配信用音付き動画ファイル)、
CS ワイプカーソル。

Claims (5)

  1. イベントシーケンスで表わされた演奏情報及び表示情報を含む楽曲データを入力するデータ入力手段と、
    データ入力手段により入力された楽曲データの演奏情報に基づいて、楽曲演奏の楽音を波形データで表わしたオーディオファイルを生成するオーディオ生成手段と、
    データ入力手段により入力された楽曲データの演奏情報及び表示情報に基づいて、楽曲演奏の進行に対応して順次表示される楽譜を画像データで表わした動画ファイルを生成する動画生成手段と、
    オーディオ生成手段及び動画生成手段により生成されたオーディオファイル及び動画ファイルを結合して音楽コンテンツを生成するコンテンツ生成手段と
    を具備することを特徴とする音楽コンテンツ作成装置。
  2. 前記動画生成手段は、所定の小節数分の楽曲データに対応する楽譜を1ページの画像データで表わし、楽曲演奏の進行に同期して逐次ページが切り替えられる動画ファイルを生成すると共に、この動画ファイルとは別個に、各ページの画像データを静止画ファイルとして保存することを特徴とする請求項1に記載の音楽コンテンツ作成装置。
  3. 前記動画生成手段は、
    前記データ入力手段により入力された楽曲データの表示情報に含まれる歌詞データに基づく歌詞を描画した動画ファイルを生成し、
    その際、楽曲演奏の進行に対応させて描画すると歌詞の文字に重なりが生じるとの判定結果に応じて、重なりが生じる文字について、先頭文字の位置を基準に楽曲演奏の進行方向に移動して互いに重ならないように配置する第1手順、第1手順で歌詞描画域に収まり切らない場合に最後の文字の位置を歌詞描画域終端に合わせて逆方向に移動する第2手順、第2手順で他の歌詞と重なりが生じた場合に先頭文字の位置を当該他の歌詞の末尾に合わせて進行方向に移動する第3手順、及び、第3手順で歌詞描画域に収まり切らない部分を次の行に配置する第4手順を、順次、講じる
    ことを特徴とする請求項1又は2に記載の音楽コンテンツ作成装置。
  4. イベントシーケンスで表わされた演奏情報及び表示情報を含む楽曲データを入力するデータ入力ステップと、
    データ入力ステップで入力された楽曲データの演奏情報に基づいて、楽曲演奏の楽音を波形データで表わしたオーディオファイルを生成するオーディオ生成ステップと、
    データ入力ステップで入力された楽曲データの演奏情報及び表示情報に基づいて、楽曲演奏の進行に対応して順次表示される楽譜を画像データで表わした動画ファイルを生成する動画生成ステップと、
    オーディオ生成ステップ及び動画生成ステップで生成されたオーディオファイル及び動画ファイルを結合して音楽コンテンツを生成するコンテンツ生成ステップと
    を備えることを特徴とする音楽コンテンツ作成方法。
  5. イベントシーケンスで表わされた演奏情報及び表示情報を含む楽曲データを入力するデータ入力ステップと、
    データ入力ステップで入力された楽曲データの演奏情報に基づいて、楽曲演奏の楽音を波形データで表わしたオーディオファイルを生成するオーディオ生成ステップと、
    データ入力ステップで入力された楽曲データの演奏情報及び表示情報に基づいて、楽曲演奏の進行に対応して順次表示される楽譜を画像データで表わした動画ファイルを生成する動画生成ステップと、
    オーディオ生成ステップ及び動画生成ステップで生成されたオーディオファイル及び動画ファイルを結合して音楽コンテンツを生成するコンテンツ生成ステップと
    から成る手順をコンピュータに実行させる音楽コンテンツ作成プログラム。
JP2005308711A 2005-10-24 2005-10-24 音楽コンテンツ作成装置、方法及びプログラム Active JP4655878B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005308711A JP4655878B2 (ja) 2005-10-24 2005-10-24 音楽コンテンツ作成装置、方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005308711A JP4655878B2 (ja) 2005-10-24 2005-10-24 音楽コンテンツ作成装置、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2007114691A true JP2007114691A (ja) 2007-05-10
JP4655878B2 JP4655878B2 (ja) 2011-03-23

Family

ID=38096899

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005308711A Active JP4655878B2 (ja) 2005-10-24 2005-10-24 音楽コンテンツ作成装置、方法及びプログラム

Country Status (1)

Country Link
JP (1) JP4655878B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009193009A (ja) * 2008-02-18 2009-08-27 Yamaha Corp 電子音楽装置およびその制御方法を実現するプログラム
WO2014178462A1 (ko) * 2013-05-03 2014-11-06 Seok Cheol 동영상 스트리밍 서비스를 이용한 음악 편집 방법 및 이에 사용되는 음악 편집 장치

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04326398A (ja) * 1991-04-26 1992-11-16 Casio Comput Co Ltd 自動演奏装置
JPH086577A (ja) * 1994-06-23 1996-01-12 Hitachi Ltd カラオケ装置
JPH10240117A (ja) * 1997-02-25 1998-09-11 Dainippon Printing Co Ltd 楽器練習の支援装置および楽器練習用情報の記録媒体
JP2002165199A (ja) * 2000-11-27 2002-06-07 Yamaha Corp 番組作成再生装置及び番組作成再生方法並びに記憶媒体
JP2003195863A (ja) * 2001-12-27 2003-07-09 Sony Corp 情報作成装置、携帯電話機及び情報作成方法
JP2004004896A (ja) * 2003-06-17 2004-01-08 Daiichikosho Co Ltd カラオケ装置の歌詞表示システムにおける歌詞動画表示方式、および歌詞動画データの作成方法
JP2004021926A (ja) * 2002-06-20 2004-01-22 Casio Comput Co Ltd 二次的情報配信方法、及びシステム
JP2004364243A (ja) * 2003-05-14 2004-12-24 Mega Chips Corp 音声処理装置及び音声処理方法
JP2005017824A (ja) * 2003-06-27 2005-01-20 Yamaha Corp 楽譜表示装置および楽譜表示方法を実現するためのプログラム
JP2005055457A (ja) * 2003-08-01 2005-03-03 Yamaha Corp 楽譜表示装置及びプログラム
JP2005148563A (ja) * 2003-11-18 2005-06-09 Yamaha Corp 楽譜表示装置および楽譜表示方法を実現するためのプログラム

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04326398A (ja) * 1991-04-26 1992-11-16 Casio Comput Co Ltd 自動演奏装置
JPH086577A (ja) * 1994-06-23 1996-01-12 Hitachi Ltd カラオケ装置
JPH10240117A (ja) * 1997-02-25 1998-09-11 Dainippon Printing Co Ltd 楽器練習の支援装置および楽器練習用情報の記録媒体
JP2002165199A (ja) * 2000-11-27 2002-06-07 Yamaha Corp 番組作成再生装置及び番組作成再生方法並びに記憶媒体
JP2003195863A (ja) * 2001-12-27 2003-07-09 Sony Corp 情報作成装置、携帯電話機及び情報作成方法
JP2004021926A (ja) * 2002-06-20 2004-01-22 Casio Comput Co Ltd 二次的情報配信方法、及びシステム
JP2004364243A (ja) * 2003-05-14 2004-12-24 Mega Chips Corp 音声処理装置及び音声処理方法
JP2004004896A (ja) * 2003-06-17 2004-01-08 Daiichikosho Co Ltd カラオケ装置の歌詞表示システムにおける歌詞動画表示方式、および歌詞動画データの作成方法
JP2005017824A (ja) * 2003-06-27 2005-01-20 Yamaha Corp 楽譜表示装置および楽譜表示方法を実現するためのプログラム
JP2005055457A (ja) * 2003-08-01 2005-03-03 Yamaha Corp 楽譜表示装置及びプログラム
JP2005148563A (ja) * 2003-11-18 2005-06-09 Yamaha Corp 楽譜表示装置および楽譜表示方法を実現するためのプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009193009A (ja) * 2008-02-18 2009-08-27 Yamaha Corp 電子音楽装置およびその制御方法を実現するプログラム
WO2014178462A1 (ko) * 2013-05-03 2014-11-06 Seok Cheol 동영상 스트리밍 서비스를 이용한 음악 편집 방법 및 이에 사용되는 음악 편집 장치

Also Published As

Publication number Publication date
JP4655878B2 (ja) 2011-03-23

Similar Documents

Publication Publication Date Title
JP2003509729A (ja) ディジタル音楽ファイルに基づいて楽器を演奏するための方法及び装置
US20060243119A1 (en) Online synchronized music CD and memory stick or chips
JP5122598B2 (ja) 音声入力評価システム、音声入力評価システムの制御方法、及びプログラム
JP4655878B2 (ja) 音楽コンテンツ作成装置、方法及びプログラム
JP5014073B2 (ja) メロディ表示制御装置及びカラオケ装置
JP2006189471A (ja) プログラム、歌唱力判定方法、ならびに、判定装置
JP2007188561A (ja) 音楽付きスライドショー自動生成装置及びプログラム
JP2005037846A (ja) 音楽再生装置の情報設定装置及び情報設定方法
JP2002082678A (ja) カラオケ端末装置
JP3974069B2 (ja) 合唱曲や重唱曲を処理するカラオケ演奏方法およびカラオケシステム
KR100973868B1 (ko) 가라오케시스템에서 영상 및 가사 매칭 장치
JP2001306070A (ja) シーケンスデータファイル処理装置及び方法並びに記憶媒体
JP4161714B2 (ja) カラオケ装置
JP2002108375A (ja) カラオケ曲データ変換装置及びカラオケ曲データ変換方法
JP3620423B2 (ja) 楽曲情報入力編集装置
JP2013003430A (ja) カラオケ装置
JP5273086B2 (ja) カラオケ装置
JP2005189878A (ja) 音楽演奏装置と音楽演奏方法とプログラム
JP2000187489A (ja) カラオケ装置
JP3277745B2 (ja) 音楽再生装置
JP3941616B2 (ja) 通信カラオケシステムの配信方法
KR100826659B1 (ko) 음악파일의 특정 연주부분을 소거 또는 선택하여 청취하는방법
JP2008158335A (ja) 自動演奏装置及び方法
KR101017167B1 (ko) 가라오케 장치
JP3381508B2 (ja) カラオケ装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080820

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100506

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100525

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101130

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101213

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140107

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4655878

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150