JP3755471B2 - Sound material processing apparatus and sound material processing program - Google Patents

Sound material processing apparatus and sound material processing program Download PDF

Info

Publication number
JP3755471B2
JP3755471B2 JP2002054122A JP2002054122A JP3755471B2 JP 3755471 B2 JP3755471 B2 JP 3755471B2 JP 2002054122 A JP2002054122 A JP 2002054122A JP 2002054122 A JP2002054122 A JP 2002054122A JP 3755471 B2 JP3755471 B2 JP 3755471B2
Authority
JP
Japan
Prior art keywords
sound material
data
playback
video
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002054122A
Other languages
Japanese (ja)
Other versions
JP2003255936A (en
Inventor
進 河島
卓次 熊沢
徹 板山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2002054122A priority Critical patent/JP3755471B2/en
Priority to US10/375,655 priority patent/US7202407B2/en
Publication of JP2003255936A publication Critical patent/JP2003255936A/en
Application granted granted Critical
Publication of JP3755471B2 publication Critical patent/JP3755471B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、映像データを再生しながら、該映像データに付加する音素材データをリアルタイムに加工し、これを試聴可能とする音素材加工装置及び音素材加工用プログラムに関する。
【0002】
【従来の技術】
従来より、音素材データを加工可能な音素材加工装置、例えば、MIDI(Musical Instrument Digital Interface)データの加工が可能なMIDIシーケンサが知られている。
【0003】
また、従来より、音素材データを映像データのバックグランドミュージック(以下「BGM」という)として付加することが可能な映像編集装置が知られている。
【0004】
【発明が解決しようとする課題】
しかしながら、上記従来の映像編集装置では、音素材データを映像データのBGMとして付加する際に、音素材データを映像データに付加するという編集作業を実行した後でなければ、音素材データと映像データとを同時に再生することができないという問題がある。それ故、ユーザは編集作業を実行した後でなければ、映像データに対してどのように音素材データ(BGM)が付加されたのかを確認することができなかった。
【0005】
特に、ユーザが音素材データを加工してBGMとして映像データに付加したい場合、ユーザは、一旦音素材加工装置で音素材データを加工してファイルに保存した後、映像編集装置で編集作業をして初めて音素材データ(BGM)が付加された映像データを確認することができるので、音素材データの加工を何度もやり直す場合に大変に効率が悪かった。
【0006】
本発明は、かかる点に鑑みてなされたものであり、映像編集の作業効率の向上を図ることができる音素材加工装置及び音素材加工用プログラムを提供することを目的とする。
【0007】
【課題を解決するための手段】
上記目的を達成するために、請求項1記載の音素材加工装置は、映像データを再生すると共に該映像データに再生態様を制御するための再生パラメータを有する音素材データを付加する編集処理を実行する映像編集手段と、前記映像編集手段が前記映像データの再生を開始していない状態において、ユーザによる指示に応じて、事前に前記再生パラメータの設定変更を行う第1の加工手段と、前記映像編集手段が前記映像データの再生を開始したことに応じて、前記第1の加工手段により設定変更された再生パラメータに基づいて前記音素材データの再生を開始する再生制御手段と、前記映像編集手段が映像データを再生している状態において、ユーザによる指示に応じて、前記再生パラメータの設定変更を行う第2の加工手段と、前記映像編集手段が映像データの再生を停止したことに応じて前記音素材データの再生を停止する再生停止制御手段と、前記音素材データの再生が停止されたことに応じて、前記第2の加工手段により設定変更された再生パラメータを前記音素材データ中に記録する記録手段と、前記再生制御手段による再生の開始がなされてから前記再生停止制御手段による再生の停止がなされるまでの期間、前記音素材データを再生する音素材データ再生手段とを備え、前記映像編集手段は、前記記録手段により再生パラメータが保存された音素材データに基づく音声データを前記映像データに付加することを特徴とする。
【0010】
請求項記載の音素材加工用プログラムは、前記請求項記載の音素材加工装置と同様の動作をコンピュータに実行させることを特徴とする。
【0011】
【発明の実施の形態】
以下、本発明の実施の形態について図面を参照して説明する。
【0012】
図1は、本発明の実施の形態に係る音素材加工装置の概略ハードウェア構成を示すブロック図である。
【0013】
本発明の実施の形態に係る音素材加工装置は、例えば、パーソナルコンピュータ(PC)1で構成される。
【0014】
PC1は、PC1全体の動作を制御するCPU2を備えており、CPU2には通信バス17を介してRAM3、ROM4、MIDIインターフェース(I/F)5、操作回路6、表示回路7、音源回路8、外部記憶装置9、通信インターフェース(I/F)10及びタイマ11がそれぞれ接続されている。
【0015】
RAM3は、映像データ又は音素材データに関する各種情報やCPU2が各種プログラムを実行する際に発生する各種データを一時的に記憶する。ROM4は、CPU2により実行又は参照される各種プログラムや各種データ(例えば、映像データ、該映像データの特徴データである映像時間データやタイトルデータ、映像編集用プログラム、音素材加工・再生用プログラム及びデータフォーマット変換処理用プログラム等)を記憶する。MIDIインターフェース(I/F)5は、電子楽器12を通信バス17に接続するためのインターフェースであり、電子楽器12とPC1との間でMIDIデータを通信するために使用される。操作回路6は操作子13を通信バス17に接続し、操作子13、例えばマウスやキーボード等からの入力データを通信バス17を介してCPU2に出力する。表示回路7は表示装置14を通信バス17に接続し、例えば、映像データやMIDIデータからなる音素材データ又はこれらを再生する再生プレーヤに相当する画像データ等の各種データを表示装置14に出力し、表示装置14は表示回路7から出力された該各種データを表示する。音源回路8は、音素材データを通信バス17を介して入力し、この音素材データに基づいて楽音信号をサウンドシステム15に出力する。サウンドシステム15は、この入力された楽音信号を発生する。タイマ11はCPU2で実行される様々な処理で使用される。
【0016】
外部記憶装置9は、映像データやサンプル用の音素材データ等の各種データやCPU2により実行又は参照される各種プログラムを記憶し、ROM4と同様の機能を果たす。CPU2が外部記憶装置9に記憶されている各種データや各種プログラムをRAM3に読み込ませて、処理を実行することで、ROM4が各種データや各種プログラムを記憶している場合と同様の動作を実行することができる。従って、外部記憶装置9の付け替えにより各種プログラムの追加やバージョンアップ等が容易に行える。
【0017】
通信I/F10は、インターネットや商用ネットワーク等からなるネットワーク16に有線又は無線で接続されており、本PC1はこのネットワーク16を介して音素材データ提供サイトとしての機能を果たすサーバコンピュータ18及び他のPC19に接続されている。これにより、サーバコンピュータ18から音素材データをダウンロードすることが可能となると共に他のPC19から各種データや各種プログラムをダウンロードすることができる。
【0018】
MIDI・I/F5は、専用のMIDI・I/Fを用いるものに限らず、RS232−C、USB又はIEEE1394等の汎用I/Fを用いてMIDI・I/Fを構成するようにしてもよい。この場合、MIDIデータ以外のデータをも同時に送受信するようにしてもよい。
【0019】
PC1に対して音素材データを提供するサーバコンピュータ18のハードウェア構成は、上述したPC1のハードウェア構成と同様である。但し、サーバコンピュータ18は音素材データをPC1等の各ユーザ端末に提供することを主目的とするため、MIDI・I/F5、音源回路8、電子楽器12及びサウンドシステム15は備えていなくてもよい。
【0020】
図2は、図1におけるPC1及びサーバコンピュータ18の機能構成を示すブロック図である。
【0021】
PC1は、映像データを編集及び再生する映像編集部21と音素材データの加工及び再生を行う音素材加工・再生部22と、音素材データのデータフォーマットを変換するソフトウェア音源部23とを備え、サーバコンピュータ18は多数の音素材データを有する音素材データベース25と、PC1からの指示に従って該音素材データベース25からユーザ所望の音素材データを検索し、抽出する検索エンジン24とを備えている。
【0022】
映像編集部21、音素材加工・再生部22及びソフトウェア音源部23はPC1が備える各種プログラムがPC1のハードウェアにより実行されて実現される機能であり、音素材データベース25は音素材データの集合物であって、これらのデータを検索エンジン24を用いて検索することができるように体系的(例えば音楽カテゴリー毎)に構成されたものであり、検索エンジン24はサーバコンピュータ18が備える音素材データ用検索プログラムがサーバコンピュータ18のハードウェアにより実行されて実現される機能である。
【0023】
映像編集部21は、具体的には、CPU2がROM4又は外部記憶装置9に記憶されている映像編集用プログラムをRAM3に読み出し、該RAM3に読み出された映像編集用プログラムの指示に従ってROM4又は外部記憶装置9に記憶されている映像データを編集し、表示装置14が表示回路7を介して受信した編集前又は編集後の映像データを表示することで実現される。
【0024】
音素材加工・再生部22は、具体的には、CPU2がROM4又は外部記憶装置9に記憶されている音素材加工・再生用プログラムをRAM3に読み出し、該RAM3に読み出された音素材加工・再生用プログラムの指示に従って音素材データベース25から受信した音素材データを加工し又は再生し、表示装置14が表示回路7を介して受信した加工前又は加工後の音素材データを視覚的に表示すると共にサウンドシステム15が音源回路8を介して受信した加工前又は加工後の音素材データを発音することで実現される。
【0025】
ソフトウェア音源部23は、具体的には、CPU2がROM4又は外部記憶装置9に記憶されている楽音波形生成・データフォーマット変換処理用プログラムをRAM3に読み出し、該RAM3に読み出された楽音波形生成・データフォーマット変換処理用プログラムの指示に従って音素材データベース25から受信した音素材データに基づき楽音波形を生成したり、データフォーマットを変換することで実現される。
【0026】
検索エンジン24は、具体的には、CPU2が通信I/F10を介してPC1からの検索条件を受信し、ROM4又は外部記憶装置9に記憶されている検索用プログラムをRAM3に読み出し、前記受信した検索条件を該検索用プログラムに組み込んで検索処理を実行し、該検索条件に対応する音素材データを音素材データベース25から抽出し、該抽出された音素材データを通信I/F10を介してPC1に送信することで実現される。
【0027】
以上のように構成されたPC1とサーバコンピュータ18とからなるシステムの機能を以下説明する。
【0028】
図3は、PC1が備える映像編集部21及び音素材加工・再生部22とサーバコンピュータ18、即ち音素材提供サイトとで実行されるメイン処理を示したフローチャートである。音素材提供サイトの処理は主として上記検索エンジン24で実行される。
【0029】
まず、ユーザが操作子13を介して音素材データを付加する映像データを選択すると、映像編集部21が編集すべき映像データを決定し(ステップS301)、該映像データの特徴データである映像時間データとタイトルデータを取得し、これを音素材加工・再生部22に供給し(ステップS302)、試聴処理を実行する(ステップS307)。
【0030】
一方、音素材加工・再生部22は、映像編集部21からの特徴データ、即ち映像時間データとタイトルデータの供給を受けて、該映像時間データとタイトルデータを検索条件として、音素材提供サイトにアクセスする(ステップS303)。
【0031】
音素材提供サイトは、音素材加工・再生部22から映像時間データとタイトルデータを検索条件として受信し、該検索条件に基づいて音素材データベース25を検索し、該検索条件と合致する音素材データを抽出する(ステップS304)。音素材データを抽出する方法は公知の技術を使用する。
【0032】
上記ステップS303及びステップS304に示すように、音素材加工・再生部22は、映像データの再生時間を含む映像の特徴データを自動的に取得し、これを音素材提供サイトへと供給するので、ユーザが映像データの再生時間を把握しなくてもよく、また、映像データに付加すべき音素材データを効率良く音素材提供サイトから取得することができ、映像編集の作業効率の向上を図ることができる。尚、音素材加工・再生部22は、映像データの再生時間とタイトルの一方を音素材提供サイトへ供給するようにしてもよい。
【0033】
次いで、音素材提供サイトは、ステップS304で抽出された音素材データのリストを作成すると共に該作成された音素材データのリストを音素材加工・再生部22に送信し(ステップS305)、試聴処理を実行する(ステップS307)。
【0034】
音素材加工・再生部22は、音素材提供サイトから受信した音素材データのリストを表示し(ステップS306)、試聴処理を実行する(ステップS307)。
【0035】
ステップS307の試聴処理では、音素材加工・再生部22が音素材提供サイトに対して、音素材データのストリーム配信の指示をし、音素材提供サイトがこれを受けて、音素材データのストリーム配信を実行し、音素材加工・再生部22が音素材提供サイトから配信されてくる音素材データのストリーム再生を実行し、このストリーム再生と同期して映像編集部21が映像データの再生を実行して、ユーザが映像データを確認しつつ音素材データの試聴を行う。試聴処理の詳細な説明は、図4を参照しながら後述する。ここで、ストリーム配信とは、音素材提供サイトが音素材加工・再生部22で音素材データファイルをダウンロードすることなくストリーム再生が可能なようにデータを配信する技法であり、ストリーム再生とは、音素材加工・再生部22が音素材提供サイトから配信される音素材データをダウンロードすることなくリアルタイムで再生する技法である。
【0036】
ステップS307の試聴処理で、ユーザは所望の音素材データを確認すると、操作子13を介して当該音素材データを指定し、音素材加工・再生部22がこの指定を受けて、音素材提供サイトに対して当該音素材データのダウンロードを指示する(ステップS308)。
【0037】
音素材提供サイトは、音素材加工・再生部22からの音素材データのダウンロード指示を受けて、該音素材データを音素材加工・再生部22に配信し(ステップS309)、音素材提供サイトにおける一連の処理を終了する。
【0038】
音素材加工・再生部22は音素材提供サイトから配信された音素材データを受信すると共に該受信した音素材データを任意のファイル名を付与し、任意の保存場所を指定して保存して(ステップS310)、加工・プレビュー処理を実行する(ステップS311)。
【0039】
映像編集部21はステップS307の試聴処理を実行した後、加工・プレビュー処理を実行する(ステップS311)。
【0040】
ステップS311の加工・プレビュー処理では、映像編集部21がプレビューモードで映像データの再生を行い、音素材加工・再生部22がこの映像データの再生前又は再生中に、必要に応じてステップS310で保存された音素材データを加工し、映像データの再生と同期して該必要に応じて加工された音素材データを再生し、音素材データの加工に用いた加工パラメータを音素材データ中に記録する。加工・プレビュー処理の詳細な説明は、図5を参照しながら後述する。
【0041】
ステップS311の加工・プレビュー処理後、音素材加工・再生部22はMIDItoオーディオ変換処理を実行する(ステップS312)。
【0042】
MIDItoオーディオ変換処理では、音素材加工・再生部22及びソフトウェア音源部23により加工パラメータが記録された音素材データ(即ちMIDIデータ)を映像編集部21で映像データに付与できるオーディオフォーマットに変換する。MIDItoオーディオ変換処理の詳細な説明は、図6を参照しながら後述する。
【0043】
音素材加工・再生部22は、オーディオフォーマットに変換された音素材データを任意のファイルに保存すると共にその旨を映像編集部21に通知して(ステップS313)、音素材加工・再生部22における一連の処理を終了する。
【0044】
映像編集部21は、ステップS313で保存されたファイルを読み込み、該読み込まれたファイル、即ちオーディオフォーマットに変換された音素材データを映像データに付加して(ステップS314)、映像編集部21における一連の処理を終了する。
【0045】
上述したメイン処理では、音素材加工・再生部22が直接音素材データのリストの表示やダウンロードの指示を実行したが、別途ウェブブラウザーのような表示機能や指示出力機能を実行する処理部を設けて、これに音素材データのリストの表示やダウンロードの指示を実行させるようにしてもよい。
【0046】
また、音素材加工・再生部22は、オーディオフォーマットに変換された音素材データを任意のファイルに保存して(ステップS313)、映像編集部21が該保存されたファイルを読み込んだが、音素材加工・再生部22が、MIDItoオーディオ変換処理で音素材データのオーディオフォーマットに変換した後(ステップS312)、該オーディオフォーマットに変換された音素材データをファイルに保存せずに、直接映像編集部21に送信するようにしてもよい。
【0047】
図4は、図3におけるステップS307の試聴処理を示すフローチャートである。
【0048】
まず、ユーザが映像データ中における音素材データを付与する位置を操作子13を介して指定することにより、映像編集部21が該音素材データを付与する位置を設定し(ステップS401)、試聴モードに設定する(ステップS402)。
【0049】
次いで、映像編集部21は操作子13を介して入力される映像データの再生指示を受け付けると共にその指示があった旨を音素材加工・再生部22に通知する(ステップS403)
音素材加工・再生部22は、ステップS403の映像編集部21からの指示があった旨を受けて、図3のステップS306で表示された音素材データのリストの中から操作子13を介して予め指定された音素材データについて音素材提供サイトに対しストリーム配信を指示する(ステップS408)。
【0050】
音素材提供サイトは、ステップS408の音素材加工・再生部22からの音素材データに関するストリーム配信の指示を受けて、該指示に対応する音素材データのストリーム配信を実行する(ステップS415)。
【0051】
音素材提供サイトによりストリーム配信が実行されると、音素材加工・再生部22は音素材データを音素材提供サイトより受信し、ストリーム再生が可能であるか否か、即ち所定時間分の音素材データを蓄積したか否かを判別する(ステップS409)。この判別はストリーム再生を考慮したために行われる、即ち再生音がとぎれない程度の音素材データを音素材加工・再生部22が蓄積することを目的として行われる。上記所定時間は、例えば5秒であるが、ストリーム再生は、音素材加工・再生部22での音素材データの再生処理速度やインターネット等のネットワークの通信速度の影響を受けるため、上記所定時間は音素材加工・再生部22で設定する。また、ストリーム再生は後続のデータを受信しながら再生を行うため、上記所定時間分の音素材データの蓄積は、音素材データの全てを蓄積することではない。
【0052】
ステップS409の判別の結果、所定時間分の音素材データを蓄積した場合には、音素材加工・再生部22は映像編集部21に対して映像データの再生開始を指示し(ステップS410)、蓄積された所定時間分の音素材データと音素材提供サイトから引き続き配信されてくる音素材データとを音がとぎれないようにストリーム再生する(ステップS411)。
【0053】
一方、映像編集部21は、ステップS410の音素材加工・再生部22からの再生開始指示を受けて、映像データの再生を実行し(ステップS404)、操作子13を介して入力された映像データの再生停止指示又は有限である映像データの時間長に基づいて映像データの再生を継続するか否かを判別する(ステップS405)。
【0054】
ステップS409の判別の結果、映像編集部21が映像データの再生を継続する場合にはステップS404に戻り、映像データの再生を継続する一方、映像編集部21が映像データの再生を継続しない場合には、映像データの再生を停止する(ステップS406)。
【0055】
次いで、映像編集部21は、音素材加工・再生部22に対して音素材データの再生停止を指示し(ステップS407)、映像編集部21における一連の処理を終了し、図3のメイン処理に戻る。
【0056】
音素材加工・再生部22は、音素材データのストリーム再生開始後、ステップS407で映像編集部21から送信される音素材データの再生停止指示を受信したか否かを判別する(ステップS412)。
【0057】
ステップS412の判別の結果、該音素材データの再生停止指示を受信していない場合には、ステップS411に戻り、音素材データのストリーム再生を実行する一方、該音素材データの再生停止指示を受信した場合には、音素材データのストリーム再生を停止する(ステップS413)。
【0058】
次いで、音素材加工・再生部22は音素材提供サイトに対して音素材データのストリーム配信の停止を指示し(ステップS414)、音素材加工・再生部22における一連の処理を終了して、図3のメイン処理に戻る。
【0059】
音素材提供サイトは、音素材データのストリーム配信開始後、音素材加工・再生部22から送信されるストリーム配信の停止指示を受信して、音素材データのストリーム配信を停止し(ステップS416)、音素材提供サイトにおける一連の処理を終了し、図3のメイン処理に戻る。なお、ステップS412では、音素材加工・再生部22が映像編集部21からの音素材データの再生停止指示を受信したか否かを判別したが、音素材加工・再生部22が映像編集部21へとアクセスし、映像データの再生停止を検出したか否かを判別して、その結果、映像データの再生停止を検出していない場合には、ステップS411に戻り、映像データの再生停止を検出した場合には、ステップS413に進むようにしてもよい。
【0060】
上述した試聴処理では、音素材加工・再生部22が音素材提供サイトに対して、音素材データのストリーム配信の指示をし、音素材提供サイトがこれを受けて、音素材データのストリーム配信を実行し、音素材加工・再生部22が音素材提供サイトから配信されてくる音素材データのストリーム再生を実行し、このストリーム再生と同期して映像編集部21が映像データの再生を実行する。従って、ユーザは、音素材データを映像データに付加するためにダウンロードする前に、ストリーム再生により、映像データに対して音素材データ(例えば、BGM)がどのように付加されるのかを確認することができるので、映像編集の作業効率の向上を図ることができる(ダウンロードの際に必要なファイル名の指定や保存先の指定がストリーム再生では不要であり、かつ試聴の結果気にいらなかった場合のファイル消去作業も不要である。)特に、単なる音素材データのストリーム再生ではなく、映像データの再生と同期しての音素材データのストリーム再生であるので、映像データと付加される音素材データとの関係が非常にわかりやすいという効果を奏する。
【0061】
また、音素材加工・再生部22は、映像編集部21からの映像データの再生指示を受けて、音素材提供サイトに対し所定の音素材データのストリーム配信を指示し、音素材提供サイトからストリーム配信された音素材データがストリーム再生可能になった時点で、映像編集部21に対して映像データの再生開始許可を送信すると共に音素材データのストリーム再生をするので、映像データが先に再生開始されてしまうことがなく、音素材データと映像データとを確実に同期して再生することができる。
【0062】
さらに、音素材加工・再生部22は、音素材データの再生停止指示を受けて、音素材データのストリーム再生を停止し、さらに音素材提供サイトに対して音素材データのストリーム配信の停止を指示する、又は音素材加工・再生部22が映像編集部21へとアクセスし、映像データの再生停止を検出し、この検出結果に応じて音素材提供サイトに対して音素材データのストリーム配信の停止を指示するので、ユーザがいちいち、映像編集部21、音素材加工・再生部22及び音素材提供サイトに対して各停止指示を出す必要がなくなるという効果を奏する。
【0063】
上述した試聴処理では、音素材加工・再生部22が映像編集部21により送信された音素材データの再生停止指示を受信した場合に、音素材データのストリーム再生を停止したが、音素材データの時間長が映像編集部21での映像データの再生時間よりも短い場合には、音素材提供サイトは音素材データのストリーム配信を終了した時点で、音素材加工・再生部22からのストリーム配信の停止指示を受信せずに、自動的に音素材データのストリーム配信を停止するようにしてもよい。また、MIDIデータのようにファイルサイズの小さいデータの場合は、全データを受信してキャッシュメモリに蓄積した後に再生を開始し、再生が終了した時点でキャッシュメモリから消去される擬似ストリーム再生をしてもよく、この場合にもファイルのダウンロードが不要なため、上記と同様の効果が得られる。
【0064】
図5は、図3におけるステップS311の加工・プレビュー処理を示すフローチャートである。
【0065】
まず、映像編集部21が操作子13を介して入力されたユーザの指示に従い、映像編集用プログラムにおいてプレビューモードを設定する(ステップS501)。
【0066】
次いで、映像編集部21が操作子13を介して入力される映像データの再生指示を受け付けると共に映像データの再生指示を受け付けた旨を音素材加工・再生部22に対して送信する(ステップS502)。
【0067】
映像編集部21は、映像データを再生し(ステップS503)、操作子13を介して入力された映像データの再生停止指示又は有限である映像データの時間長に基づいて映像データの再生を継続するか否かを判別する(ステップS504)。
【0068】
ステップS504の判別の結果、映像編集部21が映像データの再生を継続する場合にはステップS503に戻り、映像データの再生を継続する一方、映像編集部21が映像データの再生を継続しない場合には、映像データの再生を停止する(ステップS505)。
【0069】
次いで、映像編集部21は、音素材加工・再生部22に対して音素材データの再生停止を指示し(ステップS506)、映像編集部21における一連の処理を終了し、図3のメイン処理に戻る。
【0070】
一方、音素材加工・再生部22は、まず、操作子13を介して入力された音素材データの加工処理指示に従い、図3のステップS310でファイルに保存した音素材データの加工処理を行う(ステップS507)。この加工処理は、具体的には、音素材データのパラメータを調整するものであり、このパラメータ(以下、「加工パラメータ」という)は例えば、パートオン/オフ、音色変更、ミキサー、エフェクト付与、テンポ変更又はピッチ変更等の、音素材データの音楽的な内容を簡易的に修正可能なパラメータにより構成されている。この加工処理では、MIDIシーケンサのようにMIDIイベントを1つずつ修正するといった高度な修正をするものとは異なり、初心者にも簡単に音素材データを加工できるようになっている。尚、操作子13を介して何ら加工処理指示が入力されない場合には、ステップS507の処理はキャンセルされる。
【0071】
次いで、音素材加工・再生部22は、映像編集部21から送信された映像データの再生指示を受け付けた旨を受信して、必要に応じて加工処理が施された音素材データを再生する(ステップS508)。この後、音素材データの再生中に、ステップS507と同様に、必要に応じて再生中の音素材データの加工処理を行う(ステップS509)。
【0072】
次に、音素材加工・再生部22は、映像編集部21から音素材データの再生停止指示を受信したか否かを判別し(ステップS510)、音素材データの再生停止指示を受信していない場合には、ステップS508に戻り、引き続き音素材データを再生する一方、音素材データの再生停止指示を受信した場合には、音素材データの再生を停止する(ステップS511)。上記ステップS510では、音素材加工・再生部22は、映像編集部21から音素材データの再生停止指示を受信したか否かを判別したが、音素材加工・再生部22が、映像編集部21にアクセスし、映像データの再生停止を検出したか否かを判別し、この結果、映像データの再生停止を検出していない場合には、ステップS508に戻る一方、映像データの再生停止を検出した場合には、ステップS511に進むようにしてもよい。
【0073】
最後に、音素材加工・再生部22は、ステップS507又はステップS509において、必要に応じて調整された加工パラメータを該音素材データ中に記録し(ステップS512)、一連の処理を終了して、図3のメイン処理に戻る。
【0074】
上述した加工・プレビュー処理では、映像編集部21がプレビューモードで映像データの再生を行い、音素材加工・再生部22がこの映像データの再生前又は再生中に、必要に応じて音素材データを加工し、映像データの再生と同期して該必要に応じて加工された音素材データを再生し、音素材データの加工に用いた加工パラメータを音素材データ中に記録する。従って、ユーザは、映像データを再生しつつ、音素材データの加工をリアルタイムに行うことができ、且つ音素材データを付与した映像データの作成の完了を待たずに、該加工された音素材データと映像データとの同期再生を確認することができる。よって、ユーザは映像データに対して音素材データ(例えば、BGM)がどのように付加されるのかを確認することができるので、映像編集の作業効率の向上を図ることができる。また、音素材加工・再生部22は、音素材データの再生中に加工処理を施すことができるので、映像編集の作業効率の向上を図ることができる。また、加工処理前と加工処理後の音素材データを比較試聴できるようにしてもよい。
【0075】
上述した加工・プレビュー処理では、音素材加工・再生部22が映像編集部21により送信された音素材データの再生停止指示を受信した場合に、音素材データの再生を停止したが、音素材データの時間長が映像編集部21での映像データの再生時間よりも短い場合には、音素材加工・再生部22は映像編集部21により送信される音素材データの再生停止指示を受信する前に、音素材データの再生を自動的に停止するようにしてもよい。
【0076】
図6は、図3におけるステップS312のMIDItoオーディオ変換処理を示すフローチャートである。
【0077】
まず、音素材加工・再生部22は、加工パラメータを記録した音素材データ、即ちこのMIDIデータを高速かつ各イベントの相対時間の関係を保ちながら読み出し、1イベント毎にMIDIデータをソフトウェア音源部23に送信する(ステップS601)。
【0078】
ソフトウェア音源部23は、受信した1イベント毎のMIDIデータに基づいてオーディオ波形データを生成し、生成されたオーディオ波形データをバッファ(RAM3)に一時保存して、所定時間分(例えば0.5秒分)のオーディオ波形データが保存されるごとに、それを音素材加工・再生部22に送信する(ステップS602)。オーディオ波形データを一時保存するバッファでは、オーディオ波形データを音素材加工・再生部22に送信することで空いた領域に順次生成されたオーディオ波形データを保存する。
【0079】
音素材加工・再生部22は、ソフトウェア音源部23から受信した所定時間分のオーディオ波形データを順次内部的に録音する(ステップS603)。ここで、内部的に録音するとは、ソフトウェア音源部23から受信するオーディオ波形データが発音され、その発した音を録音することではなく、音を出さずに記録していることを意味する。
【0080】
次いで、音素材加工・再生部22は、変換すべきMIDIデータの全ての読み出しが終了したか否かを判別し(ステップS604)、MIDIデータの全ての読み出しが終了していない場合には、ステップS601に戻り、MIDIデータの読み出しを継続する一方、MIDIデータの全ての読み出しが終了している場合には、ステップS603で内部的に録音されたオーディオ波形データを、映像編集部21で取り扱うことができる、予め設定されたオーディオフォーマットに変換し(ステップS605)、一連の処理を終了して、図3のメイン処理に戻る。
【0081】
上述したMIDItoオーディオ変換処理では、音素材加工・再生部22及びソフトウェア音源部23により加工パラメータが記録された音素材データ(即ちMIDIデータ)が映像編集部21で映像データに付加できるオーディオフォーマットに変換されるので、音素材加工・再生部22及びソフトウェア音源部23において、音素材データの加工から音素材データのオーディオフォーマットへの変換まで一挙に実行することができ、作業効率の向上を図ることができる。また、PC1の他に、別途、音素材データのオーディオフォーマットの変換を行う変換装置を設ける必要がなくなるという効果を奏する。
【0082】
上述した音素材提供サイトで提供する音素材データは、MIDIデータに限らず、オーディオ形式のデータでもよい。その場合、MIDItoオーディオ変換処理は不要である。また、オーディオ形式のデータの加工については、パートオン/オフや音色変更の処理、又はミキサーでの加工処理はできないものの、エフェクト付与、テンポ変更又はピッチ変更の処理は可能である。
【0083】
上述した音素材データの試聴(音素材データがストリーム再生される場合や音素材データが加工された上で映像データがプレビューされる場合)は、映像編集部21からの映像再生の開始又は停止の指示に応じて行われたが、音素材加工・再生部22からの指示に応じて行われるようにしてもよい。すなわち、音素材データがストリーム再生される場合は、音素材加工・再生部22でストリーム再生が指示されると、音素材提供サイトに音素材のストリーム配信が指示され、ストリーム配信された音素材データが再生可能になった時点で映像編集部21に映像データの再生が指示される。また、音素材加工・再生部22でストリーム再生の停止が指示されると、音素材提供サイトにストリーム配信の停止が指示されると共に映像編集部21に映像データの再生停止が指示される。また、音素材データが加工された上で映像データがプレビューされる場合は、音素材加工・再生部22でプレビュー処理が指示されると、音素材データの再生が開始されると共に映像編集部21に映像データの再生が指示され、音素材加工・再生部22でプレビュー処理の停止が指示されると、音素材データの再生が停止されると共に映像編集部21に映像データの再生停止が指示される。
【0084】
上記音素材データの加工処理では、音素材データのパートオン/オフ、音色変更、ミキサー、エフェクト付与、テンポ変更及びピッチ変更のパラメータを調整することとしたが、音素材データのパラメータはこれらすべてを備えていなくてもよく、少なくとも1つあればよい。また、これら以外の加工の種類があってもよい。また、パラメータの一つである「テンポ変更」に関しては、映像の再生時間と音素材データの時間長が一致するように自動的にテンポを変更してもよい。上記MIDItoオーディオ変換処理は、音素材加工・再生部22とソフトウェア音源部23とが協働することで実現したが、ソフトウェア音源部23単体でこの機能を実現してもよい。
【0085】
上記映像編集部21と音素材加工・再生部22とは、別々のプログラムをCPU2で実行することにより実現されたが、1つのプログラムをCPU2で実行することにより実現されるようにしてもよい。
【0086】
上記音素材サイトでは、音素材データをダウンロードさせるときは課金処理を実行し、音素材データのストリーム配信をするときは課金処理を実行しないようにしてもよい。
【0087】
上述した実施の形態の機能は、ソフトウェアであるプログラムの形態によっても実現することができ、これにより、本発明の目的が達成されることは云うまでもない。
【0088】
更にまた、上述した実施の形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給し、そのシステムまたは装置のコンピュータ(またはCPU2)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の目的が達成されることは云うまでもない。
【0089】
この場合、記憶媒体から読出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
【0090】
プログラムコードを供給するための記憶媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、DVD−ROM、半導体メモリ、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。また、他の電子楽器12、又はネットワーク16を介して他のPC19からプログラムコードが供給されるようにしてもよい。
【0091】
【発明の効果】
以上詳細に説明したように、請求項1記載の音素材加工装置及び請求項記載の音素材加工用プログラムによれば、映像編集手段が映像データの再生を開始していない状態において、第1の加工手段はユーザによる指示に応じて、事前に再生パラメータの設定変更を行い、映像編集手段が映像データの再生を開始したことに応じて、再生制御手段は第1の加工手段により設定変更された再生パラメータに基づいて音素材データの再生を開始し、映像編集手段が映像データを再生している状態において、第2の加工手段はユーザによる指示に応じて、前記再生パラメータの設定変更を行い、再生停止制御手段は映像編集手段が映像データの再生を停止したことに応じて音素材データの再生を停止し、記録手段は音素材データの再生が停止されたことに応じて、第2の加工手段により設定変更された再生パラメータを音素材データ中に記録し、音素材データ再生手段は再生制御手段による再生の開始がなされてから再生停止制御手段による再生の停止がなされるまでの期間、音素材データを再生するので、ユーザは映像データに対して音素材データ(例えば、BGM)がどのように付加されるのかを確認することができ、映像編集の作業効率の向上を図ることができる。
【図面の簡単な説明】
【図1】 本発明の実施の形態に係る音素材加工装置の概略ハードウェア構成を示すブロック図である。
【図2】 図1におけるPC1及びサーバコンピュータ18の機能構成を示すブロック図である。
【図3】 図1におけるPC1が備える映像編集部21及び音素材加工・再生部22とサーバコンピュータ18、即ち音素材提供サイトとで実行されるメイン処理を示したフローチャートである。
【図4】 図3におけるステップS307の試聴処理を示すフローチャートである。
【図5】 図3におけるステップS311の加工・プレビュー処理を示すフローチャートである。
【図6】 図3におけるステップS312のMIDItoオーディオ変換処理を示すフローチャートである。
【符号の説明】
1 PC 2 CPU(映像編集手段、音素材データ加工手段、音素材データ再生手段) 3 RAM 4 ROM 5 MIDI・I/F 6 操作回路 7表示回路 8 音源回路 9 外部記憶装置 10 通信I/F
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a sound material processing apparatus and a sound material processing program for processing sound material data to be added to the video data in real time while reproducing the video data and making it possible to audition the data.
[0002]
[Prior art]
Conventionally, a sound material processing apparatus capable of processing sound material data, for example, a MIDI sequencer capable of processing MIDI (Musical Instrument Digital Interface) data is known.
[0003]
Conventionally, there has been known a video editing apparatus capable of adding sound material data as background music (hereinafter referred to as “BGM”) of video data.
[0004]
[Problems to be solved by the invention]
However, in the above-described conventional video editing apparatus, when the sound material data is added as the BGM of the video data, the sound material data and the video data are not after performing an editing operation of adding the sound material data to the video data. Cannot be played simultaneously. Therefore, the user cannot confirm how the sound material data (BGM) is added to the video data unless the editing operation is performed.
[0005]
In particular, when a user wants to process sound material data and add it to video data as BGM, the user once processes the sound material data with a sound material processing apparatus and saves it in a file, and then performs editing with the video editing apparatus. Since the video data to which the sound material data (BGM) is added can be confirmed for the first time, it is very inefficient when processing the sound material data again and again.
[0006]
The present invention has been made in view of this point, and an object thereof is to provide a sound material processing apparatus and a sound material processing program capable of improving the work efficiency of video editing.
[0007]
[Means for Solving the Problems]
In order to achieve the above object, the sound material processing apparatus according to claim 1 reproduces video data and converts the video data into the video data. Has playback parameters to control playback mode Video editing means for executing editing processing for adding sound material data; In a state where the video editing means has not started playback of the video data, first processing means for changing the setting of the playback parameter in advance according to an instruction from a user, and the video editing means Reproduction control means for starting the reproduction of the sound material data based on the reproduction parameter set and changed by the first processing means in response to starting the reproduction of The video editing means is playing back video data In the state, the second processing means for changing the setting of the reproduction parameter in response to an instruction from the user, and the reproduction of the sound material data is stopped in response to the video editing means stopping the reproduction of the video data. A reproduction stop control means; a recording means for recording the reproduction parameter set and changed by the second processing means in the sound material data in response to the reproduction of the sound material data being stopped; and the reproduction control. A period from when the reproduction is started by the means until the reproduction is stopped by the reproduction stop control means, Sound material data reproducing means for reproducing the sound material data; The video editing unit adds audio data based on the sound material data in which the reproduction parameter is stored by the recording unit to the video data. It is characterized by that.
[0010]
Claim 2 The program for sound material processing described is ,in front Claim 1 An operation similar to that of the described sound material processing apparatus is executed by a computer.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
[0012]
FIG. 1 is a block diagram showing a schematic hardware configuration of a sound material processing apparatus according to an embodiment of the present invention.
[0013]
The sound material processing apparatus according to the embodiment of the present invention is constituted by, for example, a personal computer (PC) 1.
[0014]
The PC 1 includes a CPU 2 that controls the operation of the entire PC 1. The CPU 2 includes a RAM 3, a ROM 4, a MIDI interface (I / F) 5, an operation circuit 6, a display circuit 7, a tone generator circuit 8, via a communication bus 17. An external storage device 9, a communication interface (I / F) 10, and a timer 11 are connected to each other.
[0015]
The RAM 3 temporarily stores various information related to video data or sound material data and various data generated when the CPU 2 executes various programs. The ROM 4 stores various programs and various data executed or referred to by the CPU 2 (for example, video data, video time data and title data which are characteristic data of the video data, video editing program, sound material processing / playback program, and data. Format conversion processing program, etc.). The MIDI interface (I / F) 5 is an interface for connecting the electronic musical instrument 12 to the communication bus 17 and is used for communicating MIDI data between the electronic musical instrument 12 and the PC 1. The operation circuit 6 connects the operation element 13 to the communication bus 17, and outputs input data from the operation element 13, for example, a mouse or a keyboard, to the CPU 2 via the communication bus 17. The display circuit 7 connects the display device 14 to the communication bus 17 and outputs various data such as sound material data composed of video data and MIDI data or image data corresponding to a playback player for reproducing the data to the display device 14. The display device 14 displays the various data output from the display circuit 7. The sound source circuit 8 inputs sound material data via the communication bus 17 and outputs a musical sound signal to the sound system 15 based on the sound material data. The sound system 15 generates the input musical sound signal. The timer 11 is used in various processes executed by the CPU 2.
[0016]
The external storage device 9 stores various data such as video data and sample sound material data and various programs executed or referred to by the CPU 2, and performs the same function as the ROM 4. The CPU 2 reads various data and various programs stored in the external storage device 9 into the RAM 3 and executes processing, thereby executing the same operation as when the ROM 4 stores various data and various programs. be able to. Accordingly, various programs can be easily added or upgraded by changing the external storage device 9.
[0017]
The communication I / F 10 is wired or wirelessly connected to a network 16 such as the Internet or a commercial network. The PC 1 is connected to the server computer 18 that functions as a sound material data providing site via this network 16 and other computers. It is connected to the PC 19. As a result, the sound material data can be downloaded from the server computer 18 and various data and various programs can be downloaded from the other PC 19.
[0018]
The MIDI I / F 5 is not limited to a dedicated MIDI I / F, and may be configured using a general-purpose I / F such as RS232-C, USB or IEEE1394. . In this case, data other than MIDI data may be transmitted and received simultaneously.
[0019]
The hardware configuration of the server computer 18 that provides sound material data to the PC 1 is the same as the hardware configuration of the PC 1 described above. However, since the server computer 18 is mainly intended to provide sound material data to each user terminal such as the PC 1, the MIDI / I / F 5, the sound source circuit 8, the electronic musical instrument 12, and the sound system 15 may not be provided. Good.
[0020]
FIG. 2 is a block diagram showing functional configurations of the PC 1 and the server computer 18 in FIG.
[0021]
The PC 1 includes a video editing unit 21 that edits and plays back video data, a sound material processing / playback unit 22 that processes and plays back sound material data, and a software sound source unit 23 that converts the data format of the sound material data. The server computer 18 includes a sound material database 25 having a large number of sound material data, and a search engine 24 that searches and extracts sound material data desired by the user from the sound material database 25 in accordance with instructions from the PC 1.
[0022]
The video editing unit 21, the sound material processing / playback unit 22, and the software sound source unit 23 are functions realized by executing various programs included in the PC 1 by the hardware of the PC 1, and the sound material database 25 is a collection of sound material data. The system is structured systematically (for example, for each music category) so that these data can be searched using the search engine 24. The search engine 24 is for sound material data provided in the server computer 18. This is a function realized by executing the search program by the hardware of the server computer 18.
[0023]
Specifically, in the video editing unit 21, the CPU 2 reads out the video editing program stored in the ROM 4 or the external storage device 9 into the RAM 3, and follows the instructions of the video editing program read out into the RAM 3. This is realized by editing the video data stored in the storage device 9 and displaying the pre-edited or edited video data received by the display device 14 via the display circuit 7.
[0024]
Specifically, the sound material processing / playback unit 22 reads the sound material processing / playback program stored in the ROM 4 or the external storage device 9 into the RAM 3 by the CPU 2, and processes the sound material processing / playback data read into the RAM 3. The sound material data received from the sound material database 25 is processed or reproduced in accordance with the instruction of the reproduction program, and the display device 14 visually displays the processed or processed sound material data received via the display circuit 7. At the same time, the sound system 15 is realized by generating sound material data before or after processing received via the sound source circuit 8.
[0025]
Specifically, the software tone generator unit 23 reads the musical tone waveform generation / data format conversion processing program stored in the ROM 4 or the external storage device 9 into the RAM 3 by the CPU 2, and generates the musical sound waveform generation / readout data read into the RAM 3. This is realized by generating a musical sound waveform based on the sound material data received from the sound material database 25 or converting the data format in accordance with the instructions of the data format conversion processing program.
[0026]
Specifically, in the search engine 24, the CPU 2 receives the search condition from the PC 1 via the communication I / F 10, reads the search program stored in the ROM 4 or the external storage device 9 into the RAM 3, and receives the received A search condition is incorporated in the search program and search processing is executed, sound material data corresponding to the search condition is extracted from the sound material database 25, and the extracted sound material data is transmitted to the PC 1 via the communication I / F 10. It is realized by sending to.
[0027]
The function of the system composed of the PC 1 and the server computer 18 configured as described above will be described below.
[0028]
FIG. 3 is a flowchart showing a main process executed by the video editing unit 21 and the sound material processing / playback unit 22 provided in the PC 1 and the server computer 18, that is, the sound material providing site. The processing of the sound material providing site is mainly executed by the search engine 24.
[0029]
First, when the user selects video data to which sound material data is to be added via the operator 13, the video editing unit 21 determines video data to be edited (step S301), and video time that is characteristic data of the video data. Data and title data are acquired, supplied to the sound material processing / playback unit 22 (step S302), and a trial listening process is executed (step S307).
[0030]
On the other hand, the sound material processing / playback unit 22 receives the feature data from the video editing unit 21, that is, the video time data and the title data, and uses the video time data and the title data as search conditions to the sound material providing site. Access is made (step S303).
[0031]
The sound material providing site receives the video time data and the title data from the sound material processing / playback unit 22 as search conditions, searches the sound material database 25 based on the search conditions, and the sound material data that matches the search conditions. Is extracted (step S304). A known technique is used as a method of extracting sound material data.
[0032]
As shown in steps S303 and S304, the sound material processing / playback unit 22 automatically acquires video feature data including the playback time of the video data and supplies it to the sound material providing site. The user does not need to know the playback time of the video data, and the sound material data to be added to the video data can be efficiently acquired from the sound material providing site, thereby improving the work efficiency of the video editing. Can do. Note that the sound material processing / playback unit 22 may supply one of the video data playback time and the title to the sound material providing site.
[0033]
Next, the sound material providing site creates a list of the sound material data extracted in step S304 and transmits the created sound material data list to the sound material processing / playback unit 22 (step S305). Is executed (step S307).
[0034]
The sound material processing / playback unit 22 displays a list of sound material data received from the sound material providing site (step S306), and executes a trial listening process (step S307).
[0035]
In the trial listening process in step S307, the sound material processing / playback unit 22 instructs the sound material providing site to distribute the sound material data stream, and the sound material providing site receives the sound material data stream distribution. The sound material processing / playback unit 22 performs stream playback of the sound material data distributed from the sound material providing site, and the video editing unit 21 plays back the video data in synchronization with the stream playback. Then, the user listens to the sound material data while checking the video data. A detailed description of the trial listening process will be described later with reference to FIG. Here, the stream distribution is a technique for distributing data so that the sound material providing site can perform the stream reproduction without downloading the sound material data file in the sound material processing / reproducing unit 22. This is a technique in which the sound material processing / reproducing unit 22 reproduces the sound material data distributed from the sound material providing site in real time without downloading.
[0036]
When the user confirms the desired sound material data in the trial listening process in step S307, the sound material data is designated via the operator 13, and the sound material processing / playback unit 22 receives this designation, and the sound material providing site is designated. Is instructed to download the sound material data (step S308).
[0037]
The sound material providing site receives a sound material data download instruction from the sound material processing / reproducing unit 22 and distributes the sound material data to the sound material processing / reproducing unit 22 (step S309). A series of processing ends.
[0038]
The sound material processing / playback unit 22 receives the sound material data distributed from the sound material providing site, assigns an arbitrary file name to the received sound material data, and stores it by specifying an arbitrary storage location ( Step S310), processing / preview processing is executed (step S311).
[0039]
The video editing unit 21 executes the preview / listening process in step S307, and then executes the processing / preview process (step S311).
[0040]
In the processing / preview process in step S311, the video editing unit 21 plays back the video data in the preview mode, and the sound material processing / playback unit 22 before or during playback of the video data, if necessary, in step S310. Process the saved sound material data, play back the sound material data processed as needed in synchronization with the playback of the video data, and record the processing parameters used for processing the sound material data in the sound material data To do. A detailed description of the processing / preview process will be described later with reference to FIG.
[0041]
After the processing / preview processing in step S311, the sound material processing / playback unit 22 executes MIDI to audio conversion processing (step S312).
[0042]
In the MIDI to audio conversion process, the sound material data (that is, MIDI data) in which the processing parameters are recorded by the sound material processing / playback unit 22 and the software sound source unit 23 is converted into an audio format that can be added to the video data by the video editing unit 21. A detailed description of the MIDI to audio conversion processing will be described later with reference to FIG.
[0043]
The sound material processing / playback unit 22 saves the sound material data converted into the audio format in an arbitrary file and notifies the video editing unit 21 to that effect (step S313). A series of processing ends.
[0044]
The video editing unit 21 reads the file saved in step S313, adds the read file, that is, the sound material data converted into the audio format, to the video data (step S314), and the series in the video editing unit 21. Terminate the process.
[0045]
In the main processing described above, the sound material processing / playback unit 22 directly executes a display or download instruction for a list of sound material data, but a processing unit for executing a display function or an instruction output function like a web browser is provided separately. In this case, a list of sound material data and a download instruction may be executed.
[0046]
The sound material processing / playback unit 22 stores the sound material data converted into the audio format in an arbitrary file (step S313), and the video editing unit 21 reads the stored file. After the playback unit 22 converts the audio material data into the audio format of the audio material data by the MIDI to audio conversion process (step S312), the sound material data converted into the audio format is directly stored in the video editing unit 21 without saving the file. You may make it transmit.
[0047]
FIG. 4 is a flowchart showing the trial listening process in step S307 in FIG.
[0048]
First, the user designates the position to which sound material data is to be added in the video data via the operation element 13, whereby the video editing unit 21 sets the position to which the sound material data is to be added (step S401). (Step S402).
[0049]
Next, the video editing unit 21 receives a playback instruction for video data input via the operator 13 and notifies the sound material processing / playback unit 22 that the instruction has been received (step S403).
In response to the instruction from the video editing unit 21 in step S403, the sound material processing / playback unit 22 receives the instruction from the list of sound material data displayed in step S306 in FIG. Stream distribution is instructed to the sound material providing site for the sound material data designated in advance (step S408).
[0050]
The sound material providing site receives the stream distribution instruction regarding the sound material data from the sound material processing / playback unit 22 in step S408, and executes the stream distribution of the sound material data corresponding to the instruction (step S415).
[0051]
When the stream distribution is executed by the sound material providing site, the sound material processing / reproducing unit 22 receives the sound material data from the sound material providing site, and whether or not the stream reproduction is possible, that is, the sound material for a predetermined time. It is determined whether or not data has been accumulated (step S409). This determination is performed in consideration of stream reproduction, that is, for the purpose of allowing the sound material processing / reproducing unit 22 to accumulate sound material data that does not interrupt the reproduced sound. The predetermined time is, for example, 5 seconds. However, since the stream reproduction is affected by the reproduction processing speed of the sound material data in the sound material processing / reproduction unit 22 and the communication speed of the network such as the Internet, the predetermined time is The sound material processing / playback unit 22 sets the sound material. In addition, since the stream reproduction is performed while receiving subsequent data, the accumulation of the sound material data for the predetermined time is not an accumulation of all the sound material data.
[0052]
If the sound material data for a predetermined time is accumulated as a result of the determination in step S409, the sound material processing / reproducing unit 22 instructs the video editing unit 21 to start reproducing the video data (step S410) and accumulates it. The sound material data for a predetermined time and the sound material data continuously distributed from the sound material providing site are stream-reproduced so that the sound is not interrupted (step S411).
[0053]
On the other hand, the video editing unit 21 receives the playback start instruction from the sound material processing / playback unit 22 in step S410 and executes playback of the video data (step S404), and the video data input via the operator 13 Whether or not to continue the reproduction of the video data is determined based on the reproduction stop instruction or the finite time length of the video data (step S405).
[0054]
As a result of the determination in step S409, when the video editing unit 21 continues to reproduce the video data, the process returns to step S404, and the video editing unit 21 continues to reproduce the video data, while the video editing unit 21 does not continue to reproduce the video data. Stops the reproduction of the video data (step S406).
[0055]
Next, the video editing unit 21 instructs the sound material processing / playback unit 22 to stop playback of the sound material data (step S407), ends a series of processing in the video editing unit 21, and proceeds to the main processing of FIG. Return.
[0056]
After starting the sound material data stream reproduction, the sound material processing / reproducing unit 22 determines whether or not the sound material data reproduction stop instruction transmitted from the video editing unit 21 is received in step S407 (step S412).
[0057]
As a result of the determination in step S412, if the sound material data reproduction stop instruction has not been received, the process returns to step S411, and the sound material data stream reproduction is executed, while the sound material data reproduction stop instruction is received. If so, the stream reproduction of the sound material data is stopped (step S413).
[0058]
Next, the sound material processing / playback unit 22 instructs the sound material providing site to stop the stream distribution of the sound material data (step S414), and the series of processing in the sound material processing / playback unit 22 is terminated. Returning to 3 main processing.
[0059]
The sound material providing site receives the stream distribution stop instruction transmitted from the sound material processing / playback unit 22 after starting the sound material data stream distribution, and stops the sound material data stream distribution (step S416). The series of processes at the sound material providing site is terminated, and the process returns to the main process in FIG. In step S412, it is determined whether or not the sound material processing / playback unit 22 has received a sound material data playback stop instruction from the video editing unit 21, but the sound material processing / playback unit 22 performs the video editing unit 21. To determine whether or not video data playback stop has been detected, and as a result, if video data playback stop has not been detected, the process returns to step S411 to detect video data playback stop. If so, the process may proceed to step S413.
[0060]
In the trial listening process described above, the sound material processing / playback unit 22 instructs the sound material providing site to stream the sound material data, and the sound material providing site receives the stream distribution of the sound material data. The sound material processing / reproducing unit 22 performs stream reproduction of the sound material data distributed from the sound material providing site, and the video editing unit 21 reproduces the video data in synchronization with the stream reproduction. Therefore, the user confirms how sound material data (for example, BGM) is added to the video data by stream reproduction before downloading the sound material data to add to the video data. Therefore, it is possible to improve the work efficiency of video editing. (Files that are not required for stream playback when the file name required for download and the storage destination are specified are not necessary for stream playback, and the result of the audition does not matter.) (Erasing work is also unnecessary.) In particular, since the sound material data stream playback is synchronized with the playback of the video data, not the stream playback of the sound material data, the video data and the added sound material data The relationship is very easy to understand.
[0061]
The sound material processing / playback unit 22 receives a video data playback instruction from the video editing unit 21, instructs the sound material providing site to stream predetermined sound material data, and streams from the sound material providing site. When the distributed sound material data can be played back as a stream, the video data playback unit 21 transmits permission to start playback of the video data and stream playback of the sound material data, so that the video data starts playback first. Therefore, the sound material data and the video data can be reliably reproduced in synchronism with each other.
[0062]
Further, the sound material processing / reproducing unit 22 receives the sound material data reproduction stop instruction, stops the sound material data stream reproduction, and further instructs the sound material providing site to stop the sound material data stream distribution. Or the sound material processing / playback unit 22 accesses the video editing unit 21 to detect the stop of playback of the video data, and stops the streaming of the sound material data to the sound material providing site according to the detection result Therefore, there is an effect that the user does not need to issue each stop instruction to the video editing unit 21, the sound material processing / playback unit 22, and the sound material providing site.
[0063]
In the trial listening process described above, when the sound material processing / playback unit 22 receives the sound material data playback stop instruction transmitted from the video editing unit 21, the sound material data stream playback is stopped. When the time length is shorter than the playback time of the video data in the video editing unit 21, the sound material providing site ends the stream distribution from the sound material processing / playback unit 22 when the stream distribution of the sound material data is completed. The stream distribution of the sound material data may be automatically stopped without receiving the stop instruction. Also, in the case of data with a small file size such as MIDI data, playback is started after all data is received and stored in the cache memory, and pseudo stream playback that is erased from the cache memory when playback ends is played back. In this case, since the file download is unnecessary, the same effect as described above can be obtained.
[0064]
FIG. 5 is a flowchart showing the processing / preview process in step S311 in FIG.
[0065]
First, the video editing unit 21 sets a preview mode in the video editing program in accordance with a user instruction input via the operator 13 (step S501).
[0066]
Next, the video editing unit 21 receives an instruction to reproduce video data input via the operator 13, and transmits to the sound material processing / reproducing unit 22 that the video data reproduction instruction has been accepted (step S502). .
[0067]
The video editing unit 21 reproduces the video data (step S503), and continues the reproduction of the video data based on the instruction to stop the reproduction of the video data input via the operation element 13 or the limited time length of the video data. Whether or not (step S504).
[0068]
As a result of the determination in step S504, when the video editing unit 21 continues to reproduce the video data, the process returns to step S503, and the video editing unit 21 continues to reproduce the video data while the video editing unit 21 does not continue to reproduce the video data. Stops the reproduction of the video data (step S505).
[0069]
Next, the video editing unit 21 instructs the sound material processing / playback unit 22 to stop playback of the sound material data (step S506), ends a series of processing in the video editing unit 21, and proceeds to the main processing of FIG. Return.
[0070]
On the other hand, the sound material processing / reproducing unit 22 first processes the sound material data stored in the file in step S310 of FIG. 3 in accordance with the sound material data processing instruction input via the operator 13 (step S310 in FIG. 3). Step S507). Specifically, this processing process adjusts parameters of sound material data. These parameters (hereinafter referred to as “processing parameters”) are, for example, part on / off, tone change, mixer, effect addition, tempo. It is composed of parameters that can easily modify the musical content of the sound material data, such as a change or a pitch change. In this processing, unlike a MIDI sequencer that performs advanced corrections such as correcting MIDI events one by one, it is possible for beginners to easily process sound material data. If no processing instruction is input via the operator 13, the process in step S507 is cancelled.
[0071]
Next, the sound material processing / playback unit 22 receives that the playback instruction of the video data transmitted from the video editing unit 21 has been received, and plays back the sound material data that has been processed as necessary ( Step S508). Thereafter, during the reproduction of the sound material data, the processing of the sound material data being reproduced is performed as necessary, similarly to step S507 (step S509).
[0072]
Next, the sound material processing / playback unit 22 determines whether or not a sound material data playback stop instruction has been received from the video editing unit 21 (step S510), and has not received the sound material data playback stop instruction. In this case, the process returns to step S508, and the sound material data is continuously reproduced. On the other hand, when the sound material data reproduction stop instruction is received, the reproduction of the sound material data is stopped (step S511). In step S510, the sound material processing / playback unit 22 determines whether or not the sound material data playback stop instruction has been received from the video editing unit 21, but the sound material processing / playback unit 22 performs the video editing unit 21. To determine whether or not the video data playback stop has been detected. If the video data playback stop has not been detected, the process returns to step S508 while the video data playback stop has been detected. In that case, the process may proceed to step S511.
[0073]
Finally, the sound material processing / playback unit 22 records the processing parameters adjusted as necessary in step S507 or step S509 in the sound material data (step S512), and ends the series of processes. Returning to the main process of FIG.
[0074]
In the processing / preview process described above, the video editing unit 21 reproduces the video data in the preview mode, and the sound material processing / reproducing unit 22 outputs the sound material data as necessary before or during the reproduction of the video data. The sound material data that has been processed and processed as needed is reproduced in synchronization with the reproduction of the video data, and the processing parameters used for the processing of the sound material data are recorded in the sound material data. Therefore, the user can process the sound material data in real time while reproducing the video data, and can process the processed sound material data without waiting for completion of the creation of the video data to which the sound material data is added. And synchronized playback of video data can be confirmed. Therefore, since the user can confirm how sound material data (for example, BGM) is added to the video data, the work efficiency of video editing can be improved. Further, since the sound material processing / playback unit 22 can perform the processing during the playback of the sound material data, it is possible to improve the work efficiency of the video editing. Further, it may be possible to compare and listen to the sound material data before and after the processing.
[0075]
In the above-described processing / preview process, when the sound material processing / playback unit 22 receives the sound material data playback stop instruction transmitted from the video editing unit 21, the sound material data playback is stopped. Is shorter than the playback time of the video data in the video editing unit 21, the sound material processing / playback unit 22 before receiving the sound material data playback stop instruction transmitted by the video editing unit 21. The reproduction of the sound material data may be automatically stopped.
[0076]
FIG. 6 is a flowchart showing the MIDI to audio conversion process in step S312 in FIG.
[0077]
First, the sound material processing / playback unit 22 reads the sound material data in which the processing parameters are recorded, that is, reads out the MIDI data while maintaining the relationship of the relative time of each event at high speed, and outputs the MIDI data for each event as the software sound source unit 23. (Step S601).
[0078]
The software tone generator 23 generates audio waveform data based on the received MIDI data for each event, temporarily stores the generated audio waveform data in a buffer (RAM 3), and stores the generated audio waveform data for a predetermined time (for example, 0.5 seconds). Min) is transmitted to the sound material processing / playback unit 22 (step S602). In the buffer for temporarily storing the audio waveform data, the audio waveform data is sequentially generated in an empty area by transmitting the audio waveform data to the sound material processing / reproducing unit 22.
[0079]
The sound material processing / reproducing unit 22 sequentially records the audio waveform data for a predetermined time received from the software sound source unit 23 sequentially (step S603). Here, “internal recording” means that the audio waveform data received from the software sound source unit 23 is sounded, and the generated sound is not recorded but is recorded without producing sound.
[0080]
Next, the sound material processing / playback unit 22 determines whether or not all of the MIDI data to be converted has been read (step S604), and if all of the MIDI data has not been read, step S604 is performed. Returning to S601, while the reading of the MIDI data is continued, if all the reading of the MIDI data has been completed, the audio editing unit 21 can handle the audio waveform data recorded internally in step S603. It can be converted into a preset audio format (step S605), the series of processing is terminated, and the processing returns to the main processing in FIG.
[0081]
In the MIDI to audio conversion process described above, the sound material data (ie, MIDI data) in which the processing parameters are recorded by the sound material processing / playback unit 22 and the software sound source unit 23 is converted into an audio format that can be added to the video data by the video editing unit 21. Therefore, in the sound material processing / playback unit 22 and the software sound source unit 23, from the processing of the sound material data to the conversion of the sound material data into the audio format can be executed at once, and the work efficiency can be improved. it can. In addition to the PC 1, there is an effect that it is not necessary to separately provide a conversion device for converting the audio format of the sound material data.
[0082]
The sound material data provided at the above-described sound material providing site is not limited to MIDI data, but may be audio format data. In that case, the MIDI to audio conversion process is unnecessary. As for the processing of audio format data, although part on / off or tone color change processing or mixer processing cannot be performed, effect addition, tempo change or pitch change processing is possible.
[0083]
Audition of the above-mentioned sound material data (when the sound material data is stream-reproduced or when the sound material data is processed and the video data is previewed), the video reproduction from the video editing unit 21 is started or stopped. Although it was performed according to the instruction, it may be performed according to an instruction from the sound material processing / reproducing unit 22. That is, when the sound material data is stream-reproduced, when the sound material processing / reproduction unit 22 instructs stream reproduction, the sound material providing site is instructed to stream the sound material, and the sound material data stream-distributed When the video can be reproduced, the video editing unit 21 is instructed to reproduce the video data. When the sound material processing / playback unit 22 is instructed to stop stream reproduction, the sound material providing site is instructed to stop stream distribution and the video editing unit 21 is instructed to stop reproduction of video data. When the video data is previewed after the sound material data is processed, when the preview processing is instructed by the sound material processing / playback unit 22, the playback of the sound material data is started and the video editing unit 21 is started. When the playback of the video data is instructed and the sound material processing / playback unit 22 is instructed to stop the preview process, the playback of the sound material data is stopped and the video editing unit 21 is instructed to stop the playback of the video data. The
[0084]
In the above processing of sound material data, the parameters for part on / off of sound material data, tone change, mixer, effect application, tempo change and pitch change are adjusted. It does not have to be provided, and at least one is sufficient. There may also be other types of processing. As for “tempo change” which is one of the parameters, the tempo may be automatically changed so that the playback time of the video matches the time length of the sound material data. The MIDI to audio conversion process is realized by the cooperation of the sound material processing / playback unit 22 and the software sound source unit 23, but this function may be realized by the software sound source unit 23 alone.
[0085]
The video editing unit 21 and the sound material processing / playback unit 22 are realized by executing different programs by the CPU 2, but may be realized by executing one program by the CPU 2.
[0086]
In the sound material site, the charging process may be executed when the sound material data is downloaded, and the charging process may not be executed when streaming the sound material data.
[0087]
It is needless to say that the functions of the above-described embodiments can also be realized in the form of a program that is software, thereby achieving the object of the present invention.
[0088]
Furthermore, a storage medium in which a program code of software that realizes the functions of the above-described embodiments is recorded is supplied to the system or apparatus, and the computer (or CPU 2) of the system or apparatus stores the program code in the storage medium. It goes without saying that the object of the present invention can also be achieved by reading and executing.
[0089]
In this case, the program code itself read from the storage medium realizes the novel function of the present invention, and the storage medium storing the program code constitutes the present invention.
[0090]
As a storage medium for supplying the program code, for example, floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, DVD-ROM, semiconductor memory, magnetic tape, nonvolatile A memory card, ROM, or the like can be used. Further, the program code may be supplied from another electronic musical instrument 12 or another PC 19 via the network 16.
[0091]
【The invention's effect】
As explained in detail above, the sound material processing apparatus according to claim 1 and the claim 2 According to the program for sound material processing described, In a state where the video editing means has not started playing the video data, the first processing means changes the setting of the playback parameter in advance according to the instruction from the user, and the video editing means starts playing the video data. Accordingly, the reproduction control means starts reproduction of the sound material data based on the reproduction parameter set and changed by the first processing means, and in the state where the video editing means is reproducing the video data, The processing means changes the setting of the playback parameter in response to an instruction from the user, and the playback stop control means stops the playback of the sound material data in response to the video editing means stopping the playback of the video data, and the recording means When the playback of the sound material data is stopped, the playback parameters set and changed by the second processing means are recorded in the sound material data, and the sound material data is played back. Period up stage is made the stop of reproduction by the reproduction stop control means from being made the start of reproduction by the reproduction control means, so to reproduce the sound material data, The user can confirm how sound material data (for example, BGM) is added to video data, and can improve the work efficiency of video editing.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic hardware configuration of a sound material processing apparatus according to an embodiment of the present invention.
2 is a block diagram showing functional configurations of a PC 1 and a server computer 18 in FIG. 1. FIG.
3 is a flowchart showing a main process executed by the video editing unit 21, the sound material processing / playback unit 22 and the server computer 18, that is, the sound material providing site, included in the PC 1 in FIG.
4 is a flowchart showing a trial listening process in step S307 in FIG.
FIG. 5 is a flowchart showing processing / preview processing in step S311 in FIG. 3;
6 is a flowchart showing a MIDI to audio conversion process in step S312 in FIG. 3;
[Explanation of symbols]
1 PC 2 CPU (video editing means, sound material data processing means, sound material data reproduction means) 3 RAM 4 ROM 5 MIDI I / F 6 operation circuit 7 display circuit 8 sound source circuit 9 external storage device 10 communication I / F

Claims (2)

映像データを再生すると共に該映像データに再生態様を制御するための再生パラメータを有する音素材データを付加する編集処理を実行する映像編集手段と、
前記映像編集手段が前記映像データの再生を開始していない状態において、ユーザによる指示に応じて、事前に前記再生パラメータの設定変更を行う第1の加工手段と、
前記映像編集手段が前記映像データの再生を開始したことに応じて、前記第1の加工手段により設定変更された再生パラメータに基づいて前記音素材データの再生を開始する再生制御手段と、
前記映像編集手段が映像データを再生している状態において、ユーザによる指示に応じて、前記再生パラメータの設定変更を行う第2の加工手段と、
前記映像編集手段が映像データの再生を停止したことに応じて前記音素材データの再生を停止する再生停止制御手段と、
前記音素材データの再生が停止されたことに応じて、前記第2の加工手段により設定変更された再生パラメータを前記音素材データ中に記録する記録手段と、
前記再生制御手段による再生の開始がなされてから前記再生停止制御手段による再生の停止がなされるまでの期間、前記音素材データを再生する音素材データ再生手段とを備え、
前記映像編集手段は、前記記録手段により再生パラメータが保存された音素材データに基づく音声データを前記映像データに付加することを特徴とする音素材加工装置。
Video editing means for performing editing processing for reproducing video data and adding sound material data having playback parameters for controlling the playback mode to the video data;
In a state where the video editing means has not started playback of the video data, first processing means for changing the setting of the playback parameter in advance according to an instruction from a user;
Playback control means for starting playback of the sound material data based on the playback parameters set and changed by the first processing means in response to the video editing means starting playback of the video data;
Second processing means for changing the setting of the playback parameter in response to an instruction from a user in a state where the video editing means is playing back video data ;
Playback stop control means for stopping playback of the sound material data in response to the video editing means stopping playback of video data;
Recording means for recording the reproduction parameter set and changed by the second processing means in the sound material data in response to the reproduction of the sound material data being stopped;
A sound material data reproducing unit that reproduces the sound material data during a period from when the reproduction is started by the reproduction control unit to when reproduction is stopped by the reproduction stop control unit ;
The sound material processing apparatus , wherein the video editing unit adds audio data based on the sound material data in which the reproduction parameter is stored by the recording unit to the video data .
再生態様を制御するための再生パラメータを有する音素材データ及び映像データを保存するコンピュータに、
前記映像データを再生すると共に該映像データに前記音素材データを付加する編集処理を実行する映像編集手段
前記映像編集手段が前記映像データの再生を開始していない状態において、ユーザによる指示に応じて、事前に前記再生パラメータの設定変更を行う第1の加工手段と、
前記映像編集手段が前記映像データの再生を開始したことに応じて、前記第1の加工手段により設定変更された再生パラメータに基づいて前記音素材データの再生を開始する再生制御手段と、
前記映像編集手段が映像データを再生している状態において、ユーザによる指示に応じて、前記再生パラメータの設定変更を行う第2の加工手段と、
前記映像編集手段が映像データの再生を停止したことに応じて前記音素材データの再生を停止する再生停止制御手段と、
前記音素材データの再生が停止されたことに応じて、前記第2の加工手段により設定変更された再生パラメータを前記音素材データ中に記録する記録手段と、
前記再生制御手段による再生の開始がなされてから前記再生停止制御手段による再生の停止がなされるまでの期間、前記音素材データを再生する音素材データ再生手段とを実行させ
前記映像編集手段は、前記記録手段により再生パラメータが保存された音素材データに基づく音声データを前記映像データに付加することを特徴とする音素材加工用プログラム。
In a computer for storing sound material data and video data having playback parameters for controlling the playback mode ,
A video editing means for executing the sound material data you added editing process to the video data while reproducing the video data,
In a state where the video editing means has not started playback of the video data, first processing means for changing the setting of the playback parameter in advance according to an instruction from a user;
Playback control means for starting playback of the sound material data based on the playback parameters set and changed by the first processing means in response to the video editing means starting playback of the video data;
Second processing means for changing the setting of the playback parameter in response to an instruction from a user in a state where the video editing means is playing back video data ;
Playback stop control means for stopping playback of the sound material data in response to the video editing means stopping playback of video data;
Recording means for recording the reproduction parameter set and changed by the second processing means in the sound material data in response to the reproduction of the sound material data being stopped;
A period of time from the start of playback by the playback control means to the stop of playback by the playback stop control means , causing the sound material data playback means to play back the sound material data ,
The audio material processing program , wherein the video editing unit adds audio data based on the audio material data in which the reproduction parameter is stored by the recording unit to the video data .
JP2002054122A 2002-02-28 2002-02-28 Sound material processing apparatus and sound material processing program Expired - Fee Related JP3755471B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2002054122A JP3755471B2 (en) 2002-02-28 2002-02-28 Sound material processing apparatus and sound material processing program
US10/375,655 US7202407B2 (en) 2002-02-28 2003-02-27 Tone material editing apparatus and tone material editing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002054122A JP3755471B2 (en) 2002-02-28 2002-02-28 Sound material processing apparatus and sound material processing program

Publications (2)

Publication Number Publication Date
JP2003255936A JP2003255936A (en) 2003-09-10
JP3755471B2 true JP3755471B2 (en) 2006-03-15

Family

ID=28665360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002054122A Expired - Fee Related JP3755471B2 (en) 2002-02-28 2002-02-28 Sound material processing apparatus and sound material processing program

Country Status (1)

Country Link
JP (1) JP3755471B2 (en)

Also Published As

Publication number Publication date
JP2003255936A (en) 2003-09-10

Similar Documents

Publication Publication Date Title
JP2005309029A (en) Server device and method for providing streaming of musical piece data, and streaming using electronic music device
EP3462443A1 (en) Singing voice edit assistant method and singing voice edit assistant device
US7601905B2 (en) Electronic musical apparatus for reproducing received music content
EP3462442A1 (en) Singing voice edit assistant method and singing voice edit assistant device
JP2002215164A (en) Apparatus and method for processing wave data, and recording medium
JP2004233698A (en) Device, server and method to support music, and program
US7202407B2 (en) Tone material editing apparatus and tone material editing program
JP3755471B2 (en) Sound material processing apparatus and sound material processing program
JP2006178496A (en) Tone material conversion device and program for tone material conversion
JP3760873B2 (en) Sound material acquisition device and sound material acquisition program
JP3800109B2 (en) Sound material conversion device and sound material conversion program
JP4152643B2 (en) Sound material audition device and sound material audition program
JP3980750B2 (en) Electronic musical instruments
JP4740583B2 (en) Music data processing apparatus and program
JP5394301B2 (en) Timing designation device, music playback device, karaoke system, and timing designation method
JP4407419B2 (en) Electronic music equipment
JP2006267491A (en) Device for reproducing automatic playing data and program for realizing control method thereof
JP3428410B2 (en) Karaoke equipment
JP2011197664A (en) Music file reproduction device and system
JP3666392B2 (en) Automatic performance device
JPH10124075A (en) Text wipe information input device and recording medium
JP2018112724A (en) Performance guide device, performance guide program and performance guide method
JP2018112725A (en) Music content transmitting device, music content transmitting program and music content transmitting method
JP4685226B2 (en) Automatic performance device for waveform playback
JP2003114680A (en) Apparatus and program for musical sound information editing

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051212

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3755471

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100106

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110106

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120106

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130106

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140106

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees