JP3551000B2 - Automatic performance device, automatic performance method, and medium recording program - Google Patents
Automatic performance device, automatic performance method, and medium recording program Download PDFInfo
- Publication number
- JP3551000B2 JP3551000B2 JP01170298A JP1170298A JP3551000B2 JP 3551000 B2 JP3551000 B2 JP 3551000B2 JP 01170298 A JP01170298 A JP 01170298A JP 1170298 A JP1170298 A JP 1170298A JP 3551000 B2 JP3551000 B2 JP 3551000B2
- Authority
- JP
- Japan
- Prior art keywords
- performance
- performance information
- data
- automatic performance
- recording
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Reverberation, Karaoke And Other Acoustics (AREA)
- Electrophonic Musical Instruments (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は自動演奏技術に関し、特に演奏者の演奏と自動演奏とを併せて楽音を発生させる自動演奏技術に関する。
【0002】
【従来の技術】
自動演奏装置の用途の一つとして、伴奏を自動演奏しながら主旋律を演奏者が演奏するという用途がある。例えば、電子楽器の自動伴奏機能やカラオケがそれにあたる。電子楽器の自動伴奏の場合は、例えば演奏者がピアノを演奏する一方で、伴奏となるベースやドラムスを自動演奏することでアンサンブルを完成させている。一方、カラオケにおいては、伴奏の楽器音を自動演奏し、主旋律を演奏者が歌ってアンサンブルを完成させている。これにより、演奏者は単独で演奏する場合と比べて、より整えられた環境で演奏を楽しむことが可能である。
【0003】
本発明は、制限的ではないがカラオケ用の自動演奏装置に特に適する。以下、カラオケ用自動演奏装置を例にとって説明する。
【0004】
現在、カラオケで歌われる楽曲の中には、演奏者が歌う主旋律の音声(以下、「主音声」と呼ぶ)の他にも、コーラスや輪唱といった形で他の音声(以下、「従音声」と呼ぶ)が含まれていることがある。これら従音声の部分は、コーラスや合唱という形の様に主音声とは別の歌い手で歌われている場合もあれば、主音声の歌い手の声を繰り返し発音させる事で従音声が同じ歌い手で歌われている場合もある。
【0005】
カラオケにおいて、演奏者は通常一人であるため、主音声の部分のみしか歌えず、従音声の部分を歌うことは困難である。しかし、楽曲の雰囲気を忠実に再現するためには、従音声の部分も再現することが重要である。
【0006】
従来のカラオケ用自動演奏装置において、従音声の再現技術は大きく分けて2通りある。
【0007】
第1の技術として、予め自動演奏されるデータの中に従音声の部分を録音し、それを再生する方法がある。
【0008】
第2の技術として、エコー等の様に、主音声に対してディレイやピッチチェンジといった処理を施して原音を加工し、疑似的に従音声を作り出す方法がある。なお、本明細書においては、エコー等の様に原音を加工する処理を「エフェクト処理」と総称する。
【0009】
【発明が解決しようとする課題】
第1の従来技術においては、様々な種類の従音声を簡単に再現することができる。しかし、従音声が他人の演奏となるため、微妙な歌い回し等が一致せず、主音声と従音声が調和し難い。また、演奏者自身の声で形成された従音声を再現することが不可能である。また、従音声の量を多くしたり、音質を良くするに従い、必要とされる情報量が増えるため、処理が複雑になると共に、装置の規模も大きくならざるを得ない。
【0010】
第2の従来技術においては、従音声が主音声をエフェクト処理したものであるため、音質や歌い回し等が一致する。特に、従音声が演奏者自身の声で形成されている場合は、自然なアンサンブルを得ることができる。また、従音声が他人の声の場合においても、複数のエフェクト処理を行い、疑似的に他人の声を合成することで広範囲な対応が可能である。
【0011】
しかし、従来のエフェクト処理は、リアルタイムでかつ一回しか行う事が出来ない。そのため、主音声を複数回繰り返したり、主音声と時間差をおいて繰り返す様な従音声を再現することは困難である。
【0012】
本発明の目的は、様々な形態の従音声を再現する事のできる自動演奏装置、自動演奏方法又はプログラムを記録した媒体を提供することである。
【0013】
【発明を解決するための手段】
本発明の一観点によれば、音声または演奏操作子の操作により発生する第1の演奏情報と、自動演奏データに従って再生される第2の演奏情報を合成して発音する自動演奏装置において、自動演奏データに、第2の演奏情報と共に、第1の演奏情報の録音指示および再生指示を含み、自動演奏データを読みとる読みとり手段と、自動演奏データ中の録音指示に従って、第1の演奏情報の録音を行う録音手段と、自動演奏データ中の再生指示に従って、録音手段にて録音された演奏情報を読み出し、第3の演奏情報として再生する再生手段と、第1の演奏情報と第2の演奏情報と再生手段によって再生された第3の演奏情報とに基づき、楽音を発生させる手段とを有し、さらに自動演奏データに、エフェクト処理の指示を含み、第1の演奏情報乃至第3の演奏情報のうち少なくとも一つの演奏情報にエフェクト処理を施すエフェクト処理手段を有する自動演奏装置が提供される。
【0014】
本発明の他の観点によれば、音声または演奏操作子の操作により発生する第1の演奏情報と、自動演奏データに従って再生される第2の演奏情報を合成して発音する自動演奏方法において、自動演奏データに、第2の演奏情報と共に、第1の演奏情報の録音指示および再生指示を含むものを用い、自動演奏データを読みとる読みとり工程と、自動演奏データ中の録音指示に従って、第1の演奏情報の録音を行う録音工程と、自動演奏データ中の再生指示に従って録音工程にて録音した演奏情報を読み出し、第3の演奏情報として再生する再生工程と、第1の演奏情報と第2の演奏情報と再生工程によって再生された第3の演奏情報とに基づき、楽音を発生させる工程とを有し、さらに自動演奏データにエフェクト処理の指示を含み、第1の演奏情報乃至第3の演奏情報のうち少なくとも一つの演奏情報にエフェクト処理を施すエフェクト処理工程を有する自動演奏方法が提供される。
【0015】
本発明のさらに他の観点によれば、音声または演奏操作子の操作により発生する第1の演奏情報と、自動演奏データに従って再生される第2の演奏情報を合成して発音する自動演奏プログラムを記録した媒体において、自動演奏データに、第2の演奏情報と共に、第1の演奏情報の録音指示および再生指示を含むものを用い、自動演奏データを読みとる読みとり手順と、自動演奏データ中の録音指示に従って、第1の演奏情報の録音を行う録音手順と、自動演奏データ中の再生指示に従って録音手順にて録音した演奏情報を読み出し、第3の演奏情報として再生する再生手順と、第1の演奏情報と第2の演奏情報と再生手順によって再生された第3の演奏情報とに基づき、楽音を発生させる手順とを有し、さらに自動演奏データにエフェクト処理の指示を含み、第1の演奏情報乃至第3の演奏情報のうち少なくとも一つの演奏情報にエフェクト処理を施すエフェクト処理手順をコンピュータに実行させるためのプログラムを記録した媒体が提供される。
【0016】
第1の演奏情報自体を用いて第3の演奏情報を作成するため、アンサンブルの良好な合成音を作成することができる。また、第1の演奏情報を録音/再生するため、任意のタイミングで第3の演奏情報を再現することができる。
【0017】
【発明の実施の形態】
図1は、本発明の実施例による従音声の再現方法を示す。
【0018】
図1(A)は、本実施例による演奏例を示した表である。表の横軸に示した時間の経過の中で、表の縦軸に並べられた各項目について図示した処理が行われている。
【0019】
表の上方に示した自動演奏データは、伴奏データと指示データを含む。伴奏データに基づいて楽音が自動演奏される一方で、指示データに基づいて従音声の作成の為の処理が指示される。
【0020】
表の下方には、主音声、録音内容、従音声が示されている。主音声と従音声の項目には実際に発音されたフレーズを表記し、録音内容の項目には、自動演奏装置内の録音装置に保存された録音内容を表記している。
【0021】
演奏者は伴奏に添う形で、主音声として「さいた・さいた・チューリップのはなが」という一連のフレーズを演奏する。
【0022】
一方で、指示データの指示に従い、自動演奏される曲のタイミング中の「チューリップのはなが」に相当する部分の前後で、主音声の録音の開始/停止が指示される。この指示に従い、録音装置の中に主音声の「チューリップのはなが」のフレーズが録音される。
【0023】
録音されたフレーズは、指示データの再生指示に従って再生の開始/停止が指示される。この指示に従って、録音装置内に録音された主音声が再生され、従音声となる。なお、本例では主音声と従音声が同じフレーズを時間差をおいて演奏することによって、コーラス効果を演出している。
【0024】
図1(B)は、本実施例の概念図を示す。上記したように、自動演奏データは、伴奏を演奏するための伴奏データと、主音声を録音/再生し従音声を再現するための指示データとを含む。演奏者は、伴奏データに基づいて自動演奏される伴奏に添いながら歌を歌い、これが主音声となる。その一方で、伴奏データと同期した指示データによって、主音声の録音装置への録音/再生が指示される。録音装置は、その指示に従って主音声を録音すると共に、録音された主音声を再生し、従音声を生成する。
【0025】
本実施例の特徴は自分が歌う主音声を録音/再生することで従音声を生成し、主音声に重ねて発音させることにある。そのため、主音声と従音声の音質や歌い回しが一致し、自然なアンサンブルを形成することが可能となる。さらに、録音装置に録音された主音声は、途中から再生したり、繰り返して再生したり、時間差をおいて再生すること等が可能なため、種々の形態で従音声を生成することが可能となる。また、自動演奏のデータの中に録音/再生の指示を付加するのみで、高忠実度の楽音を発生させることができるため、情報量の肥大化を避けることもできる。
【0026】
図2は、本実施例による従音声の他の演奏例を示した表である。表の構成は図1(A)に示した表の構成と等しく、表の横軸に示した時間の経過の中で、表の縦軸に並べられた各項目について図示した処理が行われている。
【0027】
図2(A)は、録音した主音声の一部を繰り返し再生した演奏例である。まず、主音声の「いち・にい・さん」というフレーズが全て録音装置に録音される。従音声は、時間差をおいて「いち・にい・さん」の全てのフレーズを再生した後、「にい・さん」の部分のみの再生を繰り返す。つまり、「いち・にい・さん・にい・さん」というフレーズが従音声として生成される。この様に、再生の開始/停止位置をずらしたり再生回数を増やす事で、従来のディレイ処理のみでは不可能だった、フレーズの途中からの繰り返し等を持つ従音声の生成が可能である。
【0028】
図2(B)は、指示データの中にエフェクト処理の指示を付加した演奏例である。主音声の「ある日」と「森の中」のフレーズをそれぞれ録音し、一定時間遅らせて従音声として再生する。さらに指示データは、再生する従音声のフレーズに対してエフェクト処理の指示を出す。本例では、演奏者が男性と仮定し、「ある日」の再生音の部分にはピッチアップとフィルタ処理を指示して女性の声を疑似した従音声を生成し、「森の中」の再生音の部分にはピッチダウンとフィルタ処理を指示して熊の声を疑似した従音声を生成したとする。これらの従音声によって、演奏者は女性と熊との3人で輪唱をしているかのような効果を得ることが出来る。この様に、指示データが、主音声の録音/再生の指示に加えて、種々のエフェクト処理を指示する事も可能である。
【0029】
上記した演奏例以外にも、録音/再生やエフェクト処理を組み合わせて従音声を再現することで、更に多様な効果を再現することが可能である。例えばフェードイン/アウトやコーラスといった効果を演出することも可能である。
【0030】
図3は、本実施例の自動演奏データの構成例を示した図である。
図3(A)は、自動演奏データの構成を模式化した図である。自動演奏データは、各トラックごとの領域を有し、その中にイベントデータとデュレーションデータが対になって収納されている。イベントデータは、楽音の発生/停止や主音声の録音/再生等の具体的な自動演奏処理を指示し、デュレーションデータはイベントデータから次のイベントデータまでの時間間隔を指示する。なお、本実施例においては、伴奏データ用のトラックとしてトラックT1〜T4が、指示データ用のトラックとしてトラックT5が用意され、合計5トラックによって構成されている。ただし、これらのトラック数は必要に応じて増減しても構わない。
【0031】
本実施例においてデュレーションは時間間隔を示しているが、デュレーションは楽譜上の休符の符長を示す場合や楽曲開始からの絶対経過時間を示す場合等がある。また、本実施例の自動演奏データはトラックごとに並列に記録されているが、全てのトラックの情報をまとめて、トラックナンバと共に直列に記録する場合もある。
【0032】
図3(B)は、イベントデータの記録内容を示した表である。
伴奏データのイベントデータとしては、E1:a)キーオン,b)キーオフ、E2:ノートナンバ、E3:ベロシティ等が記録されており、楽音の発音/消音等の操作が指示される。
【0033】
指示データのイベントとして、C1:録音a)開始,b)停止,c)メモリアドレス、C2:再生a)開始,b)停止,c)メモリアドレスが記録されている。これらの指示によって主音声が録音/再生され、従音声が生成される。なお、録音/再生のメモリアドレスは録音装置内での録音/再生を開始する位置を指定する。
【0034】
指示データの他のイベントとして、C3:プログラムチェンジ、C4:コントロールチェンジ等も記録されている。プログラムチェンジは発生する楽音の種類、音色、性質等を設定し、コントロールチェンジは、操作子による操作に基づいて種々の設定の制御を行う。なお、本明細書においてプログラムチェンジとコントロールチェンジを総称してエフェクト処理と呼ぶ。また、これらエフェクト処理の指示は、従音声の生成に関する指示以外に、主音声や自動演奏される楽音等に対しての指示も含まれている。
【0035】
図3(C)は、自動演奏処理の構成図である。自動演奏データの各トラックがトラックナンバ順に表の縦方向に並べられている。表の横軸及び各トラックに引かれた直線は時間の経過を示している。
【0036】
トラックT1〜T4には、それぞれドラムス、ギター、ベース、ピアノの伴奏データが収納され、トラックT5には指示データが収納されている。各トラック上の垂直な直線はイベントの存在を示し、各イベントは丸で囲まれたデュレーションの時間間隔をおいて処理されていく。本例においては便宜上、デュレーション、イベント間隔は実際の演奏に比べて簡略化して示している。また、伴奏データのトラックには、上記以外の楽器の演奏情報が入力されても構わない。
【0037】
全トラックのイベント処理のタイミング及びデュレーション時間のカウントは、共通のタイマによって制御されており、全てのトラックは時間的に同期しながら自動演奏処理が進行していく。
【0038】
図4は、本実施例における自動演奏装置のシステムの全体図である。
まず、演奏者はモニタ23の情報を見ながら、パネルスイッチ5によって楽曲や演奏方法を選択する。
【0039】
バス10には、タイマ12、CPU13、ROM14、RAM15、外部記憶装置16が接続されている。CPU13は、例えばハードディスクドライブ(HDD)等の外部記憶装置16内の自動演奏データに従い、ROM14内のプログラムに従い、RAM15を演算レジスタ等として用い、タイマ12に従って時間的同期を取りながら、自動演奏処理の制御を行う。
【0040】
演奏者の主音声は、マイク1からアナログ入力され、A/Dコンバータ2でデジタル信号に変換される。また、演奏者が電子ピアノ等を演奏する場合は、鍵盤11から直接デジタル信号が入力される(以下本実施例において、これら演奏者が入力した信号を演奏信号と総称する)。なお、本実施例においては、マイク1および鍵盤11を入力手段としているが、その他の手段によって演奏信号を入力しても構わない。例えば、ギターアンプ等からのライン出力をA/Dコンバータ2に入力したり、MIDI楽器からの信号を直接バス10に入力してもよい。
【0041】
外部記憶装置16から読みだされた自動演奏データ中の伴奏データに従って、音源6から所定の楽音信号が供給される。操作子7を操作した場合は音源6のパラメータが変更され、楽音信号の音程等を変化させる。
【0042】
自動演奏データ中の指示データにより、演奏信号のRAM4への記録、RAM4に記録された演奏信号の読み出しが指示される。なお、RAM4は記録と読み出しが同時に出来る2ポート型の物を用いる。
【0043】
さらに指示データは、「RAM4から読み出された演奏信号」、「演奏者からの演奏信号」、「自動演奏される楽音信号」の3種類の信号に対してエフェクト処理を指示する。エフェクト処理は、上記した3種類の信号の一部に対してのみ施しても構わない。また、エフェクト処理はDSP3で行われる処理の他に、CPU13と音源6が行う処理や、DSP3と音源6と操作子7の組み合わせによって行われる処理等がある。さらに、エフェクト処理の指示は、指示データによる指示以外にも、予め演奏者がパネルスイッチ5や操作子7を用いて設定することも可能である。
【0044】
エフェクト処理が終了した信号は、D/Aコンバータ21でアナログ化され、アンプ22から出力される。
【0045】
外部記憶装置13は、HDDの他、フロッピディスクドライブ(FDD)、光磁気ディスク(MO)ドライブ、CD−ROM(コンパクトディスク−リードオンリィメモリ)ドライブ等である。
【0046】
外部記憶装置16としてのハードディスクドライブ(HDD)は動作プログラムや自動演奏データ等の各種データを記憶することができる。ROM14に動作プログラムが記憶されていない場合、このHDD内のハードディスクに動作プログラムを記憶させておき、それをRAM15に読み込むことにより、ROM14に動作プログラムを記憶している場合と同様の動作をCPU13にさせることができる。このようにすると、動作プログラムの追加やバージョンアップ等が容易に行える。CD−ROM(コンパクトディスク−リード・オンリィ・メモリ)ドライブは、CD−ROMに記憶されている動作プログラムや各種データを読み出すことができる。読み出した動作プログラムや各種データは、HDD内のハードディスクにストアされる。動作プログラムの新規インストールやバージョンアップ等が容易に行える。
【0047】
通信インターフェイス32はLAN(ローカルエリアネットワーク)やインターネット、電話回線等の通信ネットワーク33に接続されており、該通信ネットワーク33を介して、サーバコンピュータ31と接続される。HDD内に上記動作プログラムや各種データが記憶されていない場合、サーバコンピュータ31から動作プログラムやデータをダウンロードすることができる。クライアントとなる本自動演奏装置は、通信インターフェイス32及び通信ネットワーク33を介してサーバコンピュータ31へと動作プログラムやデータのダウンロードを要求するコマンドを送信する。サーバコンピュータ31は、このコマンドを受け、要求された動作プログラムやデータを、通信ネットワーク33を介して本自動演奏装置へと配信し、自動演奏装置が通信インターフェイス32を介して、これら動作プログラムやデータを受信してHDD内に蓄積することにより、ダウンロードが完了する。
【0048】
なお、本実施例は、本実施例に対応する動作プログラムや各種データをインストールした市販のパーソナルコンピュータ等によって、実施させるようにしてもよい。その場合には、本実施例に対応する動作プログラムや各種データを、CD−ROMやフロッピィディスク等のパーソナルコンピュータが読み込むことができる記憶媒体に記憶させた状態で、ユーザーに提供してもよい。そのパーソナルコンピュータ等が、LAN、インターネット、電話回線等の通信ネットワークに接続されている場合には、通信ネットワークを介して、動作プログラムや各種データ等をパーソナルコンピュータ等に提供してもよい。
【0049】
図5は、本発明の実施例における自動演奏のメイン処理のフローチャートである。
【0050】
図5(A)は、メインのフローチャートを示す。処理がスタートすると、まずステップSA1で全ての設定を初期化する。次に、ステップSA2でパネル上の操作で処理を行い、楽曲や演奏方法が選択される。この選択に従い、ステップSA3で一曲分の自動演奏処理が行われる。曲の演奏終了後、ステップSA2に戻って同様の処理が繰り返される。
【0051】
図5(B)は、図5(A)のステップSA3に示した自動演奏処理の詳細を示したフローチャートである。まず、ステップSB1でタイマ割り込みが発生する。タイマ割り込みが発生すると、ステップSB2で全てのトラックのデュレーションDnの値を1ディクリメントする。デュレーションDnのディクリメントにより次のイベントまでのデュレーションが更新される。
【0052】
次に、ステップSB3でイベント処理を行う。イベント処理は、まず各トラックのデュレーションDnを判別し、デュレーションDnが0の場合は、次のイベントを読み出し、例えば楽音の発音や主音声の録音といったイベント処理を行う。デュレーションDnが0となるトラックが無い場合はそのまま次のステップに進む。ステップSB4では、楽曲の演奏が終了か否かを判別し、終了していない場合はステップSB1に戻って処理を継続し、終了している場合はリターンする。
【0053】
図6は、図5(B)のステップSB3に示したイベント処理の詳細を示すフローチャートである。
【0054】
処理がスタートすると、ステップSC1でトラックナンバTnをn=1に設定する。本実施例においては、4種類の楽音トラックと1種類の指示トラックを持つため、nは1から5まで変化する。
【0055】
ステップSC2で、トラックTnに記録されているデュレーションDnが0か否かを判別する。Dn=0の場合は、次のイベント処理を行うタイミングになっている事を示している。Dn≠0の場合はステップSC7に進み、Dn=0の場合はステップSC3に進む。
【0056】
ステップSC3〜SC5でイベント処理が行われる。まず、ステップSC3で次のデータの読み込みを行う。ステップSC4では読み込まれたデータがイベントデータか否かを判別する。図3(A)に示したように、イベントとデュレーションは一対になって記録されている為、最初に読み込まれるデータはイベントであり、ステップSC4のYの矢印に従ってステップSC5に進む。ステップSC5で具体的なイベントの処理を行った後、ステップSC3に処理を戻す。イベントの処理後にステップSC3で読み込まれるデータはデュレーションであるため、ステップSC4ではNの矢印に従って、ステップSC6に進む。
【0057】
ステップSC6では、ステップSC3で読み込まれたデュレーションに従ってDnに新規デュレーションを入力する。
【0058】
ステップSC7では、n=5か否かを判別する。n=5の場合は、T1〜T5の全トラックの処理が終了した事を意味するので、処理をリターンする。一方、n≠5の場合は、ステップSC8でnを1インクリメントして、ステップSA2に処理を戻す。これにより、次のトラックにおいてステップSC2からの処理が繰り返される。
【0059】
図7は、指示データのイベント処理の詳細を示すフローチャートである。
ステップSD1で録音開始か否かを判別し、Yesの場合はYの矢印に従ってステップSD2に進み、録音開始のメモリアドレスを指定した上で、ステップSD3で録音を開始する。NoであればNの矢印に従ってステップSD2、SD3をバイパスする。
【0060】
ステップSD4で録音停止か否かを判別し、Yesの場合はYの矢印に従ってステップSD5に進み、録音の停止を指示する。NoであればNの矢印に従ってステップSD5をバイパスする。
【0061】
ステップSD6で再生開始か否かを判別する。Yesの場合はYの矢印に従ってステップSD7に進み、再生開始のメモリアドレスを指定した上で、ステップSD8で再生を開始する。NoであればNの矢印に従ってステップSD7、SD8をバイパスする。
【0062】
ステップSD9でエフェクト処理をするか否かを判別し、Yesの場合はYの矢印に従ってステップSD10に進み、ステップSD10でエフェクト処理を行う。NoであればNの矢印に従ってステップSD10をバイパスする。
【0063】
ステップSD11で再生停止か否かを判別し、Yesの場合はYの矢印に従ってステップSD12に進み、再生を停止する。NoであればNの矢印に従ってステップSD12をバイパスする。
【0064】
以上の処理を行った後に、リターンする。なお、本実施例では直列に一定のイベント処理を行う場合を説明したが、イベントの順序を変更してもよい。また、直列のかわりに並列に処理するようにしてもよい。
【0065】
以上、カラオケ用自動演奏装置を例にとって本発明を説明したが、本発明はカラオケ用自動演奏装置に制限されず、その以外の自動演奏装置にも適用可能である。その他、種々の変更、改良、組み合わせ等が可能な事は当業者に自明であろう。
【0066】
【発明の効果】
以上説明したように、本発明によれば、主音声の一部を録音/再生することにより、広範囲の従音声の生成が可能となる。
【図面の簡単な説明】
【図1】本実施例による従音声の再現方法を示す。
【図2】本実施例による他の演奏例を示す。
【図3】自動演奏データの構成を示した図である。
【図4】本実施例における自動演奏装置のシステムの全体図である。
【図5】本発明の実施例による自動演奏のメイン処理のフローチャートである。
【図6】イベント処理の詳細を示すフローチャートである。
【図7】指示トラックのイベントデータ処理を示すフローチャートである。
【符号の説明】
1 マイク、 2 A/Dコンバータ、3 DSP、4 RAM、 5 パネルスイッチ、6 音源、7 操作子、10 バス、 11 鍵盤、12 タイマ、13 CPU、14 ROM、15 RAM、16 外部記憶装置、21 D/Aコンバータ、22 アンプ、23 モニタ、31 サーバコンピュータ、32 通信インターフェイス、33 通信ネットワーク[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an automatic performance technique, and more particularly to an automatic performance technique for generating a musical tone by combining a performance of a player and an automatic performance.
[0002]
[Prior art]
One of the uses of the automatic performance device is that the player plays the main melody while automatically performing the accompaniment. For example, the automatic accompaniment function of an electronic musical instrument and karaoke correspond to this. In the case of an automatic accompaniment of an electronic musical instrument, for example, an ensemble is completed by, for example, a player playing a piano and automatically playing a bass or drums to be an accompaniment. On the other hand, in karaoke, an instrumental sound of an accompaniment is automatically performed, and a player sings the main melody to complete an ensemble. This allows the player to enjoy playing in a more organized environment than when playing alone.
[0003]
The invention is particularly, but not exclusively, suitable for automatic performance devices for karaoke. Hereinafter, a karaoke automatic performance device will be described as an example.
[0004]
At present, among songs sung in karaoke, in addition to the sound of the main melody sung by the performer (hereinafter referred to as "main sound"), other sounds in the form of chorus and round singing (hereinafter "secondary sound") ) May be included. These secondary voices may be sung by a different singer than the main voice, such as chorus or chorus, or by repeating the voice of the main voice singer, the secondary voice may be sung by the same singer. Sometimes sung.
[0005]
In karaoke, since there is usually only one player, only the main voice part can be sung, and it is difficult to sing the secondary voice part. However, in order to faithfully reproduce the atmosphere of the music, it is important to reproduce the sub-voice portion.
[0006]
In a conventional automatic performance apparatus for karaoke, there are roughly two types of techniques for reproducing a secondary voice.
[0007]
As a first technique, there is a method of recording a secondary voice portion in data to be automatically played in advance and reproducing the portion.
[0008]
As a second technique, there is a method of performing processing such as a delay or a pitch change on a main sound, such as an echo, to process an original sound, thereby generating a pseudo-secondary sound. In the present specification, processing for processing an original sound such as an echo is collectively referred to as “effect processing”.
[0009]
[Problems to be solved by the invention]
In the first related art, various types of secondary sounds can be easily reproduced. However, since the secondary voice is a performance of another person, subtle singing turns and the like do not match, and it is difficult for the primary voice and the secondary voice to harmonize. In addition, it is impossible to reproduce the secondary voice formed by the performer's own voice. Further, as the amount of the secondary voice is increased and the sound quality is improved, the required information amount is increased, so that the processing becomes complicated and the scale of the apparatus must be increased.
[0010]
In the second related art, since the sub-voice is obtained by effecting the main voice, the sound quality, singing, and the like match. In particular, when the sub-voice is formed by the performer's own voice, a natural ensemble can be obtained. Further, even when the slave voice is another person's voice, a wide range of responses can be made by performing a plurality of effect processes and artificially synthesizing another person's voice.
[0011]
However, the conventional effect processing can be performed only once in real time. Therefore, it is difficult to reproduce the main sound a plurality of times or to reproduce a sub sound that repeats with a time difference from the main sound.
[0012]
SUMMARY OF THE INVENTION An object of the present invention is to provide an automatic performance device, an automatic performance method or a medium on which a program is recorded, which can reproduce various forms of secondary sounds.
[0013]
[Means for Solving the Invention]
According to one aspect of the present invention, there is provided an automatic performance device which synthesizes first performance information generated by operation of a voice or a performance operation element and second performance information reproduced according to automatic performance data to produce an automatic performance. The performance data includes a recording instruction and a reproduction instruction of the first performance information together with the second performance information, and reading means for reading the automatic performance data; and recording of the first performance information in accordance with the recording instruction in the automatic performance data. Recording means for reading the performance information recorded by the recording means in accordance with the reproduction instruction in the automatic performance data, and reproducing the reproduced performance information as third performance information; first performance information and second performance information Means for generating a musical tone based on the third performance information reproduced by the reproducing means, and further comprising an effect processing instruction in the automatic performance data, Automatic performance device is provided having an effect processing unit for performing effect processing on at least one of the performance information of the optimum third performance data.
[0014]
According to another aspect of the present invention, there is provided an automatic performance method for synthesizing first performance information generated by operation of a voice or performance operator and second performance information reproduced according to automatic performance data, and Using the automatic performance data which includes a recording instruction and a reproduction instruction of the first performance information together with the second performance information, a first reading step for reading the automatic performance data, and a first step in accordance with the recording instruction in the automatic performance data. A recording step of recording performance information, a reproduction step of reading performance information recorded in the recording step in accordance with a reproduction instruction in the automatic performance data, and reproducing the same as third performance information; Generating a musical tone based on the performance information and the third performance information reproduced in the reproducing step, further comprising an effect processing instruction in the automatic performance data; Information to automatic performance method having the effect processing step of performing effect processing on at least one of the performance information of the third performance data are provided.
[0015]
According to still another aspect of the present invention, there is provided an automatic performance program which synthesizes first performance information generated by operation of a voice or a performance operation element and second performance information reproduced according to automatic performance data to produce a sound. In the recorded medium, a reading procedure for reading the automatic performance data by using the automatic performance data including a recording instruction and a reproduction instruction of the first performance information together with the second performance information, and a recording instruction in the automatic performance data. , A recording procedure for recording the first performance information, a reproduction procedure for reading the performance information recorded in the recording procedure in accordance with the reproduction instruction in the automatic performance data, and reproducing the same as the third performance information; Generating a tone based on the information, the second performance information, and the third performance information reproduced by the reproduction procedure. Includes physical instruction, a medium recording a program for executing the effect processing procedure for performing effect processing on a computer in at least one of the performance information of the first performance data to third performance data are provided.
[0016]
Since the third performance information is created using the first performance information itself, it is possible to create a good synthesized sound of the ensemble. Further, since the first performance information is recorded / reproduced, the third performance information can be reproduced at an arbitrary timing.
[0017]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 shows a method for reproducing a secondary voice according to an embodiment of the present invention.
[0018]
FIG. 1A is a table showing a performance example according to the present embodiment. During the time shown on the horizontal axis of the table, the processing shown in the figure is performed for each item arranged on the vertical axis of the table.
[0019]
The automatic performance data shown above the table includes accompaniment data and instruction data. While the musical tone is automatically performed based on the accompaniment data, a process for creating a sub-voice is instructed based on the instruction data.
[0020]
The lower part of the table shows the main voice, the recorded content, and the subordinate voice. In the item of the main voice and the sub-voice, the phrase actually pronounced is described, and in the item of the recorded content, the recorded content stored in the recording device in the automatic performance device is described.
[0021]
The performer plays a series of phrases such as "Sai, Sai, and Tulip Hanaga" as the main voice along with the accompaniment.
[0022]
On the other hand, according to the instruction of the instruction data, the start / stop of the recording of the main voice is instructed before and after the portion corresponding to “Tulip's story” in the timing of the music to be automatically played. In accordance with this instruction, the phrase "Tulip no Hanaga" of the main voice is recorded in the recording device.
[0023]
For the recorded phrase, reproduction start / stop is instructed in accordance with the instruction to reproduce the instruction data. In accordance with this instruction, the main sound recorded in the recording device is reproduced and becomes a sub sound. In this example, a chorus effect is produced by playing the same phrase with a time difference between the main voice and the slave voice.
[0024]
FIG. 1B is a conceptual diagram of the present embodiment. As described above, the automatic performance data includes the accompaniment data for performing the accompaniment, and the instruction data for recording / reproducing the main voice and reproducing the sub-voice. The performer sings a song along with the accompaniment that is automatically performed based on the accompaniment data, and this is the main voice. On the other hand, recording / reproduction of the main voice to the recording device is instructed by the instruction data synchronized with the accompaniment data. The recording device records the main sound in accordance with the instruction, and reproduces the recorded main sound to generate a sub sound.
[0025]
The feature of this embodiment lies in that a sub-voice is generated by recording / reproducing a main voice sung by the user, and is generated so as to be superimposed on the main voice. Therefore, the sound quality and the singing turn of the main voice and the sub-voice match, and a natural ensemble can be formed. Further, since the main sound recorded on the recording device can be reproduced from the middle, reproduced repeatedly, or reproduced with a time lag, the secondary sound can be generated in various forms. Become. Further, a high-fidelity musical tone can be generated only by adding a recording / reproducing instruction to the data of the automatic performance, so that an increase in the amount of information can be avoided.
[0026]
FIG. 2 is a table showing another example of performance of the sub-voice according to the present embodiment. The configuration of the table is the same as the configuration of the table shown in FIG. 1A. During the time shown on the horizontal axis of the table, the processing shown for each item arranged on the vertical axis of the table is performed. I have.
[0027]
FIG. 2A shows a performance example in which a part of the recorded main voice is repeatedly reproduced. First, the phrase "ichi-ni-san" of the main voice is all recorded on the recording device. The secondary voice repeats the reproduction of only the part of "Nii-san" after reproducing all the phrases of "Nii-san" with a time lag. In other words, the phrase "Ichi-ni-san-ni-san" is generated as a secondary voice. In this manner, by shifting the start / stop position of reproduction or increasing the number of times of reproduction, it is possible to generate a secondary voice having a repetition from the middle of a phrase, which cannot be performed by conventional delay processing alone.
[0028]
FIG. 2B is a performance example in which an instruction for effect processing is added to the instruction data. The phrases "one day" and "in the woods" of the main voice are recorded, respectively, and are played back as a secondary voice with a certain delay. Further, the instruction data issues an instruction for effect processing for the phrase of the secondary voice to be reproduced. In this example, it is assumed that the performer is a male, and a pitch-up and a filter process are instructed for the reproduced sound part of "one day" to generate a secondary voice that simulates a female voice. It is assumed that a pitch-down and a filter process are instructed for the reproduced sound to generate a secondary voice simulating a bear's voice. With these sub-voices, the performer can obtain an effect as if the three people, a woman and a bear, are singing. In this way, the instruction data can instruct various effect processes in addition to the instruction for recording / reproducing the main sound.
[0029]
In addition to the above-described performance examples, various effects can be reproduced by reproducing the sub-voice by combining recording / reproduction and effect processing. For example, effects such as fade-in / out and chorus can be produced.
[0030]
FIG. 3 is a diagram showing a configuration example of the automatic performance data of the present embodiment.
FIG. 3A is a diagram schematically illustrating the configuration of the automatic performance data. The automatic performance data has an area for each track, in which event data and duration data are stored in pairs. The event data indicates specific automatic performance processing such as generation / stop of a musical tone and recording / reproduction of a main voice, and the duration data indicates a time interval from one event data to the next event data. In the present embodiment, tracks T1 to T4 are prepared as tracks for accompaniment data, and track T5 is prepared as a track for instruction data. However, the number of these tracks may be increased or decreased as necessary.
[0031]
In the present embodiment, the duration indicates a time interval, but the duration may indicate the length of a rest on a musical score, or may indicate the absolute elapsed time from the start of a music piece. Although the automatic performance data of this embodiment is recorded in parallel for each track, information of all tracks may be collected together and recorded in series with the track number.
[0032]
FIG. 3B is a table showing the recorded contents of the event data.
As event data of the accompaniment data, E1: a) key-on, b) key-off, E2: note number, E3: velocity, and the like are recorded, and operations such as tone generation / silence of a musical tone are instructed.
[0033]
As events of the instruction data, C1: recording a) start, b) stop, c) memory address, and C2: reproduction a) start, b) stop, c) memory address. According to these instructions, the main sound is recorded / reproduced, and the sub sound is generated. The recording / playback memory address specifies the position at which recording / playback in the recording device is started.
[0034]
As other events of the instruction data, C3: program change, C4: control change, and the like are also recorded. The program change sets the type, timbre, nature, etc. of the musical tone to be generated, and the control change controls various settings based on the operation of the operation element. In this specification, a program change and a control change are collectively called an effect process. In addition to these instructions for effect processing, there are also instructions for the main voice, musical sounds to be played automatically, and the like, in addition to the instructions for generating the secondary voice.
[0035]
FIG. 3C is a configuration diagram of the automatic performance process. Each track of the automatic performance data is arranged in the vertical direction of the table in track number order. The horizontal axis of the table and the straight line drawn on each track indicate the passage of time.
[0036]
Tracks T1 to T4 store accompaniment data of drums, guitar, bass, and piano, respectively, and track T5 stores instruction data. A vertical straight line on each track indicates the presence of an event, and each event is processed at intervals of a circled duration. In this example, for the sake of convenience, the duration and event interval are shown in a simplified manner as compared with the actual performance. In addition, performance information of instruments other than the above may be input to the track of the accompaniment data.
[0037]
The timing of the event processing and the counting of the duration time for all tracks are controlled by a common timer, and the automatic performance processing proceeds in synchronization with time for all tracks.
[0038]
FIG. 4 is an overall view of the system of the automatic performance device in the present embodiment.
First, the player selects a song or a playing method by using the panel switch 5 while viewing the information on the
[0039]
The bus 10 is connected to a
[0040]
The main voice of the performer is analog-input from the
[0041]
A predetermined tone signal is supplied from the
[0042]
The instruction data in the automatic performance data instructs recording of the performance signal in the RAM 4 and reading of the performance signal recorded in the RAM 4. The RAM 4 is of a two-port type capable of recording and reading at the same time.
[0043]
Further, the instruction data instructs effect processing on three types of signals, that is, a "performance signal read from the RAM 4", a "performance signal from a player", and a "tone signal automatically played". The effect processing may be performed only on a part of the above three types of signals. In addition to the processing performed by the DSP 3, the effect processing includes processing performed by the
[0044]
The signal after the effect processing is converted into an analog signal by the D /
[0045]
The
[0046]
A hard disk drive (HDD) as the
[0047]
The
[0048]
This embodiment may be implemented by a commercially available personal computer or the like in which an operation program and various data corresponding to the embodiment are installed. In this case, the operation program and various data corresponding to the present embodiment may be provided to the user in a state where the program is stored in a storage medium such as a CD-ROM or a floppy disk which can be read by a personal computer. When the personal computer or the like is connected to a communication network such as a LAN, the Internet, or a telephone line, the operation program or various data may be provided to the personal computer or the like via the communication network.
[0049]
FIG. 5 is a flowchart of the main processing of the automatic performance in the embodiment of the present invention.
[0050]
FIG. 5A shows a main flowchart. When the process starts, first, all settings are initialized in step SA1. Next, in step SA2, a process is performed by an operation on the panel, and a music piece and a performance method are selected. In accordance with this selection, an automatic performance process for one music is performed in step SA3. After the performance of the music, the process returns to step SA2 and the same processing is repeated.
[0051]
FIG. 5B is a flowchart showing details of the automatic performance processing shown in step SA3 of FIG. 5A. First, a timer interrupt occurs in step SB1. When a timer interrupt occurs, the values of the durations Dn of all tracks are decremented by one in step SB2. The duration up to the next event is updated by decrementing the duration Dn.
[0052]
Next, event processing is performed in step SB3. In the event processing, first, the duration Dn of each track is determined. If the duration Dn is 0, the next event is read out, and event processing such as, for example, generating a musical tone or recording a main voice is performed. If there is no track in which the duration Dn is 0, the process directly proceeds to the next step. In step SB4, it is determined whether or not the performance of the music has been completed. If not completed, the process returns to step SB1 to continue the processing, and if completed, returns.
[0053]
FIG. 6 is a flowchart showing details of the event processing shown in step SB3 of FIG. 5B.
[0054]
When the process starts, the track number Tn is set to n = 1 in step SC1. In the present embodiment, since there are four types of musical tone tracks and one type of instruction track, n changes from 1 to 5.
[0055]
At step SC2, it is determined whether or not the duration Dn recorded on the track Tn is 0. When Dn = 0, it indicates that it is time to perform the next event process. When Dn ≠ 0, the process proceeds to step SC7, and when Dn = 0, the process proceeds to step SC3.
[0056]
Event processing is performed in steps SC3 to SC5. First, the next data is read in step SC3. In step SC4, it is determined whether or not the read data is event data. As shown in FIG. 3A, since the event and the duration are recorded as a pair, the data that is read first is the event, and the process proceeds to step SC5 according to the Y arrow of step SC4. After performing a specific event process in step SC5, the process returns to step SC3. Since the data read in step SC3 after the processing of the event is a duration, in step SC4, the process proceeds to step SC6 according to the arrow N.
[0057]
In step SC6, a new duration is input to Dn according to the duration read in step SC3.
[0058]
At Step SC7, it is determined whether or not n = 5. If n = 5, it means that the processing of all the tracks T1 to T5 has been completed, so the processing returns. On the other hand, if n ≠ 5, n is incremented by 1 in step SC8, and the process returns to step SA2. Thus, the processing from step SC2 is repeated on the next track.
[0059]
FIG. 7 is a flowchart showing details of the event processing of the instruction data.
In step SD1, it is determined whether or not recording is to be started. If Yes, the process proceeds to step SD2 according to the arrow Y, and after specifying a memory address for starting recording, recording is started in step SD3. If No, steps SD2 and SD3 are bypassed according to the arrow of N.
[0060]
In step SD4, it is determined whether or not to stop recording. If Yes, the process proceeds to step SD5 according to the arrow Y to instruct to stop recording. If No, step SD5 is bypassed according to the arrow of N.
[0061]
In step SD6, it is determined whether or not the reproduction has started. In the case of Yes, the process proceeds to step SD7 according to the arrow Y, and after specifying the memory address of the reproduction start, the reproduction is started in step SD8. If No, steps SD7 and SD8 are bypassed according to the arrow of N.
[0062]
At step SD9, it is determined whether or not to perform the effect processing. If Yes, the process proceeds to step SD10 according to the arrow Y, and the effect processing is performed at step SD10. If No, step SD10 is bypassed according to the arrow of N.
[0063]
At step SD11, it is determined whether or not the reproduction is stopped. If Yes, the process proceeds to step SD12 according to the arrow Y to stop the reproduction. If No, step SD12 is bypassed according to the arrow of N.
[0064]
After performing the above processing, the process returns. In the present embodiment, a case has been described in which fixed event processing is performed in series, but the order of events may be changed. Also, processing may be performed in parallel instead of in series.
[0065]
As described above, the present invention has been described by taking the automatic performance device for karaoke as an example, but the present invention is not limited to the automatic performance device for karaoke, but can be applied to other automatic performance devices. It will be apparent to those skilled in the art that various changes, improvements, combinations, and the like can be made.
[0066]
【The invention's effect】
As described above, according to the present invention, it is possible to generate a wide range of secondary sounds by recording / reproducing a part of the main audio.
[Brief description of the drawings]
FIG. 1 shows a method of reproducing a secondary voice according to an embodiment.
FIG. 2 shows another performance example according to the embodiment.
FIG. 3 is a diagram showing a configuration of automatic performance data.
FIG. 4 is an overall view of a system of the automatic performance device in the present embodiment.
FIG. 5 is a flowchart of main processing of automatic performance according to the embodiment of the present invention.
FIG. 6 is a flowchart showing details of event processing.
FIG. 7 is a flowchart showing event data processing of a designated track.
[Explanation of symbols]
1 microphone, 2 A / D converter, 3 DSP, 4 RAM, 5 panel switch, 6 sound source, 7 operator, 10 bus, 11 keyboard, 12 timer, 13 CPU, 14 ROM, 15 RAM, 16 external storage device, 21 D / A converter, 22 amplifier, 23 monitor, 31 server computer, 32 communication interface, 33 communication network
Claims (6)
自動演奏データに、第2の演奏情報と共に、第1の演奏情報の録音指示および再生指示を含み、
自動演奏データを読みとる読みとり手段と、
自動演奏データ中の録音指示に従って、第1の演奏情報の録音を行う録音手段と、
自動演奏データ中の再生指示に従って、録音手段にて録音された演奏情報を読み出し、第3の演奏情報として再生する再生手段と、
第1の演奏情報と第2の演奏情報と再生手段によって再生された第3の演奏情報とに基づき、楽音を発生させる手段と
を有する自動演奏装置。An automatic performance device which synthesizes first performance information generated by operation of a voice or a performance operation element and second performance information reproduced according to automatic performance data to produce sound.
The automatic performance data includes a recording instruction and a reproduction instruction of the first performance information together with the second performance information,
Reading means for reading automatic performance data;
Recording means for recording first performance information in accordance with a recording instruction in the automatic performance data;
Reproducing means for reading the performance information recorded by the recording means in accordance with the reproduction instruction in the automatic performance data and reproducing the read performance information as third performance information;
An automatic performance device having means for generating a musical tone based on the first performance information, the second performance information, and the third performance information reproduced by the reproducing means.
前記第1の演奏情報乃至第3の演奏情報のうち少なくとも一つの演奏情報にエフェクト処理を施すエフェクト処理手段を有する請求項1記載の自動演奏装置。The automatic performance data includes an instruction for effect processing,
2. The automatic performance apparatus according to claim 1, further comprising effect processing means for effecting an effect process on at least one of the first to third performance information.
自動演奏データに、第2の演奏情報と共に、第1の演奏情報の録音指示および再生指示を含むものを用い、
自動演奏データを読みとる読みとり工程と、
自動演奏データ中の録音指示に従って、第1の演奏情報の録音を行う録音工程と、
自動演奏データ中の再生指示に従って、録音工程にて録音した演奏情報を読み出し、第3の演奏情報として再生する再生工程と、
第1の演奏情報と第2の演奏情報と再生工程によって再生された第3の演奏情報とに基づき、楽音を発生させる工程と
を有する自動演奏方法。In an automatic performance method for synthesizing and generating first performance information generated by operation of a voice or performance operator and second performance information reproduced according to automatic performance data,
Using automatic performance data that includes a recording instruction and a reproduction instruction of the first performance information together with the second performance information,
A reading process for reading automatic performance data,
A recording step of recording first performance information according to a recording instruction in the automatic performance data;
A reproduction step of reading out the performance information recorded in the recording step in accordance with a reproduction instruction in the automatic performance data and reproducing the same as third performance information;
Generating a musical tone based on the first performance information, the second performance information, and the third performance information reproduced in the reproducing step.
さらに、前記第1の演奏情報乃至第3の演奏情報のうち少なくとも一つの演奏情報にエフェクト処理を施すエフェクト処理工程を有する請求項3記載の自動演奏方法。As the automatic performance data, data including an instruction for effect processing is used,
4. The automatic performance method according to claim 3, further comprising an effect processing step of effecting at least one of the first to third performance information.
自動演奏データに、第2の演奏情報と共に、第1の演奏情報の録音指示および再生指示を含むものを用い、
自動演奏データを読みとる読みとり手順と、
自動演奏データ中の録音指示に従って、第1の演奏情報の録音を行う録音手順と、
自動演奏データ中の再生指示に従って、録音手順にて録音した演奏情報を読み出し、第3の演奏情報として再生する再生手順と、
第1の演奏情報と第2の演奏情報と再生手順によって再生された第3の演奏情報とに基づき、楽音を発生させる手順と
をコンピュータに実行させるためのプログラムを記録した媒体。A medium in which an automatic performance program which synthesizes first performance information generated by operation of a voice or performance operator and second performance information reproduced in accordance with automatic performance data to produce a sound is provided.
Using automatic performance data that includes a recording instruction and a reproduction instruction of the first performance information together with the second performance information,
A reading procedure for reading the automatic performance data,
A recording procedure for recording the first performance information in accordance with a recording instruction in the automatic performance data;
A reproduction procedure for reading out the performance information recorded in the recording procedure in accordance with the reproduction instruction in the automatic performance data and reproducing the read out as third performance information;
A medium in which a program for causing a computer to execute a procedure for generating a musical tone based on the first performance information, the second performance information, and the third performance information reproduced by the reproduction procedure is recorded.
さらに、前記第1の演奏情報乃至第3の演奏情報のうち少なくとも一つの演奏情報にエフェクト処理を施すエフェクト処理手順を有する請求項5記載のプログラムを記録した媒体。As the automatic performance data, data including an instruction for effect processing is used,
6. The medium according to claim 5, further comprising an effect processing procedure for effecting at least one of the first to third performance information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP01170298A JP3551000B2 (en) | 1997-01-24 | 1998-01-23 | Automatic performance device, automatic performance method, and medium recording program |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1145897 | 1997-01-24 | ||
JP9-11458 | 1997-01-24 | ||
JP01170298A JP3551000B2 (en) | 1997-01-24 | 1998-01-23 | Automatic performance device, automatic performance method, and medium recording program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10268864A JPH10268864A (en) | 1998-10-09 |
JP3551000B2 true JP3551000B2 (en) | 2004-08-04 |
Family
ID=26346886
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP01170298A Expired - Fee Related JP3551000B2 (en) | 1997-01-24 | 1998-01-23 | Automatic performance device, automatic performance method, and medium recording program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3551000B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109859730B (en) * | 2019-03-25 | 2021-03-26 | 北京达佳互联信息技术有限公司 | Audio processing method and device |
-
1998
- 1998-01-23 JP JP01170298A patent/JP3551000B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH10268864A (en) | 1998-10-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH04128796A (en) | Music reproduction device | |
US11875763B2 (en) | Computer-implemented method of digital music composition | |
EP3389028A1 (en) | Automatic music production from voice recording. | |
JP2003208170A (en) | Musical performance controller, program for performance control and recording medium | |
JPH0744183A (en) | Karaoke playing device | |
JP3353595B2 (en) | Automatic performance equipment and karaoke equipment | |
JPH10214083A (en) | Musical sound generating method and storage medium | |
JP4407473B2 (en) | Performance method determining device and program | |
JP3551000B2 (en) | Automatic performance device, automatic performance method, and medium recording program | |
JP2002091443A (en) | Automatic player | |
JP3214623B2 (en) | Electronic music playback device | |
JPH11338480A (en) | Karaoke (prerecorded backing music) device | |
JP3903492B2 (en) | Karaoke equipment | |
JP3379414B2 (en) | Punch-in device, punch-in method, and medium recording program | |
Feng | From Pre-Recorded Tape to Live Computer Processing: Piano Music from Davidovsky to the Present Day. | |
JPH06202676A (en) | Karaoke contrller | |
JPH10116070A (en) | Musical playing device | |
Souvignier | Loops and grooves: The musician's guide to groove machines and loop sequencers | |
JP2979897B2 (en) | Karaoke equipment | |
JP3804498B2 (en) | Content generation apparatus and program | |
JP3287272B2 (en) | Karaoke equipment | |
JP2000003175A (en) | Musical tone forming method, musical tone data forming method, musical tone waveform data forming method, musical tone data forming method and memory medium | |
JPH10171475A (en) | Karaoke (accompaniment to recorded music) device | |
JP3565065B2 (en) | Karaoke equipment | |
JP3551441B2 (en) | Karaoke equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040322 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040330 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040412 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313532 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090514 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100514 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110514 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |