JPH11513811A - リアルタイム音楽作成システム - Google Patents

リアルタイム音楽作成システム

Info

Publication number
JPH11513811A
JPH11513811A JP9515844A JP51584497A JPH11513811A JP H11513811 A JPH11513811 A JP H11513811A JP 9515844 A JP9515844 A JP 9515844A JP 51584497 A JP51584497 A JP 51584497A JP H11513811 A JPH11513811 A JP H11513811A
Authority
JP
Japan
Prior art keywords
rhythm
pitch
user
music
input device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9515844A
Other languages
English (en)
Inventor
ピー. リゴプロス,アレキサンダー
ビー. エゴジ,エラン
Original Assignee
ハーモニクス ミュージック システムズ,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ハーモニクス ミュージック システムズ,インコーポレイテッド filed Critical ハーモニクス ミュージック システムズ,インコーポレイテッド
Publication of JPH11513811A publication Critical patent/JPH11513811A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/32Constructional details
    • G10H1/34Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • G10H1/42Rhythm comprising tone forming circuits
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/315User input interfaces for electrophonic musical instruments for joystick-like proportional control of musical input; Videogame input devices used for musical input or control, e.g. gamepad, joysticks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/281Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
    • G10H2240/311MIDI transmission

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Toys (AREA)

Abstract

(57)【要約】 電子音楽システムは、入力装置(12)と、少なくとも1つのコンピュータ記憶媒体と、リズム生成器(100)と、ピッチ選択器(108)と、音発生器(102)とを有する。入力装置(12)は、独奏を作成および演奏しようとしているユーザによる入力装置(12)の操作に応答して、リズムに関連した入力信号およびピッチに関連した入力信号を生成する。コンピュータ記憧媒体は、ユーザが選択できる複数の音楽伴奏トラックを有し、ユーザは、このトラック上で独奏を作成および演奏し得る。コンピュータ記憶媒体はさらに、複数のリズムブロックを有し、各リズムブロックは、少なくとも1つの音符に対して、少なくともその音符が演奏されるべき時間を規定する。コンピュータ記憶媒体はさらに、直前の所定時間間隔にわたってユーザによって作成された独奏の少なくとも一部を記憶する。リズム生成器(100)は、入力装置(12)からのリズムに関連した入力信号を受信し、リズムに関連した入力信号に基づいてコンピュータ記憧媒体からリズムブロックの1つを選択し、選択されたリズムブロックによって規定される時間に音符を演奏するよう命令を出力する。ピッチ選択器(108)は、入力装置(12)からのピッチに関連した入力信号を受信し、ピッチに関連した入力信号、ユーザが選択した音楽伴奏トラック、および記憶された独奏情報に基づいて、適切なピッチを選択する。次に、ピッチ選択器(108)は、この適切なピッチを出力する。音声生成器(102)は、リズム生成器(100)からの命令、ピッチ選択器(108)からのピッチ、およびユーザが選択した音楽伴奏トラックを受け取り、ユーザが作成した独奏および伴奏トラックを示す音声信号を生成する。

Description

【発明の詳細な説明】 リアルタイム音楽作成システム 発明の分野 本発明は、電子音楽に関し、より具体的には、音楽理論の知識、または楽器を 演奏する能力あるいは拍子をとる能力のない音楽家ではない人でも、旋律的、創 造的な音楽を生成することができる電子音楽システムに関する。 発明の背景 電子キーボードおよび他の電子楽器は公知である。多くの電子キーボード楽器 は、MIDI(Musical Instrument Digital Interface)規格に適合するデジタル データを生成する。多くの電子楽器は、演奏者の要求に応じて、その楽器によっ て演奏される自動伴奏またはバックグラウンドをも提供する。多くの公知の電子 楽器を用いて「音楽」とみなされるであろうまとまりのある(organized)旋律的 な音を作るためには、実際には、演奏者が、その楽器を演奏する、あるいは、少 なくともその楽器の「作動器(actuators)」(即ち、音楽用キーボードの鍵盤、 ギター等の弦楽器の弦)を、「拍子をとって」、即ち、その楽器で演奏者が演奏 している音楽、歌またはメロディの拍子記号およびテンポに合った順番(order) で弾くことができなければならない。他の公知の楽器の場合、演奏者は、予め録 音されたメロディを打鍵によって適宜オンオフすることによって音楽を作る。 Hotzの米国特許第5,099,738号は、音楽家が間違った音を弾くことができない ようになっているMIDI適合電子キーボード楽器を開示する。特定のコード(c hord)が演奏されている時間間隔の間、その楽器は、音楽家による鍵盤の押下(de pression)に応じて、そのコード内において「正しい」音(即ち、ピッチ)、ま たはそのコードに適合する音階における「正しい」音を生成する。他の公知の電 子楽器と同様に、音が演奏される時間は、完全に、音楽家がキーボード上の鍵盤 を押す時間によって決まる。その音楽家が、適切 な時間で鍵盤を押さなかった、または押せなかった場合には、「正しい」音が、 まとまりのない(unorganized)不規則な順序(シーケンス)で演奏される結果と なる。従って、音楽家には、音が演奏される時間に関しては「創造的な入力」が 与えられるが、正しくないコードまたは音を演奏する自由はない。 Johnsonの米国特許第5,393,926号は、仮想MIDIギターシステムを開示する 。このシステムは、ユーザが選択する格納済みオーディオおよびビデオ伴奏を再 生するためのCD−ROMプレイヤーを利用したパーソナルコンピュータを有す る。伴奏は、ギタートラックを省いてある歌を録音したものである。パーソナル コンピュータは、その歌のギタートラックを格納する。ギターは弦とトレモロバ ーとを有し、ユーザによる弦およびトレモロバーの操作によって、パーソナルコ ンピュータにデジタルデータが送信される。パーソナルコンピュータは、そのデ ータを用いて、下記のように、ギターのみのトラックの関連部分にアクセスし、 これを再生する。さらに、パーソナルコンピュータは、このギタートラックと、 上記CD−ROMプレイヤーからのオーディオトラックとを混ぜ合わせ(mixes) 、パーソナルコンピュータに接続されたモニタ上にビデオ画像を表示しながら、 これを同時にスピーカから流す。このギターのみのトラックは、演奏されるシー ケンス内の全てのギター音符を含み、一連のフレームに分割されている。ギター 演奏者は、現フレーム内にある音符のみを、現フレーム内において現れる順番で のみ生成することができる。「現(時点)」は、歌が始まってからの経過時間を 知らせる可変クロックによって決まる。現フレーム内において音符が演奏される ペース(pace)はユーザが弦を弾く時点によって決まり、これにより、ユーザは、 どのフレームにおいても伴奏から幾分ずれることができ、あるフレーム内におけ るギタートラックの音符のタイミングを改変または実験する余裕を持つことがで きる。所与のフレームに関連する期間の間に演奏者がギターを演奏しなかった場 合、そのフレーム内の音楽は全く生成されない。つまり、ギターの弦を弾くこと によって、さもなくば無音で流れる予め録音されたギターのみのトラックが聞こ えるようになる。従って、このギターは、本質的に は、予め録音されたギタートラックのオン/オフまたは演奏/無音ボタンとして 動作する。 Cappsらの米国特許第5,074,182号は、符号化された音楽材料(musical materia l)を有するギターのような楽器を開示する。この音楽材料は、複数のマルチパー トバックグラウンドソング、およびこのバックグラウンドソングと調和(harmoni ze)する複数の独奏部または「リフ(riff)」を含む。この楽器内の読み出し専 用メモリ(ROM)は、プログラムおよび符号化された音楽材料を格納する。ユ ーザは、あるバックグラウンドソングを選択し、これを開始した後、その楽器上 の何らかのスイッチを操作することによって、あるギターリフを誘発(trigger) することができる。従って、スイッチを操作することによって、複数の予め格納 されたリフの中の1つが、上記選択されたバックグラウンドソング上で演奏され る。 発明の要旨 本発明の目的の1つは、音楽理論の知識、または楽器を演奏する能力あるいは 拍子をとる能力のない音楽家ではない人でもそれを用いて旋律的、創造的な音楽 をリアルタイムで生成することができる電子音楽システムを提供することである 。 このシステムのユーザが、予め録音されていない独奏を、予め録音されたバッ クグラウンドまたは伴奏トラック上で、簡単に作成および演奏できるようにする ことも目的の1つである。 このシステムのユーザが、拍子をとって作動器を弾く、あるいは、その独奏の 音符のタイミングを物理的に確立および維持することを必要とせずに独奏を作成 できるようにすることも別の目的の1つである。システムは、例えば安定した拍 子を維持することをユーザに要求しない。 システムを操作し、独奏をリアルタイムで生成するための1つ以上の単純なコ ントローラ(例えば、1つ以上のボタンを有し得るジョイスティック)を、この システムのユーザに提供することもまた別の目的の1つである。 音楽の作成に関連する複雑性は、全て、本発明のシステムの中にある。こ のシステムのユーザは、音楽または楽器について何も知らなくても、本システム を用いて音楽を作成することができる。バックグラウンドトラックを除いて、ユ ーザの制御下においてシステムによって生成される音楽は、リアルタイムに生成 され、これは、単なる予め録音された独奏トラックの再生ではない。 一般に、1つの局面において、本発明は、入力機構、コンピュータ記憶媒体、 リズム生成器、ピッチ選択器および音声生成器を有する電子音楽システムを提供 する。入力機構は、例えば、ユーザによるその操作に応じて、リズム関連入力信 号およびピッチ関連入力信号を供給する。一実施形態においては、ユーザが、入 力機構を操作し、これにより、ユーザが選択できる複数のバックグラウンドまた は伴奏トラックの1つの上に、音楽(例えば、独奏ライン(solo line))を作成 および演奏する。一般に、独奏とは、1人の演奏者のための作曲またはセクショ ンを意味する。独奏は、順番に鳴らされる複数の単一ピッチからなる音楽的ライ ン(musical line)(即ち、メロディ)でもあり得るし、あるいは、単一ピッチに 加えて、またはその代わりに、音程(intervals)を有するライン(即ち、同時に 鳴らされる2つの異なるピッチ)および/またはコード(即ち、同時に鳴らされ る3つ以上の異なるピッチ)でもあり得る。(一般に、以下で「メロディ」が使 われる場合、上記のように定義されるメロディまたは独奏を意味すると解釈され るべきである。また、「独奏」は、定義上「メロディ」を含む。) コンピュータ記憶媒体(例えば、RAM、コンピュータハードディスクドライ ブ、および/またはCD−ROMが入ったCD−ROMドライブのようなコンピ ュータメモリ)は、ユーザが選択できる伴奏トラックおよび複数のリズムブロッ クを有する。各リズムブロックは、少なくとも1つの音符について、その音符が 演奏されるべき時間を少なくとも決める。また、1つのリズムブロックは、その 音符の長さおよび大きさを指定し得るものであり、そのリズムブロックによって これらが指定されていない場合にはデフォルトまたは所定の値が用いられる。コ ンピュータ記憶装置(例えば、RAM)は、直前に何らかの時間間隔にわたって 作成された独奏の1部分を少なくとも 格納し、好ましくは、ユーザの独奏ラインの全てを、ユーザが作成したままの状 態で自動的にリアルタイムに格納する。この「過去の独奏(past solo)」情報は 、出力すべき次のピッチを選択する際に、ピッチ選択器によって使用される。 リズム発生器は、入力装置からのリズム関連入力信号を受け取り、このリズム 関連入力信号に基づいて記憶装置からリズムブロックの1つを選択し、そして、 選択されたリズムブロックによって決められるその音符を演奏すべき時間を示す 「音符演奏(play note)」命令を出力する。ピッチ選択器は、入力装置からのピ ッチ関連入力信号を受け取り、このピッチ関連入力信号と、ユーザによって選択 された伴奏トラック内のハーモニーおよびメトリックデータ(metric data)と、 「過去の独奏」情報とに基づいて適切なピッチを選択する。その後、ピッチ選択 器は、その適切なピッチを出力する。音声生成器は、(i)ユーザによって選択 された伴奏トラックと、(ii)リズム生成器からのタイミング情報およびピッ チ選択器からのピッチ情報を含むユーザによって作成された独奏トラックとを両 方受け取る。その後、音声生成器は、表現としての音声信号(representative au dio signal)を生成する。 好ましい実施態様において、入力装置は、基部と、移動可能なハンドルと、少 なくとも1つのボタンとを有するジョイスティックである。ボタンは、ユーザが 電子音楽システムに「演奏」を命令し、現在の音符をサステインする(sustain )、特定のリフを演奏する、演奏されたばかりのリック(lick)を繰り返す、音 色を変更する、ピッチベンドを行う、単一の音符の代わりにコードを演奏する、 動的アクセントを加える、および/またはアーチキュレーション(articulation )を加えるなどの特定の音楽効果を成し遂げるために用いられ得る。ジョイステ ィックのハンドルを前方/後方軸に沿って移動させると、リズムに関連した入力 信号が提供され得、右/左軸は、ピッチに関連した入力信号に関係し得る。例え ば、ハンドルを完全に後方に引っ張ると、電子音楽システムに、最も低いリズム の活動性を有する音符(例えば、全音符)を生成するように指示することができ 、ハンドルを完全に前方に押すと、最も高い活動性を有する音符(例えば、六十 四分音符)を生成させる ことができる。ハンドルがこれらの2つの限界の間のある場合には、これらの2 つの限界の間にあるリズムの活動性が生成される。さらに、ハンドルを完全に右 側に引っ張ると、最も高い可能なピッチに対応させることができ、最も左側の位 置は、最も低い可能なピッチを意味し得、これらの間の位置は、最も高いピッチ と最も低いピッチとの間のピッチを意味する。ユーザは、ジョイスティックハン ドルを操作して、リズムとピッチとを迅速かつ容易に切り替えることが可能であ る。これらの2つの単純な移動(後方および前方、ならびに左側および右側)だ けで、ユーザは、豊かで変化に富んだリズムおよびトーン質を有する独奏を作成 することができる。 いくつかの実施態様において、電子音楽システムは、音声生成器からの音声信 号を伝えるための少なくとも1つのスピーカを有する。音声信号がスピーカを通 じて伝えられる前に音声信号を増幅するために、一般に、増幅器が用いられなけ ればならない。 さらに、本発明による電子音楽システムの好ましい実施態様において、プログ ラムされたコンピュータは、リズム生成器およびピッチ選択器の機能を果たす。 プログラムされたコンピュータはさらに、音声生成器の機能も果たし得る。ある いは、音声生成器は、コンピュータとは分離したMIDIトーン生成器であり得る。 スピーカーおよび/または増幅器は、コンピュータの内部にあってもよい。 一般に、他の局面において、本発明は、入力装置と、コンピュータ記憶媒体と 、リズム生成器とを有する電子リズム生成システムを特徴とする。入力装置は、 ユーザによる入力装置の操作に応答して、リズムに関連した入力信号を生成する 。コンピュータ記憶媒体は、複数のリズムブロックを有し、各リズムブロックは 、少なくとも1つの音符に対して、少なくともその音符が演奏されるべき時間を 規定する。リズム生成器は、入力装置からのリズムに関連した入力信号を受信し 、このリズムに関連した入力信号に基づいて、コンピュータ記憶媒体からリズム ブロックの1つを選択し、選択されたリズムブロックによって規定される時間に 音符を演奏するよう命令を出力する。 さらに他の局面において、本発明は、入力装置と、コンピュータ記憶媒体 と、ピッチ選択器とを有する電子ピッチ選択システムに関する。入力装置は、ユ ーザによる入力装置の操作に応答して、ピッチに関連した入力信号を生成する。 コンピュータ記憶媒体は、ユーザが選択できる複数の音楽伴奏トラックを有し、 直前の所定時間間隔にわたって少なくともシステムによって選択されたピッチを 記憶する。ピッチ選択器は、入力装置からピッチに関連した入力信号を受信し、 次に、ピッチに関連した入力信号、ユーザが選択した音楽伴奏トラック、および 記憶されたピッチに基づいて適切なピッチを選択する。ピッチ選択器は、この適 切なピッチを出力する。 一般に、さらに他の局面において、本発明は、楽器に特異的な演奏パラメータ または音楽的装飾を加えることによって楽譜を自動的に変更するように楽譜を示 すデータを処理するための電子システムに関する。 本発明の上記ならびに他の目的、局面、特徴、および利点は、以下の説明およ び請求の範囲からより明白となる。 図面の簡単な説明 図面において、全体を通じて類似の参照番号は一般に同じ構成要素を示す。ま た、図面は必ずしも一定の比例で縮小されたものではなく、本発明の原理を示す 場合は一般に強調がなされている。 図1は、本発明の簡単なコントローラを用いるコンピュータ支援リアルタイム 音楽作曲システムのブロック図である。 図2は、本発明が具現化され得るコンピュータの簡略ブロック図である。 図3Aは、本発明のシステムの入力装置/コントローラとして使用されるコンピ ュータジョイスティックの斜視図である。 図3Bもまた、本発明の1つの実施形態における様々な動きの意味を示す、ジョ イスティックの斜視図である。 図4Aは、本発明のシステムにより音楽を生成する前にユーザが行うセットアッ プ手順の簡略フローチャートである。 図4Bは、セットアップ手順をより完全に示したものである。 図4Cは、本発明のシステムのどの機能ブロックがどのデータ/変数を用い るかを示すデータ経路図である。 図5は、セットアップが完了した後本発明のシステムによって行われる動作の 高レベルフローチャートである。 図6A、図6B、図6C、および図6Dはそれぞれ、リズムブロックデータ構造の一例 を示す。 図7Aおよび図7Bはそれぞれ、リズムスタイルデータ構造の一例を示す。 図8は、本発明のシステムのリズム生成器機能ブロックによって行われるステ ップの高レベルフローチャートである。 図9は、本発明のシステムのピッチセレクタ機能ブロックによって行われるス テップの高レベルフローチャートである。 図10は、本発明のコンピュータ実装システムの詳細機能ブロック図である。 説明 図1を参照して、本発明のシステム10は、ジョイスティックなどの1つ以上の 簡単なコントローラ/入力装置12のユーザによる操作に応答してリアルタイムに 音楽を生成する。システム10は、コンピュータ装置14と音声生成器16と1つ以上 のスピーカ18とを含む。コンピュータ装置14は、典型的には、ジョイスティック 12の操作に応答して音楽を表すデジタルデータをリアルタイムに生成するプログ ラムを走らすパーソナルタイプのコンピュータである。データは次に、音声生成 器16とスピーカ18(単数または複数)との組み合わせによって可聴音楽に変えら れる。 システム10は、音楽家ではない人のために設計され、旋律的、創造的な音楽を リアルタイムに迅速かつ容易に生成することを望む人によって使用され得る電子 音楽システムである。ユーザは、音楽理論の知識、または楽器を演奏したり拍子 を合わせる能力を持つ必要はない。ユーザがやり方を知るために必要なことのす べては、ジョイスティック12を操作することである。音楽を作成するために他の 同じく簡単な入力装置をジョイスティック12の代わりに用いることができる。こ のような入力装置としては、マウス、ゲームパッド、トラックボール、MIDIキー ボード、MIDIギター、他のMIDI楽器、空 気をよぎる手/身体の動きを追跡し得る様々な空間センサ、電子カーラジオのア ップ/ダウン音量タッチボタンなどの1つ以上のスイッチ、またはこのような入 力装置の組み合わせが含まれる。入力装置(例えばジョイスティック12)をユー ザが操作することにより、作動器信号(例えば、ボタンの位置またはジョイステ ィックのハンドルの軸などの連続コントローラの位置の変化)が送られる。これ らの信号により、システム10は、ユーザ選択の予め記録された伴奏/バックグラ ウンドトラックに重ねて、記録されていないメロディーを生成し演奏する。 従来のまたは既知の楽器により音楽を作成することに関連する複雑なことすべ てが、本発明のシステム10に組み込まれている。システム10は、従来のまたは既 知の楽器を演奏するために学ばなければならないという重荷をユーザから取り除 く。システム10はユーザに簡単なコントローラ/入力装置(例えばジョイスティ ック)を提供し、従って、ユーザは音楽自体のみに集中することができる。ユー ザは楽器演奏技術、旋律が正しいかどうか、調子を合わせて演奏しているかどう かなどについて心配する必要はない。本発明のシステム10はこれらの懸念すべて を扱うように設計されている。システム10は操作が極めて簡単なインタフェース (例えばジョイスティック12)を用いており、ユーザは特別な音楽能力または知 識を持つ必要はないにも係わらず、ユーザは、本発明のシステム10によりユーザ が生成し得る音楽のタイプ、スタイル、または多様性において一般に制約されな い。システム10により、ユーザは、本質的に、従来のまたは既知の楽器により行 うことができるいかなることでも行うことができる。 図1をさらに参照して、音声生成器16の機能は可聴音楽を表す信号を生成する ことであり、これは、例えば、合成またはサンプルプレイバックによって実現さ れ得る。これらの信号を生成するために必要とされる電子ハードウェアは、コン ピュータ14に挿入されるカードに、またはコンピュータ14の外付けの個別のボッ クス内に組み込まれ得る。また、合成の場合には、信号生成はハードウェアで、 または全面的にコンピュータ14を走るソフトウェアによって行われ得る。音声生 成器16は、例えば、MIDIトーン生成器または他の 合成装置であり得る。音声生成器16によって生成される信号は一般にスピーカ18 によって増幅および発声されなければならない。増幅および発声は、例えば、コ ンピュータ14の内部ハードウェアまたはコンピュータ14の外付けハードウェアに よって実現され得る。 コンピュータ14は、PCまたはPC互換機、Apple Macintosh、Sun Workstationな どの、パーソナルコンピュータまたはワークステーションであり得る。システム 10は、12メガバイトのRAMおよびMAC/OS 7.5.1オペレーティングシステムを備え たMacintosh Powerbook 540cコンピュータを用いて開発され、本明細書で述べる 機能を実現するためのコンピュータプログラムはC++プログラミング言語で書か れた。一般に、生成された音楽の質に悪影響を与えずに本明細書で述べる機能お よび能力のすべてを実行し得るほどに十分に高速である限り、いかなるコンピュ ータでも用いることができる。コンピュータまたはワークステーションのタイプ の特定は本発明の中心ではない。実際において、本発明の音楽作曲システムは多 様な方法で実現され得る。これらの方法としては、プログラミングされたコンピ ュータ14が実行し得る機能のすべてを専用の電子回路が実行するように設計され ている、全面的にハードウェアによる実施形態が含まれる。 図2を参照して、コンピュータ14は、典型的には、中央処理装置20と、プログ ラムおよび/またはデータを記憶するメインメモリユニット22と、入出力(I/O) コントローラ24と、表示装置26と、これらの構成要素を接続してこれらの間の通 信を可能にするデータバス28とを含み得る。メモリ22は、ランダムアクセスメモ リ(RAM)チップと読み出し専用メモリ(R0M)チップとを含む。コンピュータ14はま た、典型的には、キーボード32(例えば、英数字キーボードおよび/または音楽 キーボード)、マウス34、およびジョイスティック12などの1つ以上の入力装置 30を有する。1つの好適な実施態様では、システム10は、単一のジョイスティッ ク12と英数字キーボード32とマウス34とを含む。一般に、ジョイスティック12は 、システム10により音楽を創作するためにユーザによって用いられ、英数字キー ボード32およびマウス34は、システム10により実際に音楽を創作する前に、シス テム10をセットアップお よび構成するためにユーザによって用いられる。 コンピュータ14はまた、典型的には、内部にハードディスクを有するハードド ライブ36と、3.5インチディスクなどのフロッピーディスクを受容するフロッピ ードライブ38とを有する。出力装置(例えばプリンタまたはプロッタ)および/ またはCD-ROMのデジタルデータの受容および読み出しを行う光ディスクドライブ を含む他の装置40もまたコンピュータ14の一部であり得る。本実施態様では、上 述のように、システム10の動作能力はC++で書かれた1つ以上のコンピュータプ ログラムにより規定される。これらのプログラムは、ハードドライブ36に、およ び/またはフロッピードライブ38を介してコンピュータ14のメモリ22にロードさ れ得る。本実施形態では、C++プログラムの実行可能バージョンはハードドライ ブ36に存在し、本発明の音楽作曲システム10は、適切なアイコンをダブルクリッ クすることにより動かされる。一般に、制御を行うソフトウェアプログラム(単 数または複数)およびこのプログラムによって利用されるデータのすべては、ハ ードドライブ36、CD-ROM40などのコンピュータの1つ以上の記憶媒体に記憶され る。一般に、プログラムは本発明をコンピュータ14上で実現し、プログラムは、 本発明の機能すべてをコンピュータ14上で実現するために必要とされるデータを 含むかまたはこれにアクセスする。 本発明のより中心的な局面のいくつかに焦点を合わせると、システム10のユ ーザが音楽を作成するために操作する入力装置/コントローラ(例えば、ジョイ スティック12)は好適には、ユーザがコンピュータ14に様々な情報を指示す ることを可能にする。図3Aおよび図3Bを参照すると、好適な実施形態におい て、このことは、ジョイスティック12が少なくとも42、44、46および4 8の4つの方向に移動可能であり少なくとも3つのボタン50、52および54 を有することにより達成される。 開示されている実施形態において、図3Bのジョイスティックのハンドルを後 方42に引くことにより、ユーザが与えられた拍子記号内で時間に対してより少 ない音(例えば、8分音符に対して2分音符)を演奏したいということがコンピ ュータ14に示される。前方44に押すことにより、時間に対 してより多くの音(例えば、4分音符に対して32分音符)を演奏することが示 される。ジョイスティック12のハンドルは、最も後方の位置から最も前方の位 置まで、一連(シリーズ)のリズム値を介して移動する。一連のリズム値は、最 も後方の位置における最も低いリズムの活動性を有する音符(例えば、全音符) から始まり、最も前方の位置における最も高いリズムの活動性を有する音符(例 えば、64分音符)にまで亘る。ユーザは、概して、ジョイスティックのハンド ルを前後に移動させることにより任意のリズム出力を作成し得る。このシリーズ の終点並びに2つの終点の間の音符の数および種類の選択は、概して、システム デザイナ/プログラマによりなされる。可能性のあるシリーズまたは連続体が数 多くあり、システムは通常、ユーザの介入なく自動的に1以上の特定のシリーズ を選択する。システムは、典型的には、ユーザが選択した(またはデフォルトの )伴奏および/または音楽スタイルに基づいて1以上のリズム値シリーズを選択 する。これらのリズム連続体およびそれらの選択は、本発明によるシステム10 の「リズム生成器」に関する記載により以下で明らかになる。 現在の実施例を続けて説明すると、ジョイスティックのハンドルを左46に押 すことにより、ユーザがより低いピッチ(すなわち、周波数またはトーン)の音 を演奏したいということがコンピュータ14に示される。右方向48に押すこと により、より高いピッチの音を演奏することが示される。リズム値の場合と同様 、ジョイスティック12は最も左の位置から最も右の位置まで、一連のピッチを 介して移動する。一連のピッチは、最も左の位置における最も低いピッチの音か ら始まり、最も右の位置における最も高いピッチの音にまで亘る。ユーザは、ハ ンドルを横方向に操作することにより、事実上ピッチの任意の組み合わせを生成 し得る。コンピュータ14上で走っているプログラムは、概して、シリーズ内の 音符を決定し、決定は典型的には、選択された伴奏および/または音楽スタイル に基づく。 図3Aを参照すると、開示されている実施形態において、ジョイスティック1 2は、少なくとも演奏ボタン50、サステインボタン52、およびリック繰り返 しボタン54を有する。 演奏ボタン50は、ユーザのジョイスティックの制御下において、メロディを 作成し演奏し始めるときをコンピュータ14に示すためにユーザによって用いら れる。ユーザは、演奏ボタン50を押して保持しなければならない。演奏ボタン 50を押すことにより、「リズム生成器」(以下に述べる)が有効(enable)にな る。上記において示唆したように、開示されている実施形態において、リズム生 成器の出力は、ジョイスティック12の前方/後方位置(図3B)により決定さ れる。ユーザは、伴奏が開始して初めてメロディを作成および演奏することがで きる。ユーザは好適には、コンピュータ14のモニタ26上のグラフィックのス タートボタンをクリックするマウス34および/または英数字キーボード32を 用いることにより、伴奏を開始する。 サステインボタン52は、現在演奏中の音(または次に演奏される音)が、鳴 り続けるようにサステインすべきであるということをコンピュータ14に示すた めにユーザによって用いられる。すなわち、現在の音が、延長された期間サステ インされる。このことは、ボーカリストが「音を保持する」ことに似ている。ユ ーザがサステインボタン52を離すと、音は終了する。 リック繰り返しボタン54は、押されると、以前に演奏された音の特定の収集 体をシステム10に反復させる。このボタン54は、ユーザが特に楽しい「リッ ク」または「リフ」(概していくつかの音の、馴染みやすい集合体である)を作 成したばかりであって、リックを作成するために最初にジョイスティック12を どうしたかを考えて全く同じことを再現することを必要としないで、自動的に反 復したい場合に有用である。ユーザがリック繰り返しボタン54を離すと、リッ クの反復は停止する。システム10がリックの開始をはっきりと記す履歴上の点 は、コンピュータプログラムによりランダムに又はアルゴリズム的に決定される 。反復されたセグメントの長さは、以下に「リッカー」部と記載されるように、 典型的には、2〜3以下のビートである。 このアルゴリズムに関する記載は、プログラムされたコンピュータ14は、そ れが生成しサウンド発生器16(図1)に出力するデータの一部または全 てをデジタルフォーマットで格納する能力を有するデジタル処理装置であるとい う、重要な点を提起する。すなわち、コンピュータ14は、ユーザが作成してい るメロディを表すデータをメロディの作成中に格納し得、実際に格納する(例え ば、ハードドライブ36、メモリ22等に)。この能力は、ユーザがリック繰り 返しボタン54でリックを反復することを可能にする能力である。コンピュータ 14は概して、メロディの最後の10個の音を格納するが、このパラメータは変 更可能であり、より多くの又はより少ない音を格納するように設定され得る。 本発明が動作する環境、並びに本発明の作曲システム10の全体的な目的およ び機能を概略述べたが、以下に本発明のより詳細な説明を行う。セットアップ : 図1、図2および図4Aを参照すると、システム10のプログラムされたコン ピュータ14は、ユーザがシステム10で音楽を作成することができるようにな る前に、ユーザに構成またはセットアップ手順を経験させる。好適な実施形態に おいて、システム10を構成またはセットアップするためにユーザによって用い られる入力装置30は、キーボード32および/またはマウス34である。セッ トアップが完了すると、ユーザは、概してジョイスティック12(または同様に 操作が簡便な入力装置)を用いてシステム10で音楽を作成する。セットアップ の段階の間、プログラムされたコンピュータ14は、ユーザが、複数の可能性の あるトラックのリストから特定のバックグラウンドまたは伴奏トラックを選択す ることを可能にする(ステップ68)。好適な実施形態において、バックグラウ ンドトラックは、MIDIファイルまたはオーディオファイルのいずれかとして 格納される。概して、MIDIファイルは小さく(すなわち、メモリ22,ハー ドドライブ36、またはCD−ROM40などの格納媒体の多くのスペースを取 らない)、オーディオファイルは比較的大きい。トラックがMIDIである場合 、選択されたトラックは、典型的には、例えばコンピュータ14のハードドライ ブ36またはCD−ROM40からメモリ22にロードされる。しかし、トラッ クがオーディオである場合、選択されたトラックは、典型的には、メモリ22 にはロードされず、代わりにユーザの演奏中に必要に応じて、例えばハードドラ イブ36またはCD−ROM40から流れ出る。 所望の伴奏の選択の後、ユーザは演奏したい特定の音楽スタイルを選択し得る が、デフォルトは、コンピュータ14が可能性のあるバックグラウンドトラック の各々と予め関連づけられているスタイルを選択するようになっている。デフォ ルトまたはユーザによる選択のいずれかによってスタイルが一旦決定されると、 コンピュータ14はそのスタイルに関連するデータをメモリ22にロードする。 その後ユーザは、コンピュータ14によって、複数の可能性のある楽器のリス トから楽器を選択することが可能になる(ステップ70)。好適な実施形態にお いて、楽器のリストは、コンピュータ14によって、例えばハードドライブ36 またはCD−ROM40に格納される。リスト内の各楽器毎に、その楽器に関連 するあらゆる種類のデータが格納されている。これらの、楽器に特有のデータは 、例えば、ジョイスティック12または他の入力装置30上の作動器」(例えば 、ボタン)の機能、楽器がコードを演奏し得るか否かおよびコードに対していか なる調律が行われ得るか、ピッチおよび強さとは別の楽器によって作り出される 特徴的な音質である楽器の音色、楽器が生成することができる1以上の音のため のピッチエンベロープ、並びに楽器のためのピッチ範囲を表す。 セットアップ段階のより完全な記載を図4Bを参照して以下に行う。図4Bに おいて、ユーザが選択可能な項目は、技能レベル72(初心者から専門家まで) 、インターフェース74の種類(例えば、ジョイスティック、ゲームパッド、M IDIキーボード、空間センサなど)、楽器76の種類(例えば、ギター、ピア ノ、サキソフォンなど)、バックグラウンドトラック78(すなわち、ユーザが それに被せて演奏する伴奏曲)、およびユーザが演奏したい音楽スタイル80を 含む。各バックグラウンドトラックは、それ自体を伴奏と最も適合するデフォル トの音楽スタイルと関連づけるが、ユーザは実験のために別のスタイルを選択し 得る。これらのユーザが選択可能な項目の各々に対して使用可能な複数の選択肢 (例えば、技能レベル72の項目に ついては、初心者、専門家、またはその中間)からユーザが一旦選択を行うと、 その項目に対する選択に関連するデータ/変数のセット全体がハードドライブ3 6からメモリ22にロードされ、これらのデータ/変数は、図4Cを参照して以 下に述べるように、システム10を構成するために特定の様式で用いられる。 図1、図2、図3A、図3Bおよび図5を参照して、セットアップ段階が完了 すると、プログラムされたコンピュータ14は、ユーザが「スタート」ボタン( 例えば、ユーザがマウス34でポイントしてクリックする、モニタ26上のグラ フィックのボタン)を押すまで待機する。図5のステップ82を参照のこと。一 旦、「スタート」が指示されると、バックグラウンドトラックのプレイバックが 開始される(ステップ84)。好適な実施形態において、その後ユーザは、ジョ イスティック12(又は他の同様に動作が簡便な入力装置)を用いてシステム1 0で音楽を作成する。図3Aを参照して上記したように、ユーザは、ことにより 、「リズム生成器」(以下に述べる)を有効にし、それによりシステム10を有 効にする(ステップ88)ために、ジョイスティック12上の演奏ボタン50を 押して保持しなければならない(ステップ86)。 以下、ユーザが選択した(またはデフォルト)構成データ/変数(図4B)と 、これが本発明によるシステム10の動作にどのように影響を与えるかについて さらに説明する。図4Cを参照して、選択された技能レベル72、インタフェー スタイプ74、楽器タイプ76、および音楽スタイル80が、ここに示した本発 明のシステム10の機能ブロックのうちの1つ以上に与えられる。以下、これら の機能ブロックのすべてについて図10を参照して説明する。これらの機能ブロ ックのうちの幾つかには、選択されたバックグラウンドトラック78も与えられ る。 さらに図4Cを参照して、選択された技能レベル72の構成データのうちの幾 らかがオートメータ機能ブロックに与えられ、幾らかがインタフェースプロセッ サ機能ブロックに与えられる。これらの2つのブロックについて以下に図10を 参照して説明する。オートメータは、どれくらいのシステム自 動化(automation)をオンにするべきであるかについてのデータを受け取る。初 心者の場合、未熟なユーザが例えば演奏ボタンを押すだけで音楽を作成すること ができるように、完全な自動化がオンにされる。初心者よりも高い各レベルの場 合、可能な最大量の制御を熟練者に与えるポイントまで、システム自動化のレベ ルが下げられる。熟練者の場合、システムは、ジョイスティック上のすべてのボ タンおよび軸および複数の追加のボタンを有効にし得る。これらの付加的なボタ ンは、典型的には、英数字のコンピュータキーボード(または、MIDIキーボ ードもしくは同様の装置)のキーである。インタフェースプロセッサには、イン タフェース(例えば、ジョイスティックおよび/またはキーボード)上のどのボ タン、スライダなどが有効に/無効(disable)にされるかが知らされる。 選択されたインタフェースタイプ74の構成データのうちの幾らかは、ジェス チャー分析器機能ブロックに与えられ、幾らかはインタフェースプロセッサに与 えられる。これらの2つのブロックについて以下に図10を参照して説明する。 ジェスチャー分析器は、ジョイスティック検知システムであることが可能であり 、あるいは、電子的視覚システムであってもよい。ジェスチャー分析器が受け取 るデータは、ジェスチャー分析器が待ち受けているはずの、ユーザの(ジョイス ティックを用いた)ジェスチャーまたは動きを示し、さらに、これらのジェスチ ャーの結果誘発しなければならない対応するシステム機能も示す。インタフェー スプロセッサには、インタフェース(例えば、ジョイスティック)上の有効にさ れた様々な作動器(例えば、ボタン)の各々によってどの非特定楽器用システム 機能を誘発しなければならないかが知らされる。 選択された楽器タイプ76の構成データの幾らかはインタフェースプロセッサ に与えられ、他のデータはコード形成器、音色マネージャー、エンベロープマネ ージャー、アーチキュレーション器、およびピッチセレクタに与えられる。これ らの機能ブロックのすべてについて、以下に図10を参照して説明する。インタ フェースプロセッサには、ジョイスティック上の有効にされた様々な作動器(例 えば、ボタン)の各々によってどの特定楽器用シス テム機能を誘発しなければならないかが知らされる。コード形成器には、選択さ れた楽器がコードを演奏できるかどうかが知らされ、コードを演奏できるのであ れば、選択された楽器の特徴コード構造またはボイシングが何であるかが知らさ れる。音色マネージャーには、選択された楽器の音色情報が与えられる。エンベ ロープマネージャには、選択された楽器に用いられるピッチエンベロープが知ら される。これは、ノートのピッチを整形して(例えばベンドアップまたはベンド ダウンする)、訓練を受けた音楽家が演奏するとその楽器がどのような音になる かをシミュレートするためである。アーチキュレーション器には、選択された楽 器をスラーすると、その楽器の音色のアタック部に影響を及ぼすかどうかが知ら される。ピッチセレクタには、訓練を受けた音楽家が演奏した場合に選択された 楽器が作り出し得るピッチの範囲(下限から上限まで)についての情報が与えら れる。 デフォルト(または選択された)音楽スタイル80の構成データの幾らかはピ ッチセレクタに与えられ、その他のデータは、サステイン器、リフ器、アクセン ト器、およびリズム生成器に与えられる。これらの機能ブロックについて以下に 図10を参照して説明する。ピッチセレクタには、所定のスタイルについての様 々なメロディー制約に関する情報が与えられる。この情報には、例えば、(メト リック的に)どの時間に協和音のノートが起こる可能性が高いか、などがある。 サステイン器には、所定のスタイルにおいて(メトリック的に)どの時間にノー トをサステインするのが適切であるかが知らされる。リフ器には、所定のスタイ ルに適切な「リフ」(一般に、メロディーの音調曲線に結びつけられるリズムブ ロックである)が与えられる。これらのリフは、装飾音、グリッサンド、トリル 、トレモロ、およびその他の旋律的装飾などの効果を与えるために用いられる。 アクセント器およびリズム生成器にはともに、所定のスタイルに関連するリズム ブロックが与えられる。 ところで、ユーザが選択できるバックグラウンドトラックは、(i)ハーモニ ートラック90、(ii)テンポトラック92、ならびに(iii)MIDIおよび /またはオーディオトラック94を含む。バックグラウンドトラックの第3の構 成要素は、典型的には、MIDIトラックまたはオーディオト ラックのいずれかである。いずれの場合でも、これは、ユーザがソロまたはメロ ディーを演奏したいと考える音楽のデータファイルである。これは、例えば、Ja mes Brown、Black Sabbath、またはBarry Manilowの歌であってもよい。その他 の2つのトラックであるハーモニートラックおよびテンポトラックは、システム プログラマー/デザイナーが歌(即ち、MIDI/オーディオトラック)に基づ いてスクラッチすることにより作成される。MIDI/オーディオトラックとは 異なり、ハーモニートラックおよびテンポトラックは、人が聴き認識し得る歌の 記録ではない。むしろ、これらの2つのトラックは、本発明のシステム10が( ユーザの制御下で)その歌に適切なノートを選択して演奏する際に用いるデータ を含む。ハーモニートラックは、歌に関するキーおよびコードの情報を含む。具 体的には、ハーモニートラックは、歌の中の任意の特定の点のキーおよびコード を表すデータを含む。テンポトラックは、歌のタイミングを表すデータを含む。 テンポトラックは、本質的に、時間格子の形態で、歌に関するタイミング情報を 与える。 ハーモニートラックは、ピッチセレクタに、現在の「キー」および現在の「コ ード」を与える。ピッチセレクタに与えられた「キー」データは、キーのルート 音およびキーの種類を含む。例えば、F音、G音、A音、Bフラット音、C音、 D音、およびE音によって規定される「Fメジャー」(ここで、「F」はルート 音であり、「メジャー」は種類である)、D音、E音、F音、G音、A音、Bフ ラット音およびC音によって規定される「Dマイナー」(ここで、「D」はルー ト音であり、「マイナー」は種類である)、ならびにC音、D音、E音、F音、 G音、A音およびB音を含む「Cメジャー」などがある。 テンポトラックは、ピッチセレクタに上述の時間格子を与える。ピッチセレク タはこの時間格子を用いて、2つ以上のピッチクラスのうちの1つからピッチを 選択する。ピッチセレクタは、現在のメトリック的位置に部分的に基づいて2つ あるいはそれ以上のクラスからこの選択を行う。例えば、2つのクラスは、コー ドトーン(即ち、現在のコードのノート)、および経過音(即ち、現在のキーま たは音階のノート)であり得る。例えば、コードトー ンは通常オンビート(例えば、表拍またはその他の強拍)で演奏しなければなら ず、経過音は通常オフビートあるいは弱拍で演奏しなければならない、というの が旋律の一般原則である。拍子または小節に関する現在のメトリック的位置が与 えられると、ピッチセレクタは、最も適切なピッチクラスを選択する。その後、 ピッチセレクタは、現在のハーモニーおよび現在のピッチに関連するジョイステ ィック位置に基づいて、そのクラスから特定のピッチを選択する。その一例は、 現在のコードがCコードであり、現在のキーが「Dマイナー」であるときであり 、この場合、G音は強拍で演奏され、Bフラット音はオフビートあるいは弱拍で 演奏され得る。尚、幾つかの音は、複数のクラス間で重なり得、そのようなこと はしばしば起こる。現在のコードがCであり(即ち、コードトーンがC、Eおよ びGである)、キーが「Dマイナー」である(即ち、経過音がD、E、F、G、 A、Bフラット、およびCである)ような以前に示した例などの場合がそうであ る。 テンポトラックはまた、リズム生成器にデータを与える。リズム生成器は上述 の時間格子を得る。リズム生成器は、この時間格子を用いて、ユーザが創作した メロディまたはソロラインをバックグラウンドトラックと同期する。リズムブロック: 上で言及した「リズムブロック」について以下に詳細に説明する。リズムブロ ックは、本発明の動作の基本である。リズムブロックは、「リズム生成器」(以 下に説明する)によって用いられ、例えばユーザがジョイスティックの演奏ボタ ン50を押したときにリズム信号を生成する(図3Aおよび図5)。図3Bを参 照して上で言及したように、リズムブロックは、システムデザイナー/プログラ マーによって、複数のグループに編成される。各グループは、そのグループの最 低のリズムの活動性を有するブロックから、そのグループの最高のリズムの活動 性を有するブロックまでの範囲にわたる。(ユーザまたはデフォルトによって) 音楽スタイルが選択されると、それに関連するリズムブロックグループまたはリ ストが、例えばハードドライブ36からコンピュータ14のメモリ22にコピー される。所定の音楽スタイル により、最低活動性レベルブロックの全音符から最高活動性レベルブロックの六 十四分音符までの範囲の一組のリズムブロックが、メモリにコピーされ得る。そ のような場合、図3Bのジョイスティックをインタフェースとして用いると、ジ ョイスティック12のハンドルをずっと後ろに引っ張ってそこに保持することに より、リズム生成器から一連の全音符が出力され、システムがそれを演奏する。 このハンドルをずっと前に動かしてそこで保持すると、一連の六十四分音符が出 力される。ハンドルを上記2つの位置の間のどこかの位置に動かすと、八分音符 などの、全音符と六十四分音符との間の何らかのリズム活動性レベルを有する一 連の音符が出力される。さらに、おそらくより重要なことに、ユーザがハンドル を前後に動かすと、リズム出力はそれに応じて変わる。従って、ユーザは、例え ば、二分音符の後に十六分音符を続けることができ、ユーザは一般に、任意の種 類または組合せのリズム出力を作成することができる。 リズムブロックは5つの領域、すなわち(i)識別子(名前および識別番号) 、(ii)長さ、(iii)イベントリスト、(iv)ダイナミクス(dynamics)リス ト、および(v)持続時間リストを有するデータ構造物と考えられ得る。リズム ブロックはこれら5つの領域のそれぞれにおいて値を有する必要はないが、どの リズムブロックも、典型的には少なくとも識別子、長さおよびイベントリストを 有する。本実施形態においては5つの領域すべてが使用される。識別予の名前の 成分は、リズムブロックにおける音符のタイプを表す。リズムブロックの長さは 、典型的には1拍であるが、概して長さは1拍を上回り得る(例えば、1.5拍 または2拍)。システムデザイナー/プログラマーは、1拍をスケジューラの均 等な480の「刻み(ticks)」に設定する。好適なスケジューラはPalo Alto, CAのOpcode Systemsから入手可能なOMS 2.0であるが、AppleのQuickTime商品な どの別のスケジューラが使用され得る。イベントリストは、リズムが演奏される 1拍内の正確な時間を(刻みの単位で)特定する。開示する実施形態においては 、ダイナミクス(すなわち、MIDI用語で「ベロシティ」と呼ばれる、音量(volu me)、強さ(loudness)、強勢(accent))は、0から127のスケールで測定 または特定 される。このとき、0は無音であり、127は最大ベロシティである。ダイナミ クスリストはリズムブロックにおける音符のそれぞれの強さを特定する。リズム ブロックの持続時間リストは、音符が持続すべき長さを刻みの単位で設定する。 図6Aに示すように、1つの可能なリズムブロックは2つの8分音符を規定す る。ブロックは1拍の長さならびに値0および240を有するイベントリストを 有する。これは、第1の8分音符が拍の最初で鳴り、第2の8分音符が拍の丁度 半分が経過したところで鳴る(240/480=1/2)ということを意味する 。ダイナミクスリストは84および84の値を有し、これは各音符がメゾフォル テの強さであることを意味する。持続時間リストは240および240の値を有 し、これは各8分音符がレガートのアーチキュレーションであることを意味する 。すなわち、第1の8分音符は、第2の8分音符が鳴るまで持続し(すなわち、 刻み0から239の間)、第2の8分音符は拍の終わりまで持続する(すなわち 、刻み240から479の間)。本例の「音楽的等価物(musical equivalent) 」のセクションにおけるリピートの表記は、ユーザがジョイスティック12のハ ンドルの位置を動かさない限り、リズム生成器がこの同じリズムブロックを出力 し続けるということを示す。同じことがすべてのリズムブロックに当てはまる。 一旦ユーザがジョイスティックのプレイボタン50を押すと、リズム生成器が適 切なリズムブロックの出力を停止するのは、プレイボタン50が解除された場合 のみである。 図6Bに示すように、リズムブロックの別の例は2つのシンコペートされた1 6分音符である。このブロックは1拍の長さならびに値120および360を有 するイベントリストを有する。これは、第1の16分音符が拍の4分の1が経過 したところで鳴り(120/480=1/4)、第2の16分音符が拍の4分の 3が経過したところで鳴る(360/480=3/4)ということを意味する。 ダイナミクスは前例と同じである。持続時間リストは120および120の値を 有し、これは途切れたアーチキュレーションを意味する。 図6Cに示すように、リズムブロックの第3の例は付点8分音符クロスリズム である。本例において、長さは1拍ではなく、1.5拍である(すなわち、72 0刻み)。イベントリストは値ゼロを有し、これは付点8分音符がブロックの最 初で鳴るということを意味する。ダイナミクスおよび持続時間は図に示す通りで ある。 図6Dに示すように、最後の例はオフビートアクセントを有する2つの8分音 符を示す。長さは1拍あるいは480刻みであり、0および240のイベントリ スト値により、図6Aの場合と同様、第1の8分音符は拍の最初で鳴り、第2の 8分音符は拍の中間で鳴る。72および96のダイナミクス値により、第2の音 符は強勢されて鳴る。120および240の持続時間値はさらに2つの音符を区 別する。 一旦システムデザイナー/プログラマーがすべての所望のリズムブロックを規 定すると、システムデザイナー/プログラマーは複数のグループまたはリストを アセンブルし、この際リズムブロックをリストにおける項目として使用する。前 述のように、各グループは2つ以上のリズムブロックを含み、リズムブロックは リズムの活動性が激しくなる順序で編成される。リズムブロックおよびリズムブ ロックのグループ化は、ユーザに対して本質的には透明(transparent)である 。ユーザによってあるいはデフォルトによって選択される音楽スタイルは(図4 A−4C)、ユーザが利用できるリズムブロックのグループを決定する。 図7Aに示される、スタイルおよびそれに関連するリズムブロックデータの一 例は、スローロックの音楽スタイルである。このスタイルには、リズムブロック の4つの別個のグループが関連し、各グループにおいてリズムブロックはリズム の活動性が激しくなる順序で順序付けられる。リズムブロックの4つのグループ には、「ノーマル」、「シンコペーション」、「代替1」および「代替2」とい うタイトルが付けられる。ユーザはこれらの4つのグループの間を、例えばジョ イスティックのボタンを操作することによって切り換え得るようにし得る。図3 Bに示す例と同様、本例においては、ジョイスティックのハンドルが最も左寄り の位置にある場合、適切なリストの一番 上にあるリズムブロックが選択され、ハンドルが最も右寄りの位置にある場合、 適切なリストの一番下にあるリズムブロックが選択される。音楽スタイルの本例 は、スタイル構成80(図4Bおよび4C)によって決定され得るその他のデー タまたは変数を示し、これらは「スウィング」および「ハーフシャッフル」パラ メータである。スローロックスタイルの例においては、スイングは0%に設定さ れ、ハーフシャッフルもまた0%に設定される。スウィングおよびハーフシャッ フルを以下に定義する。 「スウィング」パラメータは、オフビート(または裏拍)の8分音符をどれだ け遅らせるべきかの基準である。遅延範囲は0〜80刻みであり、0%は0刻み に対応し、100%は80刻みに対応する。従って、50%のスウィングはオフ ビートの8分音符を40刻みだけ遅らせることを意味する。スウィングは、上述 したオフビートの8分音符の遅延を表すために音楽家および作曲家が使用する周 知の用語である。 「ハーフシャッフル」パラメータは、(拍内の刻み120および360で起こ る)裏拍の16分音符をどれだけ遅らせるべきかの基準である。遅延範囲は0〜 40刻みであり、0%は0刻みに対応し、100%は40刻みに対応する。従っ て、50%のハーフシャッフルはオフビートの16分音符を20刻みだけ遅らせ ることを意味する。ハーフシャッフルは、上述したオフビートの16分音符の遅 延を表すために音楽家および作曲家が使用する周知の用語である。 図7Bに示される、スタイルおよびそれに関連するリズムブロックデータの別 の例は、ファストブルースの音楽スタイルである。このスタイルには、リズムブ ロックの3つの別個のグループが関連し、各グループにおいてリズムブロックは リズムの活動性が激しくなる順序で順序付けられる。リズムブロックの3つのグ ループには、「ノーマル+シンコペーション」、「代替1」および「代替2」と いうタイトルが付けられる。ユーザはこれらの3つのグループの間を、例えばジ ョイスティックのボタンを操作することによって切り換え得るようにし得る。図 7Aに示すスタイルの例と同様、本例においては、ジョイスティックのハンドル が最も左寄りの位置にある場合、3つのリ ストのうちの1つの一番上にあるリズムブロックが選択され、ハンドルが最も右 寄りの位置にある場合、一番下にあるリズムブロックが選択される。本例のスタ イルのスウィングパラメータは50%に設定され、これはすべてのオフビートの 8分音符を40刻みだけ遅らせることを意味する。前のスタイルの例と同様、ハ ーフシャッフルパラメータは0%に設定され、これはオフビートの16分音符の 遅延がないことを意味する。リズム生成器 : ここで前述のリズムブロックを出力する「リズム生成器」を詳しく説明する。 リズム生成器によると、ユーザは「音楽的に正しい」リズムを伝統的なあるいは 公知の楽器で演奏するために必要な物理的器用さを必要とせずにこれらのリズム を作り出すことができる。ユーザは、ジョイスティックのプレイボタンで、リズ ム生成器を起動および停止し得る。このボタンは音楽を開始および停止させるの で、ユーザはこのボタンを使用して、即興演奏を行う音楽家が独奏の間にフレー ズを開始および停止する方法をシミュレートし得る。ユーザはボタンとインタフ ェース上の連続コントローラ(例えば、ジョイスティックのハンドルの軸、フェ ーダー、スライダーなど)との組み合わせを使用して、生成されるリズムの活動 性および複雑さを制御し得る。 図8および10に示すように、リズム生成器100は、ジョイスティックまた はその他の同様に操作が簡単なインタフェース12からのリズムに関連するあら ゆる入力信号に応じて、(図4Bおよび4Cのスタイル構成80によって提供さ れるリズムブロックのグループから)リズムブロックを選択する(ステップ20 2および204)。一旦リズム生成器100がリズムブロックを選択すると、リ ズム生成器100は音符形成器機能ブロック102、リフ器104およびアクセ ント器106にメッセージを送信する。 リズム生成器100は、音符形成器102に、リズムブロック自体によって規 定される通り、正しい時間に「音符演奏」命令を送る(ステップ206)。「音 符演奏」命令は、リズムブロック、具体的にはブロックの名前、長さおよびイベ ントリストならびに特定されたダイナミクスおよび持続時間情報またはデフォル トのダイナミクスおよび持続時間情報によって規定される 情報をすべて含む。 リズムの活動性が十分に大きい場合は、ユーザが同じピッチの速い繰り返しを 避けるに足りるほど速く入力装置(例えば、ジョイスティック)を操作するのは 困難または不可能になり得る。この状況を改善するために、リズムの活動性が十 分に大きくなったら、リズム生成器100はリフ器104を起動する命令を送る 。リフ器104は、一旦起動されたらリズム生成器100を停止し、リフ器10 4は次いで自動的に事前に格納された凝ったメロディー(例えば、アルベッジオ )を出力する。リズムの活動性が再び十分に小さくなったら、リフ器104は制 御をリズム生成器100に返す。リフ器104については、「リフ器」という見 出しで、さらに詳しく後述する。 リズム生成器100によってアクセント器106に送信される情報は、現在の リズムブロックの識別番号である。アクセント器106は、アクセント器の見出 しで後述するように、そのID番号を使用して強勢パターンを付加する。ピッチセレクタ : 図9および図10を参照して、「ピッチセレクタ」108は、ユーザが作り出 す音符のピッチが、「音楽的に正しい」ことを確実にする。ジョイスティックま たは他の類似の操作の容易なインタフェース12からの、あらゆるピッチ関連入 力信号に応答して、ピッチセレクタ108は、再生のためのピッチを選択する( ステップ208および210)。ピッチセレクタは、ジョイスティックからのピ ッチ関連入力信号、伴奏の現在のキーおよびコード(バックグラウンドトラック 78の一部のハーモニートラック90によって提供される(図4C))、現在の メトリック的位置(バックグラウンドトラック78の一部のテンポトラック92 によって提供される)、および演奏された以前のピッチに関する情報の関数とし て、適切なピッチを選択する。図9のステップ218、210、208、212 、216、および214を参照のこと。メトリック的位置は、例えばビート(例 えば、ビートに合わせて、またはビートに合わせずに)または拍子(例えば、強 いビートまたは弱いビート)における現在の位置を表し、一般的に、同じ時に関 連するハーモ ニーとは無関係であることに注目されたい。一旦ピッチが選択されると、ピッチ セレクタは、選択されたピッチを音符形成器102に送り、演奏される次の音符 に使用する(ステップ220)。 上記のように、ピッチセレクタ108は、複数のクラスのピッチの1つから適 切なピッチを選択する。ピッチセレクタ108は、前の段落に開示された要素に 基づいて、2つまたは3つ以上のクラスの間で、この選択を行う。一例として、 1つがコードトーンの集まり(すなわち、現在のコードにおける音符)で、もう 1つが、経過音の集まり(すなわち、現在のキーまたは音階における音符)で、 もう1つが、半音階トーンの集まりである2つの種類が存在し得る。 例えば、一般的なメロディーの原則としては、コードトーンは通常ビート(例 えば表拍または他の強いビート)に合わせて演奏されるべきであり、経過音は、 通常ビートに合わせずに、または弱いビートに合わせて演奏されるべきである。 ビートまたは拍子に対する現在のメトリック的位置を与えられると、ピッチセレ クタは、最も適切なピッチのクラスを選択する。次に、そのクラスから特定のピ ッチが、現在のハーモニーおよび現在のピッチ関連のジョイスティック位置に基 づいて、ピッチセレクタによって選択される。一例としては、現在のコードがC コードで、現在のキーが「Dマイナー」である場合であり、その場合には、G音 が強いビートで演奏され得、Bフラット音が、ビートに合わせずに、または弱い ビートで演奏され得る。ある音符は、非常に頻繁にそうなるのであるが、現在の コードがC(すなわち、コードトーンはC、E、およびG)で、キーが「Dマイ ナー」(すなわち、経過音はD音、E音、F音、G音,A音、Bフラット音、お よびC音)である前の例の場合などのように、複数のクラスの間で重複し得るこ とが注目される。 ピッチのクラスを選択する時に、ピッチセレクタは、メロディーに関する歴史 的情報も利用する。ピッチセレクタは、先行する音符のピッチのクラス、先行す る音符の実際のピッチ、およびメロディー方向などの、先行する音符の他のメロ ディー特徴などの情報を利用する。例えば、一般的なメロディーの原則は、メロ ディーが、非コードのトーンへと飛ぶと、次に、メロディー は、最も近いコードトーンに向けて反対の方向に行くべきであることである。 一旦ピッチの種類がピッチセレクタ108によって決定されると、ピッチセレ クタ108は、次にピッチ関連入力信号を利用して、その種類の中の特定のピッ チを選択する。一般的に、ピッチ関連入力信号は、(i)ピッチレジスタ(すな わち、音符のピッチがどれくらい高く、または低くなるべきか)、または(ii )ピッチレジスタにおける変化(すなわち、次のピッチが、先行するピッチより 高く、あるいは低くなるべきか、およびその分量)のどちらかに直接相当する。インタフェースプロセッサ : 図10を参照して、「インタフェースプロセッサ」機能ブロック110は、入 力装置12(例えば、ジョイスティック)からの信号を、正しいシステム機能ブ ロックへと経路づける、または「マッピングする」責任がある。インタフェース プロセッサ110が構成され得る多くの方法がある。開示されている実施形態に おいては、インターフェースプロセッサ110は、メッセージを、リズム生成器 100、ピッチセレクタ108、サステイン器112、リフ器104、リック器 114、音色マネージャ116、エンベロープマネージャ118、コード形成器 120、アーチキュレーション器122、およびアクセント器106に送信する ように構成される。 リズム生成器100に対して、インタフェースプロセッサ110は、リズム生 成器100を有効/無効にするジョイスティック12上の演奏ボタン50の位置 を送信する。前方/後方軸、またはリズムの活動性を増加/低下させるのに使用 されるような軸に沿ったジョイスティックハンドルの位置も送信される。インタ フェースプロセッサ110は、リズム生成器100に、クロスリズム、多重リズ ムおよびシンコペーションなどのリズムの特殊効果のためにリズムブロックを変 更するのに使用され得るジョイスティック上の他のボタンの位置も送信する。 ピッチセレクタ108に対して、インタフェースプロセッサ110は、左−右 軸、または音符のピッチを上げる/下げるために使用されるような軸に沿ったジ ョイスティックハンドルの位置を送信する。 サステイン器112に対して、インタフェースプロセッサ110は、サステイ ン器112を有効/無効にするジョイスティック12上のサステインボタン52 の位置を送信する。 リフ器104に対して、インタフェースプロセッサ110は、リフ器の機能を 有効/無効にする様々なリフボタンの位置を送信し、サステインボタン52の解 除、およびリフ器104を誘発する左−右軸に沿ったジョイスティックハンドル の同時点での位置に関する情報を送信する。 リック器114に対して、インタフェースプロセッサ110は、リック器11 4を有効/無効にするリック繰り返しボタン54の位置を送信し、リック繰り返 しボタン54がいつ押された状態にあるか、および各繰り返しに関してリックを レジスタにおいて上下に移動させる左/右軸に沿ったジョイスティックハンドル の同時点での位置に関する情報を送信する。 音色マネージャ116に対して、インタフェースプロセッサ110は、音色マ ネージャ116の様々な機能を有効/無効にする様々な音色ボタンの位置を送信 し、サステインボタン52がいつ押された状態にあるか、および複数の音色の連 続的な混合を制御する前方/後方軸に沿ったジョイスティックハンドルの同時点 での位置に関する情報を送信する。 エンベロープマネージャ118に対して、インタフェースプロセッサ110は 、エンベロープマネージャ118の様々な機能を有効/無効にする様々なエンベ ロープボタンの位置を送信し、サステインボタン52がいつ押された状態にある か、およびピッチの混合を制御する左/右軸に沿ったジョイスティックハンドル の同時点での位置に関する情報を送信する。 コード形成器120に対して、インタフェースプロセッサ110は、コード形 成器120の様々な機能を有効/無効にする様々なコードボタンの位置を送信す る。 アーチキュレーション器122に対して、インタフェースプロセッサ110は 、アーチキュレーション器122の様々な機能を有効/無効にする様々なアーチ キュレーションボタンの位置を送信する。 アクセント器106に対して、インタフェースプロセッサ110は、アク セント器106の様々な機能を有効/無効にする様々なアクセント器ボタンの位 置を送信する。 入力装置12は、これらのボタンを全て含み得るが、典型的には、これらのボ タンの全てを含んではいない。図3Aおよび図3Bには、3つのボタンのみが図 示されているが、例えば、ジョイスティックの基部上に設けられた他の様々なボ タンが存在し得る(あるいは、それらは、コンピュータキーボードのキーまたは MIDIキーボードのキーであり得る)。ジェスチャー分析器 : 図10を参照すると、ユーザが、ボタンを押す、または入力装置12(例えば ジョイスティック)上の連続性制御器を動かすことによってのみシステムに入力 を提供することが許されるのではなく、ジェスチャー分析器124を使用するこ とにより、ユーザが、「ジェスチャー」を用いて特定のシステム機能を誘発する ことが可能となり得る。例えば、システムは、ある特別なリズム効果のための誘 因として、「ジョイスティックを激しく小刻みに動かす」ことを認識するように 構成され得る。ジェスチャー分析器124は、ユーザのインタフェース操作を分 析し、ユーザが、例えば、現在「ジョイスティックを激しく小刻みに動かしてい る」(これは、所望のリズム効果を可能にするために、ジェスチャー分析器12 4が、適切な信号をインタフェースプロセッサ110に送るべきであることを意 味する)かどうかを判断する責任がある。サステイン器 : サステイン器112により、ユーザが、演奏された音符を不定の期間サステイ ンすることが可能となる。サステイン器112が有効にされると、サステイン器 112は、リズム生成器100に命令を送る。この命令は、リズム生成器100 に、「音符演奏」メッセージの通常の流れを中断し、次に演奏される音符を、さ らなる通知が届くまでサステインするように告げる。サステイン器112が無効 にされると、サステイン器112は、リズム生成器100に、サステインされて いる音符を消音させ、次に、通常の音符生成を再開させる命令を送る。リフ器 : リフ器104は、事前に記憶されたデータ構造である「リフ」を再生させるた めに使用され、各データ構造は、(i)「音符演奏」イベントの時刻索引リスト 、および(ii)各「音符演奏」イベントに対して、メロディー方向オフセット (上または下、およびその分量)を指定するリストを含む。このデータ構造は、 リフ器104を有効にし、それによって、メロディーの自動化の目的で、自動的 に音楽的「リフ」が演奏される。事前に記憶されたリフの例として、装飾音、モ ルデント、トリル、トレモロ、およびグリッサンドがあげられる。リフの別の用 途は、リズム活動が非常に高まり、ユーザにとって、もっともらしいメロディー の起伏(contours)を手で加えることが困難である場合に、メロディーの起伏( 例えばアルペッジオ)を加えることである。有効にされると、リフ器104は、 メッセージを、リズム生成器100および音符形成器102に送る。 音符形成器102のためのリズム情報がリフ器104によって与えられ始める と、リズム生成器100に対して、リフ器104は、リズムの発生を停止させる 命令を送信する。 音符形成器102に対して、リフ器104は、現在のリフによって決定される ような正しい時点で、音符(またはコード)を演奏する命令を送る。この「音符 演奏」命令には、現在のリズムブロックによって指定されるような、メロディー オフセット、持続時間、および音の大きさ(すなわち、MIDI「速度」)も付 随する。リック器 : リック器114により、ユーザが、直前の過去から好ましいメロディーの断片 を「捉え」、急速な継続でそれらを再生することが可能となる。リックは、リフ と同じデータ構造フォーマットで記憶される。しかし、リックは、事前に記憶さ れていない。ユーザの独奏またはメロディーが、ユーザによって作り出される時 にリアルタイムで、コンピュータ14のメモリ22に自動的に記録される。リッ ク器114が(リック繰り返しボタン54によって)有効にされると、最近のメ モリからランダムな長さ(通常2、3ビートまた はそれ以下)のリックが選ばれ、そのリックをリフデータフォーマットで保存す る。リック器14は、次に、リフ器104を有効にする命令と共に、そのリック をリフ器104に渡す。リック器114は、次に、生成された音楽の記録を再開 する。音色マネージャ : この機能ブロック、すなわち音色マネージャ116により、ユーザが、現在の 独奏楽器の音色を作用させることが可能となる。これは、作り出された音符を複 数のMIDIチャネル(各チャネルは、異なるMIDIパス(音色)を使用して いる)に送ることにより達成される。音色マネージャ116は、次に、これらの 各MIDIチャネルのMIDIボリュームを引き続いて調整し、その結果、出力 の音色の「混合」を変化させ得る。あるMIDI旋律(tine)生成器によって、 合成パラメータを制御することにより、音色の直接的な操作も可能となることに 注目されたい。各楽器に対するデフォルトのMIDIパッチは、楽器構成76に 設けられている。エンベロープマネージャ : エンベロープマネージャ118により、ユーザが、ピッチのベンド、またはク レッシェンドなどの複数の効果を達成するために、音を出している音符のピッチ および音の大きさを変調させることが可能となる。有効にされると、エンベロー プマネージャ118は、ピッチのベンド、および音の大きさ(すなわちMIDI 「速度」)エンベロープを使用し、それによって、音符の再生を変化させる。こ れらのエンベロープは、事前に記憶される(その場合、エンベロープは、楽器構 成76に設けられる)または入力装置12からの信号によってリアルタイムで制 御されるかのどちらかである。エンベロープマネージャ118はまた、人間の演 奏の不完全さを模倣するために、ある楽器に対して(具体的には弦楽器および管 楽器)、ピッチに微小なランダムな変動を自動的に加える。コード形成器 : コード形成器120は、音符形成器102に対して、単一の音符の代わりに、 いつコードを演奏するかを指示する。有効にされると、コード形成器1 20は、(i)生成されたばかりの主メロディー音符に加えて、いくつのコード 音符を演奏するのか、(ii)それらのコード音符が、互いにどのくらい近接( ピッチで)するべきか、および(iii)それらのコード音符が、主メロディー 音符の上または下のどちらにあるべきかを告げるメッセージを、音符形成器10 2に送る。この情報は、楽器構成76のコード形成器に与えられる。アーチキュレーション器 : アーチキュレーション器122により、ユーザが、生成された音符にアーチキ ュレーション効果を加えることが可能となる。アーチキュレーションは、個々の 音符がアタックされる方法、および連続的な音符間でどれだけの残りスペースが 残されているかで規定される。例えば、アーチキュレーション器の「スタッカー ト」機能が有効にされると、アーチキュレーション器は、次に生成される音符の 継続期間を短くする命令を、音符形成器102に送る。アーチキュレーション器 の「スラー」機能が有効にされると、アーチキュレーション器は、次に生成され る音符の継続期間を長くする命令を音符形成器102に送り、MIDI Porta Mode (Porta Time = 0)を有効にするように、音符形成器102に告げ、その場合 には、新しい音符の音色エンベロープのアタック部が、再びアーチキュレーショ ンされない。これは、典型的な楽器のスラー音符に類似している。アクセント器 : アクセント器106により、ユーザが、生成された音符に強勢パターンを加え ることが可能になる。アクセント器106は、利用可能なリズムブロックの全て の知識(スタイル構成80から)を有する。アクセント器106は、それらのリ ズムブロックのうちのどれが現在使用されているかの知識(リズム生成器100 から)も有する。有効にされると、アクセント器106は、この情報を使用して 、ある特定の1つまたは複数の音符が、リズム生成器100からのリズムブロッ クにおける対応する音符の音の大きさよりも大きな音の大きさの値を有する、ア クセントテンプレートまたは「アクセントブロック」として使用するための補完 的な(complimentary)リズムブロック を選ぶ。そのアクセントブロックによって規定される「音符演奏」イベントの時 点で、アクセント器は、その時点で生成されるあらゆる音符に指定のアクセント を加えるように命令するメッセージを、音符形成器102に送る。音符形成器 : 音符形成器102は、他の全ての有効にされた機能ブロックからの演奏情報の 全てを組み合わせる。例として、音符形成器102は、リズム生成器100から の「音符演奏」命令、ピッチセレクタ108からのピッチ、音色マネージャ11 6からの音色調節、エンベロープマネージャ118からのピッチベンド値、アー チキュレーション器122からの持続時間、およびアクセント器106からの強 さの値(すなわちMIDI「ベロシティ」)を統合(integrate)し得る。これらのデ ータは音符形成器102に到達して統合された後、MIDI出力装置16に送出され る。音符形成器102からの他の出力は、ピッチセレクタ108およびリック器 114に行く。 コード形成器120からコードを演奏するように命令されると、音符形成器1 02は、ピッチセレクタ108をX回追加的に実行させることにより、所望のコ ードが構築されるまで、X個のピッチを生成する。ここで、Xおよび所望のコー ドは、コード形成器120が供給するコードパラメータによって決定される。 リック器114のメモリバッファに対して音符形成器102が音符形成器出力 の全てを送ることにより、リック器114は常に今まで演奏されたことの記録を 有しており、かつ、ユーザに呼び出された際にその機能(上述)を実行すること が可能である。MIDI 出力装置 : このブロック16は、音符形成器102からのMIDI出力ストリームを「レンダ リング」(render)する実際の音声生成ハードウェア(あるいは上述のように、場 合によってはソフトウェアである)。すなわち、ブロック16は、MIDI出力スト リームを可聴信号に変換(translate)し、この可聴信号が次に増幅されて発声さ れ得る。MIDI レコーダ : 音符形成器102からのMIDI出力ストリームを記録することも可能である。例 えば、MIDI出力ストリームをコンピュータ14のハードドライブ36に送り、そ こで記憶してもよい。このことにより、ユーザがその演奏をセーブし、将来にお いて任意の時刻に容易にアクセスする(例えば聴く)ことが可能になる。オートメータ : 従って明らかなように、本発明のシステムは、ユーザに多数の制御機能性を提 供する。十分なボタンおよびフェーダがあれば、ユーザは、リズム、ピッチ、サ スティン、リフおよびリック、音色、ピッチエンベロープ、コード、アーティキ ュレーション、ならびにアクセントを独立に制御し得る。しかし、制御度がその ように大きいと、大部分のユーザは圧倒されてしまうであろう。 オートメータ130の目的は、ユーザのアシスタントのように機能し、これら のシステム機能の多くを自動的に制御することにより、ユーザがその中のいくつ かだけに集中することを可能にすることである。オートメータ130がどのシス テム機能を制御するべきかは、技能レベル構成72によって伝えられる。 図10において、オートメータ130は、図10中の全てのブロックから情報 を受け取ることを示すために、他の全ブロックとは異なる形状で示している(た だし配線の全てを示しているわけではない)。オートメータ130は、全システ ム中の全ての情報にアクセスでき、この情報を用いて様々なシステム機能をいつ 有効にするかを決定する。 一例として、オートメータ130は、定期的あるいは時々、予め記憶されたピ ッチ関連入力信号をピッチセレクタ108に送り得る。これは、例えば、ユーザ が非常に低い技能レベルを有している(すなわち初心者である)ことを技能レベ ル構成72に示した場合に、なされ得る。 別の例として、オートメータ130は、定期的あるいは時々、予め記憶された リズム関連入力信号をリズム生成器100に送り得る。これはやはり、例えば、 ユーザが非常に低い技能レベルを有している(すなわち初心者である)ことを技 能レベル構成72に示した場合に、なされ得る。 別の例としては、オートメータがランダムまたはアルゴリズム的に、ユーザの 独奏ラインに対して自動的に複雑さを加えるために、1つ以上の機能ブロック( 例えば、音色マネージャ116、エンベロープマネージャ118、コード形成器 120、アーティキュレーション器122、アクセント器106、および/また はリフ器104)を有効にする場合がある。 このような複雑さの1要素は、ピッチベンドおよび音色代替(例えばギターの ハーモニクス)などの、楽器に特有の演奏パラメータである。このような複雑さ れの別の要素は、装飾音、トレモロ、グリッサンド、モルデントなどの効果を加 えることによって楽譜を自動的に装飾することである。 一般にオートメータは、楽器に特有の演奏パラメータまたは音楽的装飾を加え ることによって楽譜を処理して楽譜を自動的に改変するための、電子システムで ある。楽譜は、MIDIデータなどのデジタルデータで表される。楽譜は、本発明の システムによってリアルタイムで創作される楽譜であってもよく、または、過去 に創作されて例えばコンピュータハードディスクドライブその他のコンピュータ で読み出し可能なデータ記憶媒体上に記憶または記録された楽譜であってもよい 。 請求項に記載したとおりの本発明の趣旨および範囲から逸脱することなしに、 本明細書に説明したものの変形、改変その他の実施態様が当業者には想到される であろう。従って、本発明は、上記の例示的な記載ではなく以下の請求項によっ て定義されるものである。
───────────────────────────────────────────────────── 【要約の続き】 ッチ選択器(108)は、入力装置(12)からのピッチに関連 した入力信号を受信し、ピッチに関連した入力信号、ユ ーザが選択した音楽伴奏トラック、および記憶された独 奏情報に基づいて、適切なピッチを選択する。次に、ピ ッチ選択器(108)は、この適切なピッチを出力する。音 声生成器(102)は、リズム生成器(100)からの命令、ピッ チ選択器(108)からのピッチ、およびユーザが選択した 音楽伴奏トラックを受け取り、ユーザが作成した独奏お よび伴奏トラックを示す音声信号を生成する。

Claims (1)

  1. 【特許請求の範囲】 1.リアルタイムに音楽を作成するためのシステムであって、 リズムに関連した入力信号およびピッチに関連した入力信号を提供する入力機 構と、 音楽がリアルタイムで作成および演奏され得る複数の選択可能な音楽伴奏トラ ックと、それぞれが、少なくとも1つの音符に対して、少なくとも該音符が演奏 されるべき時間を規定する複数のリズムブロックとを有し、以前の所定の時間間 隔にわたってリアルタイムで作成された該音楽の少なくとも一部を記憶する、少 なくとも1つのコンピュータ記憶媒体と、 リアルタイムで、該リズムに関連した入力信号を該入力機構から受信し、該リ ズムに関連した入力信号に基づいて該コンピュータ記憶媒体から該リズムブロッ クの1つを選択し、該選択されたリズムブロックによって規定される時間に該音 符を演奏するよう命令を出力する、リズム生成器と、 リアルタイムで、該ピッチに関連した入力信号を該入力機構から受信し、該ピ ッチに関連した入力信号、該音楽伴奏トラックの選択された1つ、および該記憶 された音楽に基づいて適切なピッチを選択し、該適切なピッチを出力する、ピッ チ選択器と、 リアルタイムで、該リズム生成器からの命令、該ピッチ選択器からのピッチ、 および該選択された音楽伴奏トラックを受信し、少なくとも該作成された音楽を 示す音声信号を生成する、音声生成器と、 を有するシステム。 2.前記入力機構が、基部および移動可能なハンドルを有し、前記リズムに関連 した入力信号および前記ピッチに関連した入力信号を生成するためにユーザが操 作するジョイスティックを有する、請求項1に記載のシステム。 3.前記ジョイスティックが、第1の所定軸に沿った前記ハンドルの前記ユーザ による操作に応答して、前記リズムに関連した入力信号を生成し、該ジ ョイスティックが、第2の所定軸に沿った該ハンドルの該ユーザによる操作に応 答して、前記ピッチに関連した入力信号を生成する、請求項2に記載のシステム 。 4.前記入力機構がさらに、音楽効果に関連した入力信号を提供し、 前記システムがさらに、該入力機構から該音楽効果に関連した入力信号を受信 し、該音楽効果に関連した入力信号に基づいて、前記リズム生成器からの前記命 令または前記ピッチ選択器からの前記ピッチを変更する音楽効果生成器を有し、 前記音声生成器が、該変更された命令およびピッチを受け取り、音楽効果を有 する前記少なくとも作成された音楽を示す前記音声信号を生成する、請求項1に 記載のシステム。 5.前記入力機構が、基部と、移動可能なハンドルと、少なくとも1つのボタン とを有するジョイスティックを有する、請求項4に記載のシステム。 6.前記ジョイスティックが、第1の所定軸に沿った前記ハンドルの前記ユーザ による操作に応答して前記リズムに関連した入力信号を生成し、該ジョイステイ ックが、第2の所定軸に沿った該ハンドルの該ユーザによる操作に応答して、前 記ピッチに関連した入力信号を生成し、該ジョイスティックが、前記ボタンの該 ユーザによる操作に応答して、前記音楽効果に関連した入力信号を生成する、請 求項5に記載のシステム。 7.前記リズム生成器が、前記選択されたリズムブロックによって規定される前 記時間に前記音符をデフォルトの持続期間だけデフォルトの強さで演奏するよう 前記命令を出力する、請求項1に記載のシステム。 8.前記少なくとも1つのコンピュータ記憶媒体における前記複数のリズムブロ ックの少なくとも1つが、少なくとも1つの音符に対して、該音符がど のくらいの長さで演奏され、該音符がどのくらいの強さで演奏されるべきかをさ らに規定し、 該リズム生成器によって出力される前記命令が、該音符が演奏されるべき時間 、ならびに該リズムブロックによって規定される該音符の長さおよび強さを示す 、請求項1に記載のシステム。 9.前記音声信号を発音するための少なくとも1つのスピーカをさらに有する、 請求項1に記載のシステム。 10.前記音声信号が発音のために前記スピーカに提供される前に、該音声信号を 増幅するための増幅器をさらに有する、請求項9に記載のシステム。 11.プログラムされたコンピュータが、前記リズム生成器および前記ピッチ選択 器の機能を果たし、前記増幅器および前記スピーカが該コンピュータの内部にあ る、請求項10に記載のシステム。 12.前記プログラムされたコンピュータがさらに、前記音声生成器の機能を果た す、請求項11に記載のシステム。 13.前記音声生成器がMIDIトーン生成器を有する、請求項1に記載のシステム。 14.プログラムされたコンピュータが、前記リズム生成器および前記ピッチ選択 器の機能を果たす、請求項1に記載のシステム。 15.前記プログラムされたコンピュータがさらに、前記音声生成器の機能を果た す、請求項14に記載のシステム。 16.前記少なくとも1つのコンピュータ記憶媒体が、コンピュータメモリを 有する、請求項1に記載のシステム。 17.前記少なくとも1つのコンピュータ記憶媒体が、コンピュータメモリおよび コンピュータハードディスクドライブを有し、該コンピュータハードディスクド ライブが、音楽が作成および演奏され得る前記複数の選択可能な音楽伴奏トラッ クを有する、請求項1に記載のシステム。 18.前記少なくとも1つのコンピュータ記憶媒体が、音楽が作成および演奏され 得る前記複数の選択可能な音楽伴奏トラックを有するコンピュータメモリならび にCD-ROMを有する、請求項1に記載のシステム。 19.リアルタイムで音楽を作成するためのシステムであって、 少なくとも第1の操作軸および第2の操作軸を有する入力装置であって、該第 1の軸に対する該入力装置のユーザによる操作に応答してリズムに関連した信号 を提供し、該第2の軸に対する該入力装置の該ユーザによる操作に応答してピッ チに関連した信号を提供するための入力装置と、 該入力装置から該リズムに関連した信号および該ピッチに関連した信号を受信 し、(i)該ピッチに関連した信号に基づいたピッチおよび(ii)該リズムに関連し た信号に基づいたリズムの活動性を含む音楽をリアルタイムで作成するためのリ アルタイム音楽生成器と、 を有するシステム。 20.前記入力装置が、移動可能なハンドルを有するジョイスティックを有し、前 記ユーザが、該ハンドルを前記第1の軸に沿って操作することにより、該ジョイ スティックに前記リズムに関連した信号を提供させ、前記第2の軸に沿って操作 することにより、該ジョイスティックに前記ピッチに関連した信号を提供させる 、請求項19に記載のシステム。 21.前記入力装置が、互いに直交して配置された前記第1および第2の軸を 有する、請求項19に記載のシステム。 22.前記入力装置が、連続的なコントローラを有する、請求項19に記載のシステ ム。 23.前記入力装置が、マウスを有する、請求項19に記載のシステム。 24.前記入力装置が、トラックボールを有する、請求項19に記載のシステム。 25.前記入力装置が、フェーダを有する、請求項19に記載のシステム。 26.前記入力装置が、スライダを有する、請求項19に記載のシステム。 27.前記入力装置が、空間センサを有する、請求項19に記載のシステム。 28.前記入力装置が、独立したコントローラを有する、請求項19に記載のシステ ム。 29.前記入力装置が、ゲームパッドを有する、請求項19に記載のシステム。 30.前記入力装置が、複数のスイッチを有する、請求項19に記載のシステム。 31.前記入力装置が、複数のボタンを有する、請求項19に記載のシステム。 32.リアルタイムで音楽を作成する方法であって、 (A)入力装置の第1の操作軸に対する該入力装置のユーザによる操作に応答し て提供されるリズムに関連した信号を受信するステップと、 (B)入力装置の第2の操作軸に対する該入力装置のユーザによる操作に応答し て提供されるピッチに関連した信号を受信するステップと、 (C)(i)該受信されたピッチに関連した信号に基づいたピッチおよび(ii)該受信 されたリズムに関連した信号に基づいたリズムの活動性を含む音楽をリアルタイ ムで作成するステップと、 を包含する方法。 33.前記ステップ(A)が、前記第2の軸に直交する前記第1の軸に沿って前記ユ ーザが前記入力装置を操作するのに応答して提供される前記リズムに関連した信 号を受信することを含み、 前記ステップ(B)が、該第1の軸に直交する該第2の軸に沿って該ユーザが該 入力装置を操作するのに応答して提供される前記ピッチに関連した信号を受信す ることを含む、請求項32に記載の方法。 34.前記ステップ(A)が、前記第1の軸に沿ってジョイスティックのハンドルを 前記ユーザが操作するのに応答して提供される前記リズムに関連した信号を受信 することを含み、 前記ステップ(B)が、前記第2の軸に沿って該ジョイスティックの該ハンドル を該ユーザが操作するのに応答して提供される前記ピッチに関連した信号を受信 することを含む、請求項32に記載の方法。
JP9515844A 1995-10-16 1996-10-03 リアルタイム音楽作成システム Pending JPH11513811A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US08/543,768 1995-10-16
US08/543,768 US5627335A (en) 1995-10-16 1995-10-16 Real-time music creation system
PCT/US1996/015913 WO1997015043A1 (en) 1995-10-16 1996-10-03 Real-time music creation system

Publications (1)

Publication Number Publication Date
JPH11513811A true JPH11513811A (ja) 1999-11-24

Family

ID=24169491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9515844A Pending JPH11513811A (ja) 1995-10-16 1996-10-03 リアルタイム音楽作成システム

Country Status (9)

Country Link
US (2) US5627335A (ja)
EP (1) EP0857343B1 (ja)
JP (1) JPH11513811A (ja)
KR (1) KR19990064283A (ja)
AT (1) ATE188304T1 (ja)
AU (1) AU7389796A (ja)
CA (1) CA2234419A1 (ja)
DE (1) DE69605939T2 (ja)
WO (1) WO1997015043A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015080110A (ja) * 2013-10-17 2015-04-23 パイオニア株式会社 付加音制御装置、音響機器、および付加音制御方法

Families Citing this family (91)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6362409B1 (en) 1998-12-02 2002-03-26 Imms, Inc. Customizable software-based digital wavetable synthesizer
US6011212A (en) * 1995-10-16 2000-01-04 Harmonix Music Systems, Inc. Real-time music creation
US5852800A (en) * 1995-10-20 1998-12-22 Liquid Audio, Inc. Method and apparatus for user controlled modulation and mixing of digitally stored compressed data
US7423213B2 (en) * 1996-07-10 2008-09-09 David Sitrick Multi-dimensional transformation systems and display communication architecture for compositions and derivations thereof
US7297856B2 (en) * 1996-07-10 2007-11-20 Sitrick David H System and methodology for coordinating musical communication and display
US7989689B2 (en) * 1996-07-10 2011-08-02 Bassilic Technologies Llc Electronic music stand performer subsystems and music communication methodologies
US7098392B2 (en) * 1996-07-10 2006-08-29 Sitrick David H Electronic image visualization system and communication methodologies
US5990407A (en) * 1996-07-11 1999-11-23 Pg Music, Inc. Automatic improvisation system and method
JP3632411B2 (ja) * 1997-09-24 2005-03-23 ヤマハ株式会社 楽音信号生成方法、楽音信号生成装置及びプログラムを記録した媒体
US6121532A (en) 1998-01-28 2000-09-19 Kay; Stephen R. Method and apparatus for creating a melodic repeated effect
US6121533A (en) * 1998-01-28 2000-09-19 Kay; Stephen Method and apparatus for generating random weighted musical choices
US6103964A (en) * 1998-01-28 2000-08-15 Kay; Stephen R. Method and apparatus for generating algorithmic musical effects
US6051770A (en) * 1998-02-19 2000-04-18 Postmusic, Llc Method and apparatus for composing original musical works
JP3533974B2 (ja) * 1998-11-25 2004-06-07 ヤマハ株式会社 曲データ作成装置および曲データ作成プログラムを記録したコンピュータで読み取り可能な記録媒体
US6087578A (en) * 1999-01-28 2000-07-11 Kay; Stephen R. Method and apparatus for generating and controlling automatic pitch bending effects
US6153821A (en) * 1999-02-02 2000-11-28 Microsoft Corporation Supporting arbitrary beat patterns in chord-based note sequence generation
JP3371132B2 (ja) * 1999-08-25 2003-01-27 コナミ株式会社 ゲーム装置、ゲーム装置の制御方法、及び、そのゲーム装置で使用するコンピュータ読取可能な記憶媒体
JP4211153B2 (ja) * 1999-09-17 2009-01-21 ソニー株式会社 記録装置および方法
DE60023081D1 (de) 1999-10-14 2005-11-17 Sony Computer Entertainment Inc Unterhaltungssystem, Unterhaltungsvorrichtung, Aufzeichnungsmedium und Programm
US7058462B1 (en) 1999-10-14 2006-06-06 Sony Computer Entertainment Inc. Entertainment system, entertainment apparatus, recording medium, and program
US6702677B1 (en) 1999-10-14 2004-03-09 Sony Computer Entertainment Inc. Entertainment system, entertainment apparatus, recording medium, and program
US6392133B1 (en) 2000-10-17 2002-05-21 Dbtech Sarl Automatic soundtrack generator
US9818386B2 (en) 1999-10-19 2017-11-14 Medialab Solutions Corp. Interactive digital music recorder and player
US7176372B2 (en) * 1999-10-19 2007-02-13 Medialab Solutions Llc Interactive digital music recorder and player
US7078609B2 (en) * 1999-10-19 2006-07-18 Medialab Solutions Llc Interactive digital music recorder and player
JP3700532B2 (ja) * 2000-04-17 2005-09-28 ヤマハ株式会社 演奏情報編集再生装置
US7827488B2 (en) 2000-11-27 2010-11-02 Sitrick David H Image tracking and substitution system and methodology for audio-visual presentations
JP4497264B2 (ja) * 2001-01-22 2010-07-07 株式会社セガ ゲームプログラム、ゲーム装置、効果音の出力方法及び記録媒体
US6388183B1 (en) 2001-05-07 2002-05-14 Leh Labs, L.L.C. Virtual musical instruments with user selectable and controllable mapping of position input to sound output
US6822153B2 (en) 2001-05-15 2004-11-23 Nintendo Co., Ltd. Method and apparatus for interactive real time music composition
DE10153673B4 (de) * 2001-06-18 2005-04-07 Native Instruments Software Synthesis Gmbh Automatische Erzeugung von musikalischen Scratch-Effekten
EP1415297B1 (de) * 2001-06-18 2008-09-24 Native Instruments Software Synthesis GmbH Automatische erzeugung von musikalischen sratch-effekten
KR20030000379A (ko) * 2001-06-23 2003-01-06 정우협 조이스틱(Joystick)에 의한 컴퓨터 볼륨(음량)조절에 대한방법
US20030069655A1 (en) * 2001-10-05 2003-04-10 Jenifer Fahey Mobile wireless communication handset with sound mixer and methods therefor
US7174510B2 (en) 2001-10-20 2007-02-06 Hal Christopher Salter Interactive game providing instruction in musical notation and in learning an instrument
US7076035B2 (en) * 2002-01-04 2006-07-11 Medialab Solutions Llc Methods for providing on-hold music using auto-composition
EP1326228B1 (en) * 2002-01-04 2016-03-23 MediaLab Solutions LLC Systems and methods for creating, modifying, interacting with and playing musical compositions
US7169996B2 (en) * 2002-11-12 2007-01-30 Medialab Solutions Llc Systems and methods for generating music using data/music data file transmitted/received via a network
US7022906B2 (en) * 2002-11-12 2006-04-04 Media Lab Solutions Llc Systems and methods for creating, modifying, interacting with and playing musical compositions
US7928310B2 (en) * 2002-11-12 2011-04-19 MediaLab Solutions Inc. Systems and methods for portable audio synthesis
WO2006043929A1 (en) * 2004-10-12 2006-04-27 Madwaves (Uk) Limited Systems and methods for music remixing
US8841847B2 (en) 2003-01-17 2014-09-23 Motorola Mobility Llc Electronic device for controlling lighting effects using an audio file
US8008561B2 (en) * 2003-01-17 2011-08-30 Motorola Mobility, Inc. Audio file format with mapped lighting effects and method for controlling lighting effects using an audio file format
JP4700351B2 (ja) * 2003-02-07 2011-06-15 ノキア コーポレイション マルチユーザ環境の制御
TWI221186B (en) * 2003-09-19 2004-09-21 Primax Electronics Ltd Optical detector for detecting relative shift
JP2006084749A (ja) * 2004-09-16 2006-03-30 Sony Corp コンテンツ生成装置およびコンテンツ生成方法
US7563975B2 (en) * 2005-09-14 2009-07-21 Mattel, Inc. Music production system
KR100689849B1 (ko) * 2005-10-05 2007-03-08 삼성전자주식회사 원격조정제어장치, 영상처리장치, 이를 포함하는 영상시스템 및 그 제어방법
US7609173B2 (en) * 2005-11-01 2009-10-27 Vesco Oil Corporation Audio-visual point-of-sale presentation system and method directed toward vehicle occupant
WO2007073353A1 (en) * 2005-12-20 2007-06-28 Creative Technology Ltd Simultaneous sharing of system resources by multiple input devices
SE528839C2 (sv) * 2006-02-06 2007-02-27 Mats Hillborg Melodigenerator
US20080000345A1 (en) * 2006-06-30 2008-01-03 Tsutomu Hasegawa Apparatus and method for interactive
US9251637B2 (en) * 2006-11-15 2016-02-02 Bank Of America Corporation Method and apparatus for using at least a portion of a one-time password as a dynamic card verification value
US20080200224A1 (en) 2007-02-20 2008-08-21 Gametank Inc. Instrument Game System and Method
US8907193B2 (en) * 2007-02-20 2014-12-09 Ubisoft Entertainment Instrument game system and method
US20080223199A1 (en) * 2007-03-16 2008-09-18 Manfred Clynes Instant Rehearseless Conducting
US8678896B2 (en) 2007-06-14 2014-03-25 Harmonix Music Systems, Inc. Systems and methods for asynchronous band interaction in a rhythm action game
JP2010531159A (ja) 2007-06-14 2010-09-24 ハーモニックス・ミュージック・システムズ・インコーポレイテッド ロックバンド疑似体験システム及び方法。
US8138409B2 (en) 2007-08-10 2012-03-20 Sonicjam, Inc. Interactive music training and entertainment system
WO2009105259A1 (en) * 2008-02-20 2009-08-27 Oem Incorporated System for learning and mixing music
US8827806B2 (en) 2008-05-20 2014-09-09 Activision Publishing, Inc. Music video game and guitar-like game controller
US8558100B2 (en) * 2008-06-24 2013-10-15 Sony Corporation Music production apparatus and method of producing music by combining plural music elements
WO2010006054A1 (en) 2008-07-08 2010-01-14 Harmonix Music Systems, Inc. Systems and methods for simulating a rock and band experience
US9120016B2 (en) * 2008-11-21 2015-09-01 Ubisoft Entertainment Interactive guitar game designed for learning to play the guitar
US8237042B2 (en) * 2009-02-18 2012-08-07 Spoonjack, Llc Electronic musical instruments
US7939742B2 (en) * 2009-02-19 2011-05-10 Will Glaser Musical instrument with digitally controlled virtual frets
US8465366B2 (en) 2009-05-29 2013-06-18 Harmonix Music Systems, Inc. Biasing a musical performance input to a part
US8449360B2 (en) 2009-05-29 2013-05-28 Harmonix Music Systems, Inc. Displaying song lyrics and vocal cues
US8158873B2 (en) * 2009-08-03 2012-04-17 William Ivanich Systems and methods for generating a game device music track from music
US9981193B2 (en) 2009-10-27 2018-05-29 Harmonix Music Systems, Inc. Movement based recognition and evaluation
US10357714B2 (en) 2009-10-27 2019-07-23 Harmonix Music Systems, Inc. Gesture-based user interface for navigating a menu
US8874243B2 (en) 2010-03-16 2014-10-28 Harmonix Music Systems, Inc. Simulating musical instruments
US8299347B2 (en) 2010-05-21 2012-10-30 Gary Edward Johnson System and method for a simplified musical instrument
US8562403B2 (en) 2010-06-11 2013-10-22 Harmonix Music Systems, Inc. Prompting a player of a dance game
WO2011155958A1 (en) 2010-06-11 2011-12-15 Harmonix Music Systems, Inc. Dance game and tutorial
US9358456B1 (en) 2010-06-11 2016-06-07 Harmonix Music Systems, Inc. Dance competition game
US9024166B2 (en) 2010-09-09 2015-05-05 Harmonix Music Systems, Inc. Preventing subtractive track separation
WO2012051605A2 (en) 2010-10-15 2012-04-19 Jammit Inc. Dynamic point referencing of an audiovisual performance for an accurate and precise selection and controlled cycling of portions of the performance
FR2973549B1 (fr) * 2011-04-01 2014-02-21 Espace Musical Puce Muse Dispositif permettant de jouer de la musique enregistree
WO2012171583A1 (en) * 2011-06-17 2012-12-20 Nokia Corporation Audio tracker apparatus
US10496250B2 (en) * 2011-12-19 2019-12-03 Bellevue Investments Gmbh & Co, Kgaa System and method for implementing an intelligent automatic music jam session
US9281793B2 (en) 2012-05-29 2016-03-08 uSOUNDit Partners, LLC Systems, methods, and apparatus for generating an audio signal based on color values of an image
CN104380371B (zh) * 2012-06-04 2020-03-20 索尼公司 用于生成输入音乐数据的伴奏的装置、系统和方法
US8847054B2 (en) * 2013-01-31 2014-09-30 Dhroova Aiylam Generating a synthesized melody
US9857934B2 (en) 2013-06-16 2018-01-02 Jammit, Inc. Synchronized display and performance mapping of musical performances submitted from remote locations
KR20150072597A (ko) 2013-12-20 2015-06-30 삼성전자주식회사 멀티미디어 장치 및 이의 음악 작곡 방법, 그리고 노래 보정 방법
JP6631444B2 (ja) * 2016-09-08 2020-01-15 ヤマハ株式会社 電子音響装置およびその動作方法
US10319352B2 (en) * 2017-04-28 2019-06-11 Intel Corporation Notation for gesture-based composition
GB2574429B (en) * 2018-06-06 2022-07-20 Digit Music Ltd Input device
CN110444185B (zh) * 2019-08-05 2024-01-12 腾讯音乐娱乐科技(深圳)有限公司 一种音乐生成方法及装置
CN112420002A (zh) * 2019-08-21 2021-02-26 北京峰趣互联网信息服务有限公司 乐曲生成方法、装置、电子设备及计算机可读存储介质

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US539799A (en) * 1895-05-28 William k
JPS4829416A (ja) * 1971-08-20 1973-04-19
US5177311A (en) * 1987-01-14 1993-01-05 Yamaha Corporation Musical tone control apparatus
US5146833A (en) * 1987-04-30 1992-09-15 Lui Philip Y F Computerized music data system and input/out devices using related rhythm coding
US5099738A (en) * 1989-01-03 1992-03-31 Hotz Instruments Technology, Inc. MIDI musical translator
US5403970A (en) * 1989-11-21 1995-04-04 Yamaha Corporation Electrical musical instrument using a joystick-type control apparatus
US5074182A (en) * 1990-01-23 1991-12-24 Noise Toys, Inc. Multiple key electronic instrument having background songs each associated with solo parts which are synchronized with and harmonious with the background song
US5254803A (en) * 1991-06-17 1993-10-19 Casio Computer Co., Ltd. Automatic musical performance device for outputting natural tones and an accurate score
US5245803A (en) * 1991-11-14 1993-09-21 Haag E Keith Connector means for roof panels and a method for installation thereof
JP2650546B2 (ja) * 1991-12-26 1997-09-03 ヤマハ株式会社 電子楽器
US5451709A (en) * 1991-12-30 1995-09-19 Casio Computer Co., Ltd. Automatic composer for composing a melody in real time
US5399799A (en) * 1992-09-04 1995-03-21 Interactive Music, Inc. Method and apparatus for retrieving pre-recorded sound patterns in synchronization
US5465384A (en) * 1992-11-25 1995-11-07 Actifilm, Inc. Automatic polling and display interactive entertainment system
US5440071A (en) * 1993-02-18 1995-08-08 Johnson; Grant Dynamic chord interval and quality modification keyboard, chord board CX10
US5393926A (en) * 1993-06-07 1995-02-28 Ahead, Inc. Virtual music system
US5491297A (en) * 1993-06-07 1996-02-13 Ahead, Inc. Music instrument which generates a rhythm EKG
US5464384A (en) * 1993-11-24 1995-11-07 Leonardo W. Cromartie Achilles tendon support brace
US5488196A (en) * 1994-01-19 1996-01-30 Zimmerman; Thomas G. Electronic musical re-performance and editing system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015080110A (ja) * 2013-10-17 2015-04-23 パイオニア株式会社 付加音制御装置、音響機器、および付加音制御方法

Also Published As

Publication number Publication date
EP0857343B1 (en) 1999-12-29
EP0857343A1 (en) 1998-08-12
US5763804A (en) 1998-06-09
AU7389796A (en) 1997-05-07
DE69605939D1 (de) 2000-02-03
ATE188304T1 (de) 2000-01-15
KR19990064283A (ko) 1999-07-26
DE69605939T2 (de) 2000-08-03
US5627335A (en) 1997-05-06
CA2234419A1 (en) 1997-04-24
WO1997015043A1 (en) 1997-04-24

Similar Documents

Publication Publication Date Title
JPH11513811A (ja) リアルタイム音楽作成システム
US6011212A (en) Real-time music creation
JP3309687B2 (ja) 電子楽器
JP3829439B2 (ja) アルペジオ発音装置およびアルペジオ発音を制御するためのプログラムを記録したコンピュータ読み取り可能な媒体
US20120152088A1 (en) Electronic musical instrument
EP1583074B1 (en) Tone control apparatus and method
US4757736A (en) Electronic musical instrument having rhythm-play function based on manual operation
JP3398554B2 (ja) 自動アルペジオ演奏装置
JP3656597B2 (ja) 電子楽器
JP6790362B2 (ja) 電子音響装置
US20230035440A1 (en) Electronic device, electronic musical instrument, and method therefor
JP2002297139A (ja) 演奏データ変更処理装置
JP7404737B2 (ja) 自動演奏装置、電子楽器、方法およびプログラム
JPH06124062A (ja) カラオケ装置
JP3953071B2 (ja) 電子楽器
JP4175364B2 (ja) アルペジオ発音装置およびアルペジオ発音を制御するためのプログラムを記録したコンピュータ読み取り可能な媒体
JP3879760B2 (ja) 電子楽器
JP3731532B2 (ja) 電子楽器
JP3879759B2 (ja) 電子楽器
JP3879761B2 (ja) 電子楽器
JP3870948B2 (ja) 表情付け処理装置および表情付け用コンピュータプログラム
JP2002196760A (ja) 楽音生成装置
JP2636216B2 (ja) 楽音発生装置
JPH10288989A (ja) 電子楽器
JPH0580759A (ja) 自動伴奏機能付電子楽器