JP2004506225A - 作曲装置 - Google Patents
作曲装置 Download PDFInfo
- Publication number
- JP2004506225A JP2004506225A JP2001583492A JP2001583492A JP2004506225A JP 2004506225 A JP2004506225 A JP 2004506225A JP 2001583492 A JP2001583492 A JP 2001583492A JP 2001583492 A JP2001583492 A JP 2001583492A JP 2004506225 A JP2004506225 A JP 2004506225A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- unit
- instrument
- sounds
- instruments
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003860 storage Methods 0.000 claims abstract description 53
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 12
- 230000002457 bidirectional effect Effects 0.000 claims abstract description 3
- 239000000203 mixture Substances 0.000 claims description 34
- 238000000034 method Methods 0.000 claims description 19
- ZYXYTGQFPZEUFX-UHFFFAOYSA-N benzpyrimoxan Chemical compound O1C(OCCC1)C=1C(=NC=NC=1)OCC1=CC=C(C=C1)C(F)(F)F ZYXYTGQFPZEUFX-UHFFFAOYSA-N 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 15
- 230000008520 organization Effects 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 8
- 230000002452 interceptive effect Effects 0.000 claims description 7
- 239000011295 pitch Substances 0.000 claims description 7
- 238000004519 manufacturing process Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 4
- 238000012546 transfer Methods 0.000 claims description 4
- 230000003252 repetitive effect Effects 0.000 claims description 3
- 230000006978 adaptation Effects 0.000 claims description 2
- 230000002459 sustained effect Effects 0.000 claims description 2
- 230000003213 activating effect Effects 0.000 claims 1
- 230000001174 ascending effect Effects 0.000 claims 1
- 238000012805 post-processing Methods 0.000 claims 1
- 230000000694 effects Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000006835 compression Effects 0.000 description 7
- 238000007906 compression Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 238000010276 construction Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 239000004020 conductor Substances 0.000 description 3
- 230000006837 decompression Effects 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000004576 sand Substances 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 229910001369 Brass Inorganic materials 0.000 description 1
- 241001342895 Chorus Species 0.000 description 1
- 101001050487 Homo sapiens IST1 homolog Proteins 0.000 description 1
- 102100023423 IST1 homolog Human genes 0.000 description 1
- 241000529895 Stercorarius Species 0.000 description 1
- 241000405217 Viola <butterfly> Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- OMFRMAHOUUJSGP-IRHGGOMRSA-N bifenthrin Chemical compound C1=CC=C(C=2C=CC=CC=2)C(C)=C1COC(=O)[C@@H]1[C@H](\C=C(/Cl)C(F)(F)F)C1(C)C OMFRMAHOUUJSGP-IRHGGOMRSA-N 0.000 description 1
- 239000010951 brass Substances 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- HAORKNGNJCEJBX-UHFFFAOYSA-N cyprodinil Chemical compound N=1C(C)=CC(C2CC2)=NC=1NC1=CC=CC=C1 HAORKNGNJCEJBX-UHFFFAOYSA-N 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000009940 knitting Methods 0.000 description 1
- 230000002045 lasting effect Effects 0.000 description 1
- 230000005923 long-lasting effect Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000009527 percussion Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 238000013517 stratification Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
- G10H1/0025—Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/091—Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
- G10H2220/101—Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters
- G10H2220/121—Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters for graphical editing of a musical score, staff or tablature
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/121—Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
- G10H2240/145—Sound library, i.e. involving the specific use of a musical database as a sound bank or wavetable; indexing, interfacing, protocols or processing therefor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/025—Envelope processing of music signals in, e.g. time domain, transform domain or cepstrum domain
- G10H2250/035—Crossfade, i.e. time domain amplitude envelope control of the transition between musical sounds or melodies, obtained for musical purposes, e.g. for ADSR tone generation, articulations, medley, remix
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/541—Details of musical waveform synthesis, i.e. audio waveshape processing from individual wavetable samples, independently of their origin or of the sound they represent
- G10H2250/641—Waveform sampler, i.e. music samplers; Sampled music loop processing, wherein a loop is a sample of a performance that has been edited to repeat seamlessly without clicks or artifacts
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
Description
本発明は、有利には複数の本物の楽器に対応しそれらの楽器の音もしくはサウンドを提供する仮想の楽器によりたとえば室内楽編成やオーケストラ編成などのようなアンサンブル編成で演奏可能であり該仮想の楽器により再生可能な音、音のシーケンス、音のクラスタないしはトーンクラスタ、サウンド、サウンドシーケンス、サウンドフレーズ、楽曲、作品などを、音楽作品作成中および/または作成終了後に少なくとも音響再生による支援を受けて作曲するための、ならびに音楽作品をスコアに即してまたは他のかたちで音響的に再生するための装置に関する。
【0002】
この分野における従来技術のバックグラウンドに該当する刊行物を以下に挙げる:
EP 0899 892 A2 には、たとえばミニディスクに適用されるような公知のATRACデータ編集法に対する所有権主張の伴う拡張について記載されている。この刊行物からは、そこに記述されている発明が他の多くのものと同様、ディジタル処理されるオーディオを扱うこと以外、何も示されていない。
【0003】
US 5,886,274 A には、公知のMIDI規格の所有権主張の伴う拡張について記載されており、これによればシーケンサデータつまり音楽作品の再生パラメータやサウンドデータ等を互いに結合することができ、プラットフォームに依存しない再生作品の均一性が保証される。ここでまず第1に対象としているのは、MIDIデータおよびMetaデータをインターネットを介してできるかぎり安定して配布することである。この場合、再生パラメータおよびサウンドパラメータがデータに従って組み合わせられている。サウンド再生はそのアプローチの仕方に関して慣用的なものであり、これは図1に示されている。つまり出力装置が目的にすぎず、フローチャートのソースではない。シンセサイザからシーケンサへの内容的なフィードバックは実現されていない。
【0004】
DE 26 43 490 には、今日すでに技術的に多種多様に類似したかたちで実現されているもしくは実質的にさらに発展させられたコンピュータ支援形記譜法について記載されている。当然ながらコンピュータベースの記譜は必須の特徴であるけれども、これは4/4、3/4または2/4という3つの拍節に限られている(図4参照)。
【0005】
US 5, 728, 960 A には、特に現代のリハーサルや演奏の実施方法に関連してコンピュータ支援による楽譜の表示と変換の問題点ならびに実現手法が記載されている。この場合、「仮想楽譜」がリアルタイムに作成される。「コンダクターモード」中、ビデオ記録された指揮者をブルーボックス内でプロセッサ支援により処理できるようにすることが考えており、これは図9に示されている。この場合、インテリジェントに結合されたサウンドデータベースからの仮想/合成のリアリゼーションに関しては示されていない。
【0006】
US 5, 783, 767 A には、旋律入力の制御データをコンピュータ支援により和音の出力に変換することが開示されている。これは自動伴奏の基礎を成すロジックを対象としているかもしれないけど、音楽/作曲入力とサウンドの結果との間の双方向の結合は行われておらず、あるいは少なくともそれについて考えられていない。これについては殊に図15のエントリ「Easy Play Software」に示されている。
【0007】
次に、本発明の基礎となる事柄について述べておく:
本発明の基本的な対象の1つは、予算を下げるにもかかわらずたとえばシンフォニック指向のような高度な作曲を実現することであり、つまりたとえば映画、ビデオ、コマーシャル等のサウンドトラックあるいは現代音楽を実現することである。
【0008】
実際のオーケストラによる録音演奏にはたとえばATS 350,000〜750,000のコストがかかるけれども、このような吹き込みはオーストリアあるいは他の国々の映画プロダクションの音楽予算がATS 100,000〜ATS 250,000の範囲にあるため、今日ではすでに不可能な状態である。この理由からこの分野では数年来、たいていはサンプリングMIDI(”Musical Instruments Digital Interface)テクノロジによって処理される。したがって仮想的なオーケストラ作曲のために、たとえばいわゆる ”Miroslav Vitous Library” を利用することができる。5枚のCDから成るこのライブラリはそれ自体最大規模であるしかつ最も高価なものであって現在、市販されている ”Orchester Sound Library” である。これによれば20種類の楽器あるいは楽器群が各楽器ごとにそれぞれ平均的に5つの演奏スタイルで提供されている。これによって達成される成果にすっかり信服させられるのは、作曲にあたりこのライブラリの制約された能力に自身を合わせたときである。しかし芸術家の見解からすれば、提供されたサンプラの非常に限られた範囲のものに対しいわば共同作曲家の役割を演じさせるのは満足できるものではない。それというのも作曲アイデアを制約なく置き換えることは、今日利用できる「ライブラリ」によって程度の差こそあれ、たいていは満足のいかない成果しか得られないからである。
【0009】
上述の予算の問題は周知の経験が示しているように、決してオーストリア固有の特質ではない。国際的な映画プロダクションの大部分でも今日、制約された映画音楽予算での作業を強いられている。
【0010】
その結果、映画プロダクションはすでに撮影作業中から算定された予算を守らなければならないという難問を抱えることになる。なぜならば音楽制作はポストプロダクションの範疇に属するからであり、まさにそこは節約の強いられるところである。
【0011】
多くの作曲家達は、「シンセサイザサウンドトラック」を利用したり室内楽用に編曲したりしてこの問題を解消するよう試みている。とはいえ映画の情感内容を手助けする目的で、また、当然ながら他の分野においてもやはり適切な支えが得られるようにする目的で唯一の可能性として考えられるのが、まさにフルオーケストラによる幅広い情感の多様性であることが少なくない。
【0012】
このような事例では、たとえば Vitous, Sedlacek または Jaeger などによるいわゆるクラシックサンプルライブラリ Classic Sample Library が使われることになる。
【0013】
「サンプリングされた楽器」を用いた作業における最も大事な原則は、「楽器(オーケストラ)が本物として聞こえなければならない」ことである。この原則の例外といえば人工性が意図的に望まれることであって、作曲コンセプトにおいてこれが是が非にでも行われる場合ももちろんある。
【0014】
上述の原則のこの置き換えがうまくいかなければ、その種の作曲ないしはその再生には「人工オーケストラ」というほとんど不快な名称が授けられることになる。
【0015】
そのような「人工サウンド」を生成しないようにするため本発明の課題は、その対策を講じることである。既存の「サンドライブラリ」すべてが後塵を拝する技術能力の開発のためには、この領域ですでに今日あるいは近いうちに得られる規格を利用する新しい包括的な「オーケストラライブラリ」が必要とされる。
【0016】
本発明に詳しく立ち入る前に、本発明の基礎とする新たな「サンプリングテクノロジ」の概略について手短に説明する。
【0017】
以下ではサンプラとは記憶された音をもつ仮想楽器のことであり、これを所期のように呼び出したり演奏させたりすることができる。ユーザもしくは作曲者はたとえばCD−ROMやハードディスクのようなデータ担体から、必要とされる「サウンド」つまり音色や響きなどを「サンプラ」のワークメモリにロードする。つまりたとえば、ピアノによって音もしくはサウンドのライブラリいわゆる「サンプルライブラリ」が作成され、その際、各音ごとに録音が行われ、サンプラ用に編集される。そしてユーザはMIDIキーボードまたはMIDIシーケンサに記録されたMIDIデータによって、現実のピアノの音を理想的には1:1でつまり響きに忠実に再生することができる。
【0018】
対応するクラシックサンプルつまりクラシックサウンド素材を利用できない場合、最大限理想的な状況では、慣用のプログラミングすなわちMIDIプログラミングを用いて記憶されたクラシックスコアを最終的にオーケストラ品質で再生することができる。
【0019】
ここで決定的な役割を果たすのは、記録され格納されたサウンドの品質と規模ならびにそれらの綿密な編集であり、さらに殊にディジタル分解能フォーマットである。現在入手可能なあまり満足できない素材は、従来の44100kHz/16bit分解能テクノロジで記録されてきた。しかしこの分野における技術は非常に急速に96000kHz/24bit分解能を目指して進んでいる。分解能が高くなればなるほど、聴く側の印象がいっそう納得のいくものとなる。
【0020】
そこで本発明によれば、音楽作品作成中および/または作成終了後に必要に応じて音響再生による支援を受けて作曲するための冒頭で述べた形式の装置において、以下の構成を有することを特徴としている。すなわち、
装置の音符入力ユニット(2)は少なくとも1つのインタフェースたとえばグラフィカルユーザインタフェース(3)を介して、作曲コンピュータ(1)と接続されネットワークでつながれてデータ経路形成およびデータ交換が行われ、
該作曲コンピュータ(1)は、少なくとも1つのプロセッサユニット(CPU 4)と、該プロセッサユニット(4)と接続されてデータ経路形成とデータ交換の行われる少なくとも1つのシーケンサユニット(5)と、前記プロセッサユニット(4)および前記シーケンサユニット(5)と接続されてデータ経路形成およびデータ交換の行われるサウンドサンプラユニット(6)を有しており、
前記シーケンサユニット(5)に、前記の音、音のシーケンス、トーンクラスタなどをそれらに割り当てられたサウンド定義パラメータともども供給可能であり、または該パラメータに対応するサウンド、サウンドシーケンス、サウンドクラスタなどを供給可能であり、前記シーケンサユニット(5)はそれらを入力に即した順序に従い呼び出せるように格納し少なくとも1つの相応のインタフェース(7)を介して試聴モニタ(8)、スピーカユニット(33)、スコアプリンタ(32)などへ送出し、
前記サウンドサンプラユニット(6)は、少なくとも1つのサウンドサンプルライブラリ記憶ユニット(6b)と、該ユニットと接続されてデータ経路形成およびデータ交換の行われる双方向サウンドパラメータ記憶ユニットまたはリレーショナル・サウンドパラメータデータベース(6a)を有しており、
前記サウンドサンプルライブラリ記憶ユニット(6b)は、個々の仮想の楽器または楽器群のすべての個別サウンド、サウンドシーケンス、サウンドクラスタなどにおけるディジタルまたは他の形式で存在する録音されたサウンドイメージまたはサウンドサンプル(61)を記憶して保持しており、
前記双方向サウンドパラメータ記憶ユニットまたはリレーショナル・サウンドパラメータデータベース(6a)は、該サウンドサンプル(61)各々をそれらに割り当てられそれらを記述するまたは定義するサウンド定義パラメータを、たとえばそれらのコンビネーションもしくはシーケンスとして記憶および管理しており、前記サウンドサンプルライブラリ記憶ユニット(6b)からサウンドサンプルを呼び出し、該サウンドサンプルを少なくとも前記プロセッサユニット(CPU 4)および/またはシーケンサユニット(5)へ転送し、および/または前記作曲コンピュータ(1)においてそれらの品質つまりはそれらのサウンド定義パラメータを処理することにより変更されたまたはそれらに新たに取り込まれたサウンド定義パラメータによって記述されたサウンド/サウンドシーケンス/サウンドクラスタなどを記憶、管理および転送する。
【0021】
次に、ここで用いた用語や表現について説明しておく:
音符シーケンスまたは音のシーケンスもしくはそれらに対応する「サウンドシーケンス」とは、相前後して演奏されることになる複数の音符ないしは音もしくはサウンドをもつ音楽セクションのことであり、「サウンドパラメータ」とは、そのつど望まれるサウンドシーケンスの演奏スタイルのことである。この意味について以下で手短に述べておく:個別に実際の楽器で演奏された音もしくはサウンドに基づくたとえば相前後して演奏される3つの仮想のレガートの単音もしくはサウンドが、それらの仮想の音のシーケンスが実際の楽器で演奏された音のシーケンスに基づいているかのように鳴り響くか否かで、聴き手の印象に相違が生じる。音符ないし音のクラスタもしくはサウンドクラスタとは、1つの楽器で同時に演奏される2つ以上の複数の音符もしくは音ないしはそれらの音に対応するサウンドのことであって、つまりたとえば3和音においてそれに属する「サウンドクラスタパラメータ」は、一例として3和音の「アルペジオ」演奏を定義する記述パラメータとなる。接続詞「および/または」によって個別サウンド、サウンドシーケンスおよびサウンドクラスタが個別にあるいはそのつど望まれる何らかの組み合わせで表されることになり、たとえば速くレガートで演奏されるアルペジオ和音のシーケンスという具合である。このような煩わしいパラフレーズを避けるため、以下では簡略化した用語「サウンド定義パラメータ」を用い、あるいは簡単にするため単に「パラメータ」を用いる。
【0022】
本発明による新しい作曲コンピュータに統合されている双方向サウンドパラメータ記憶ユニットもしくはその基礎となるソフトエアは本発明の重要な核心を成しており、これは基本的に入力制御ユニットとサウンドサンプルライブラリ記憶ユニットつまりサウンドサンプルデータベースとの間に挿入接続されたサブマシンを成しており、これは記憶ユニット内に数多くはサウンドイメージもしくはサウンドサンプルとしてたとえばディジタルサウンドエンベロープにより定義されて記憶されたサウンド、サウンドシーケンス、サウンドクラスタ等のためのものである。
【0023】
本発明による新しい装置およびその技術によって初めて、本物のオーケストラおよび/または本物の楽器奏者といっしょに作業する機会のない作曲者に対し、ことのほかユーザフレンドリーであり作曲者の作業からコーディング等の負担をもはや取り除いたツールを提供することができるようになり、このツールにより作曲者の作成するサウンドは本物のオーケストラサウンドにかぎりなく近づくことになる。
【0024】
本発明の基本コンセプトならびにその変形実施形態における主要な利点を以下に挙げる:
本発明により、様々な「楽器」およびそれらの演奏バリエーションを明快にかつ直感を遮ることなく処理できるようになる。また、ユーザすなわち作曲者に対し初めて、一般的なオーケストラスコアに実質的に対応する処理平面が提供される。これにより個々の個別楽器の演奏バリエーションが100個に及ぶのにもかかわらず、「リニアに」つまりただ1つのトラックで作業できるようになる。
【0025】
さらに本発明によれば最適な自動的「インテリジェント」バックグラウンドプロセスによって、たとえば反復やレガートフレーズやグリッサンドなど音のシーケンスにおける自動化された時間圧縮および時間伸長によって、作業の軽減がもたらされる。
【0026】
これにより作曲プロセス中もしくは作曲が進展いく際にいつでも、すでに作成された音やサウンドのシーケンス、オーケストレーション等に関する見通しを得ることができ、また、目下入力した音符やサウンドを規定するその音符のパラメータに関する情報も得ることができる。この場合、即時の視覚的コントロールそして音楽の作曲にはまさに重要であるようにダイレクトな音響的コントロールのために、音響再生システムを試聴装置として提供することができる。
【0027】
新たに作業セッションが行われるたびに双方向データベースとして編成されたシーケンサユニットのサウンドサンプルは、それらの定性的パラメータを「サウンドサンプル記述パラメータ」として伝達し、しかもそれを常に更新し、そのようにしてシーケンサユニットとサウンドサンプルライブラリ記憶ユニットを双方向でインタラクティブに関連させることができる。
【0028】
本発明による新しい装置の単純化された形態が請求項2に示されている。
【0029】
本発明による作曲装置の「内部組織」に関して、請求項3記載のように楽器のメイントラック・サブトラック階層を伴う双方向サウンドパラメータ記憶ユニットのソフトウェアが好適であり、その際、請求項4に記載されているようにサブトラックをレベルで構造化することでそれらの特別なサービスを果たすことができる。
【0030】
有利には特別な形態として、請求項5記載の構成ないしはそれに類似した構成を設けることができる。
【0031】
さらに有利であるのは音や音のシーケンス、音のクラスタないしはトーンクラスタならびにそれらのパラメータをサンプルデータベース内で同等の権利で並置して構成することであるが、請求項6に記載されているようにこのデータベース内で階層構造をとるのも有利である。
【0032】
作曲者やアレンジャー等にとって快適な作業の進行を提供する点で有利であるのは、作曲コンピュータが請求項7記載のスコアソフトウェアを有することである。
【0033】
請求項7記載のように択一的または付加的に、楽器の音域またはサウンド範囲のためのソフトウェアもしくはそれを定義するためのソフトウェアがコンピュータに組み込んで、個々の楽器により演奏不可能な音を作曲すると作曲者に適切な警告を与えるようにすれば、快適性や効率的な作業の点で重要なステップが実現される。
【0034】
楽器または楽器群もしくは仮想のオーケストラ全体のサウンド効果におけるスペクトルを、たとえば倍音の融合が様々な「やり方」で再生されるよう拡張する目的で、つまりたとえばそのオーケストラに対し様々な演奏空間、コンサートホール、教会の空間、場合によっては屋外の空間などにおける聴き手の印象、さらにはそこにおける様々な楽器配置、聴き手のポジションにおいて聞こえる印象、ハードまたはソフトなサウンドイメージ等を与える目的で、これらのことに対応するサウンド(後)処理ソフトウェアを作曲コンピュータに組み込むと格別に有利であり、これについて請求項8記載の構成を参照すると、そこに示されているように、ダイナミックを所期のように選択するために格別有利であるのは、択一的または付加的にそれに対応するソフトウェアユニットを設けることである。
【0035】
速い音の反復および速いレガート音シーケンスを聴いたときのリアリティに実質的に完全に適合する作品再生のために、請求項9記載の相応の択一的または付加的なソフトウェアユニットをそこに開示されている第1の実施形態において用いることができる。
【0036】
仮想楽器もしくはその再生品質において殊に現れて障害を及ぼすことの多い問題点として挙げられるのは、サウンドサンプルライブラリにサウンドが記憶されている種々の本物の楽器の音量や音量範囲がそれぞれ異なることである。編成に関して様々なかたちで楽器の合奏が行われる場合、音量の大きい楽器が音量の小さい楽器を「打ち負かして」してしまうことになる。さらに択一的または付加的に設けられている請求項9記載の有利なソフトウェアによってこの問題に対処することができ、それによれば音量の整合ないし適合が可能となり、したがって望まれるときに「音の大きい」楽器と「音の小さい」楽器との間の自然なダイナミック差が保持されたままになる。もちろんこのように構成された装置によって、エキゾチックなサウンド効果を醸し出すため音量の「逆転」を生じさせることもできる。
【0037】
これまでの説明でしてきたとおり、本発明は実際のオーケストラ楽器のサウンドの録音による包括的なディジタルのサンプルつまりライブラリをベースとしている。この録音サンプルは、本発明の中核を成す双方向サウンドパラメータ記憶ユニットもしくはリレーショナルサウンドデータベースにより組織的構成が与えられもしくは管理され、それによって相互間の定性的な結合も実現されるし、制御ユニットの機能を果たす記譜入力ユニットおよび/またはシーケンサユニットとの結合も可能となる。このような新規の双方向の結合によって音楽作品作成中もそれと同時にもしくは時間的にずらせて再生するときも、制御データを上述の制御ユニットからサウンド発生部へ伝達できるようになるばかりか、サンプラユニットから上述の制御ユニットへ情報をインタラクティブにフィードバックすることも可能となる。
【0038】
従来の一般的なMIDIシーケンサとサンプラとのコンビネーションでは、たとえば指定したMIDI命令によって所望のサウンド結果も得られたことをユーザが自発的に確認しなければならなかったのに対し、本発明による装置の基礎を成すシステムによればまったく新しいやり方で、双方向記憶装置に格納されそこから伝達されるそもそもはサウンドサンプル記憶装置において利用可能な単一サンプルの特徴もしくはパラメータ(サウンドサンプル定義またはサンプル記述パラメータ)に基づき、内容的に正しい迅速な選択が行われるようになる。つまりストレートにいえばここで保証されるのは、たとえばヴァイオリンによりソロとしてメゾフォルテでという具合で演奏されるGが実際にもそうようなものとして再生されることである。場合によっては想定される異議等は、手間をかけてプログラミングされるMIDIプログラム交換命令によって実現可能かもしれないが、殊に慣用のMIDIシーケンサは利用可能なサウンドデータに関して定性的なフィードバックメッセージを得ることはまったくできないので、空回りに終わってしまう。
【0039】
しかも本発明による装置において制御ユニットとサウンド発生部との間に初めて設けられたインタラクティブなフィードバックによって、フレーズサンプルを有効に利用できるようになる。つまりシーケンサユニットはサンプル記憶装置データベースから伝達されるパラメータに基づき、サンプリングされた単音の代わりに整合された完全な音楽フレーズに択一的にアクセスすることができ、たとえば反復あるいは速いレガートのパッセージにアクセスすることができるので、それを初めて実際にリアルにシミュレートすることができる。また、新しい装置内に統合された結合によって、たとえばフレーズサンプルを作品のテンポに合わせるというような目的で、DSP支援されたプロセスたとえば時間の引き伸ばしなどを自動的に投入できるようになる。
【0040】
さらに新しい双方向サウンドパラメータ記憶ユニットを用いてサウンドデータベースを定性的にパラメータ化することで、制御ユニットの機能を損なうことなく利用可能な楽器群をたとえば民族楽器や古楽の楽器などによって将来的に補うことも可能となる。なぜならばサウンドパラメータデータベースは(そのようにして拡張された)特徴を、遅くとも次のシステムスタートルーチンにおいて既述の制御ユニットに伝達することができるからである。
【0041】
一例としてつまり完全にこれを満たす必要はないが、単一のヴァイオリントーンもしくはヴァイオリンサウンドに割り当て可能でありそれを最終的に実物に近く聞こえるよう定義する多数のパラメータを挙げておく。
【0042】
バリエーションの個数:
1.編成:たとえばユニゾンコンビネーションつまりたとえば1本、4本または10本のヴァイオリン 3
2.メイン演奏スタイル:弱音器つきまたは弱音器なし 3×2=6
3.演奏スタイル:たとえばアルコ、ピチカート、トレモロ等 6×6=36
4.サブ演奏スタイル:たとえばアルコ、柔らかく、硬く、短く、飛ばしてなど 36×4=144
5.微調整:たとえばヴィブラートをたくさん、ヴィブラートを少し 144×2=288
6.ダイナミック段階(3段階とする) 288×3=864
このことが意味するのは、単一の音について864個のバリエーションを利用できるということであり、つまり864個のサンプラシーケンスを利用できるということである。したがって22個のトーンのヴァイオリントーンの規模であれば最終的に22×864=19008個の単一サンプルが得られ、これは反復や速いレガートフレーズなどのサンプルシーケンスがまだない状態でのことである。
【0043】
このように膨大な数の「サウンド」ゆえに、これまで利用することのできたサンプラおよびこれまで利用されてきたMIDIテクノロジをどうしても整合させる必要があり、そのようにすれば作曲者は膨大な数のサンプルデータやその変形とそのつど個別にじかに取り組まなくても済むようになる。
【0044】
本発明の本質は、シーケンサユニットおよびプロセッサユニットとじかに結合されているサンプルライブラリの最小要素としてサンプルを取り扱うことである。つまりシーケンサユニットの基礎を成すシーケンサソフトウェアはスタート(ブート)シーケンス中、各サンプルの既述のパラメータに関する情報を取得し、それを作業セッションの以下のプロセス中、構造化されたかたちでユーザが利用できるようにするのである。
【0045】
したがってユーザがたとえば音符をトランペット用の「トラック」で作曲する場合、たとえばサンプルライブラリレンジ「トランペット」からのいくつかのサンプルだけがその対象とされる。ユーザがそれらの音符に対しダイナミック記号「ピアノ」を割り当てるならば、いくつかの「トランペット・ピアノ・サンプル」だけが用いられる、という具合である。
【0046】
結合基準を単一サンプル名によって定義することができ、制約されるものではないがたとえば以下のように構造化することができる:
”Vn10SsALVmC4PFg2”
この意味は以下のとおりである:
Vn ヴァイオリン群
10 10本のヴァイオリンによるアンサンブル
Ss センツァ・ソルディーノ
A アルコ
L レガート
Vm ヴィブラート中庸
C クレッシェンド
4 4秒の長さもしくは期間
P 開始ダイナミック ピアノ
F 終了ダイナミック フォルテ
g2 音の高さ
以下の実施例は本発明を詳しく説明するために用いられるものであり、それによれば提供される利用可能な大量のもののうちいくつかの重要な可能性やバリエーションだけを示しており、それらはそもそも本発明による双方向にデータベース結合されたサンプラ・シーケンサ・テクノロジによってはじめて実現されるようになったものである:
実施例:
次に、シーケンサユニットのソフトウェアの基礎を成すコンセプトを以下の例に基づき説明する。この場合、サンプルライブラリつまりサンプルデータベースに固有のトラッククラスが割り当てられる。
【0047】
この場合、たとえば出荷時に設けられている13個のメイントラックが存在する:
1.フルート
2.オーボエ
3.クラリネット
4.ファゴット
5.トランペット
6.ホルン
7.トロンボーン
8.チューバ
9.弦楽器
10.合唱
11.ティンパニ
12.打楽器
13.ハープ&木琴・鉄琴類
グラフィックエディタにおいて作曲者はメイントラック(HT)から楽器サブトラック(IST)を生成し、ここで弦楽器においてはたとえばスタンダードプリセットは以下のようになる。
【0048】
I.「出発例」:4分音符=110(テンポ設定)
【0049】
【外1】
【0050】
オーケストレーションに従いメイントラック(HT)の音符が個々の楽器サブトラック(IST)に割り当てられる。もちろん上述の楽器サブトラックに直接、作曲した旋律を記録したりインポートしたりしてもよい。
【0051】
この実施例では弦楽器メイントラックの一連の音符(休止)(フレーズ)は楽器サブトラック ヴァイオリン1に割り当てられる。
【0052】
ここでサウンドパラメータユニットは自動的にもっぱらサンプルライブラリのヴァイオリンサンプルにアクセスし、作曲者の作曲した特定の音が選択された楽器の通常の音域を超えることになるならば、識別子や備考によってそのことを作曲者に注意することができる。
【0053】
このとき音符をクリックすると、以下のポイントをもつメインメニューが表される:
(サブトラック1、ヴァイオリン1、4分音符=110)
【0054】
【外2】
【0055】
このサブトラック1(IST1)の行は、上方のメイントラック(HT)である弦楽器と同じ「旋律」を有しているが、「低すぎる」音符がコンピュータの音域ソフトウェアによりそのような音符としてたとえばアンダーライン等により指示される。なぜならばそれは演奏不可能だからである(上の括弧を参照)。
【0056】
また、上記の「旋律」の最初の音符に対し、モニタにおいて音符の行の下にたとえば以下のものが現れる:
メインメニュー
楽器パラメータ
ダイナミック
反復デテクタ
速いレガートデテクタ
特色
(メイン)メニュー「楽器パラメータ」によって「サブトラック1」楽器の編成、演奏およびアーティキュレーションを定義することができる。このメニューはデータツリーの原理に従うものであり、各楽器ごとに固有に構造化されている;このメニューは結局は、データベースから引き渡されたサウンドサンプル定義パラメータもしくは「サンプル記述パラメータ」により(以下では単にしばしばサウンドパラメータまたは単にパラメータと称する)により決定される。
【0057】
ヴァイオリンの場合にはこの構造化はたとえば以下のフォームをもつことができる:
【0058】
【外3】
【0059】
さらに別の3つの例II〜Vを挙げておく:
【0060】
【外4】
【0061】
本発明による装置に設けられている双方向サウンドパラメータ記憶ユニットを上述のように新しい形式で複数のレベルで構造編成することの利点は、二重の流れが生じることがなく、1つの特定のレベルにおける1つの特定の行の選択によって、次のレベルの以下のような選択しか与えられないようになる。すなわちその選択とは、先行のレベルのクリックした行に対応するものであり、その行に関してはもはやまったく問題とはなり得ないような選択だけしか与えられないようになる。
【0062】
このような形式の構造化もしくは階層化によれば、楽器もしくは楽器群各々の固有の特異性および構造がそれぞれ最初から扱われ、個々の楽器または個々の楽器群を提供可能な「変数」ばかりが作曲者に対し与えられるようになる。
【0063】
したがって、常にデータツリーの最後まで選択する必要はもはやない。この場合、常に最上位レベルが基本設定とみなされる。特定の演奏スタイルが選択されると、該当する選択がその後ただちにメニューリストにたとえばアンダーラインや太字などで現れ、それと同時に自動的にその記号が選択された最初の音もしくはサウンドの上にセットされ、および/または音符の上のアーティキュレーション記号としてセットされる。例II〜Vによればアルコからピッツィカート(第3レベル)のように、ある特定の音符から演奏スタイルを変えたければ、「下位の」レベルすべては新たに定義しなおす必要があるけれども、上位のレベルはそのまま維持され、つまりたとえば例IVの場合:「10ヴァイオリン、センツァ・ソルディーノ」はそのまま維持される。
【0064】
V・楽器パラメータメニューの他の構造化の例としてティンパニについては以下のとおりに表される:
【0065】
【外5】
【0066】
最適化ティンパニ選択:第1レベルで挙げられたティンパニの各々には部分的に他のティンパニの範囲とオーバラップした特定の音域が含まれる。たとえばバスティンパニにとって高すぎる音がそれに対して割り当てられると、音域楽器割り当てのところですでに説明したようにソフトウェアは画像に警告を出す。
【0067】
この場合、特定の音は様々なティンパニタイプにおいてオーバラップしている。つまり作曲にあたりたとえば「大文字のA」の音程をもつティンパニトーンが選択される場合、この音はバスティンパニでも大きいコンサートティンパニでも小さいコンサートティンパニでも演奏可能である。この場合、行およびソフトウェア支援された対応オプションが手助けをする:「最適化ティンパニ選択」:これによれば各ティンパニのうちから最もよく聞こえる音域が利用される。
【0068】
レベル3とレベル4における様々な演奏スタイルはすべてのティンパニおよびすべてのばちタイプに該当しており、したがって同一のデータベース構造を有しているので、聞こえた印象からそれぞれ最適なバリエーションを見出す目的で、編集し終えたティンパニ音をレベル2の各ばちタイプ間で問題なく切り替えることができる。
【0069】
「ダイナミック」ソフトウェア:
10本のヴァイオリンによる出発例に戻る。ヴァイオリンには「10ヴァイオリン、コン・ソルディーノ、レガート、ヴィブラートなし」が定義されいて、こんどはダイナミックを割り当てる。
【0070】
【外6】
【0071】
各音符に対したとえば以下で示すようなメインメニューが現れる:
【0072】
【外7】
【0073】
この場合、最初の音符つまりdが選択され、メインメニューからダイナミックが選択される。データツリー構造によってやはり様々なオプションへと導かれる:
第1レベルでは「スタティック」が選ばれ、第2レベルでは「ピアノ」が選ばれる。するとこのエントリは次のエントリまで後続の以下の音符について適用される。ついでこの部分における10番目の音符つまりGが選択され、第1レベルでは「プログレッシブ」が選ばれ、第2レベルでは最初と最後のダイナミックが決定される。
【0074】
その後、作曲コンピュータは自動化された「圧縮・伸長ツール」もしくは対応するソフトウェアをはじめて適用する。つまり「10バイオリン/コン・ソルディーノ/ヴィブラートなし/クレッシェンド/最初はp最後はf/」というサンプルを適用する。
【0075】
これはサンプラデータベースにたとえば4つの長さで格納されており、つまり4秒、2.66秒、2秒、1.33秒で格納されている。選択された音Gつまり2分音符+4分音符=3つの4分音符はテンポ110であれば1.63秒の長さとなる。
【0076】
いま述べたソフトウェアはサウンド定義パラメータもしくはサンプル記述パラメータに基づき自動的に、1.33秒の長さをもつ最も適合したもしくは次に適合したサンプルを識別して相応の係数1.226だけ延ばし、その結果、上述の10番目の3つの4分音符に対し1.63秒となる。このプロセスはソフトウェア制御されてバックグラウンドで実行され、装置のユーザが気づくことはない。
【0077】
特定の楽器において定義された演奏スタイルではデータベースに設定されていないダイナミックの変化が望まれる場合、たとえば「ヴァイオリン トレモロ スル・ポンティチェルロ ppp−fff」が望まれる場合、コンピュータもしくはそれに対応するソフトウェアは最も適合するつまりすぐ次に来るサンプル「クレッシェンドpp−ff」が選択され、自動的に挿入されるメインボリュームカーブでそれを増幅する。
【0078】
上述のこの「クレッシェンド」の後、この例におけるすべての後続の音符に対しダイナミックfが割り当てられる。しかし作曲者がその後、たとえばダイナミックpに戻したいのであれば、作曲者はその値を次に続く対応する音符のところで新たに定義する必要がある。
【0079】
最後に、やはり好適である「ダイナミック・フリー・パラメータ」について説明する:
これは複数のダイナミック変化をもつ(長い)「持続音」のためのソフトウェア機能である:
後続の一連の音符では、最後の2つの音符が2つの4/4拍子にわたり「持続する全音を成す旋律となっている:
【0080】
【外8】
【0081】
この例において所望の音が選択される:つまり2つの4/4拍子にわたる長い「持続音」が選択される。その後、クリックによりプログラム機能「ダイナミック/フリー」が選択される。長いd′の下に上述のタイムパターンが現れ、これは8単位の音の長さに分けられ、この事例では8個の4分音符に分けられる。ユーザは「もっと詳しく」または「あまり詳しくなく」というオプションを有しており、したがっていっそう低い「2分音符分解能」またはいっそう高い「8分音符分解能」でタイムパターンを表すことができる。
【0082】
さらにユーザは周知のスタティックな符号(ppp〜fff)をリストから選ぶことができる。この場合、ユーザはたとえば第1および第3のパターンポイントつまりタイムパターンの数字1と3に記号pをセットし、つまりこの音は3番目の4分音符までピアノである。5番目のパターンポイントに記号fがセットされると、2つの4分音符にわたり2小節目の最初の音までフォルテに向かってクレッシェンドが行われ、6番目のパターンポイントでpにセットされ、したがっていわばfp効果が得られ、続いて最後のパターンポイントでfffにセットされる:これにより最後の3つの4分音符の長さにわたり強いクレッシェンドが生じる。この場合、シーケンサは圧縮伸長ツールおよびクロスフェードツールを使用して、対応するセット「サンプル記述パラメータ」とともに新しいサンプルを生成する(この新しいサンプルは選択的にこの作業セッションの終了後に消去されるかまたは、リレーショナルデータベースに持続的に格納され、以降の作業セッションのときに利用される)。
【0083】
この音符の行は以下のイメージとなり、持続音の下にはダイナミック記号p<fp<fffが記される:
【0084】
【外9】
【0085】
「反復検出」ソフトウェア
想定:トランペットパッセージがすでに相応のアーティキュレーションとダイナミックの記号とともに設定されている。
【0086】
トランペット1:
【0087】
【外10】
【0088】
想定:
この例における音符の行にはそれぞれ異なる高さで3回、3つの音が含まれており、その際、これら3つの音の各々ごとにそれぞれ相前後して3回、同じ音が演奏され、このことはまさにトランペットファンファーレについて非常に典型的な反復を成すものである。一般にこのような反復は、これまでに知られている利用可能なすべてのプログラミングにおける大きな弱点となっている。その場合、この種の反復の対象となるたった1つのサンプルだけしか存在せず、それが相応に必要とされるつまり作曲された回数だけ繰り返される。このような音の連続が頻繁にかつ速く鳴り響くようにすればするほど、聴く側の印象はいっそうつっかえたようにそしていっそう人工的なものとなる。このような事例のために本発明に従い編成されたサンプルライブラリ「反復サンプル」が設けられている。これによれば2回、3回、4回、6回の反復、あるいは1回、2回、3回のアウフタクトの反復がテンポとダイナミックとアクセントについて細分化されている。
【0089】
反復検出の原理はおおよそテキスト処理プログラムの正書法チェックに相当するものである。
【0090】
ユーザは反復サンプルによって処理をしたい音符の反復範囲を選択し、ついでメインメニューから上記の3番目のエントリである「反復デテクタ」を選択する。サブメニューによって、自動的につまり出荷時プリセットに対応させるのかまたは手動で行うべきかの選択を行うことができる。手動モードの場合、シーケンサプログラムは選択範囲を分析し、可能な反復シーケンスすなわち以下の音符の行をマークする:
【0091】
【外11】
【0092】
速いレガート(”FAST LEGATO”)検出ソフトウェア:
相前後する速いレガートの音符は反復と類似の問題を成すものである。単音のサンプルを用いても、納得のいく速いレガート演奏をシミュレートすることはできない。この場合、サンプルライブラリには2つ、3つ、4つの音の連なりが設けられている。それらは速いレガートサンプルをもつ楽器においてたとえば約500〜2500の単一サンプルフレーズとすることができる:半音階および全音階のフレーズおよび分散3和音。
【0093】
サンプリングされコンピュータもしくはサウンドサンプル記憶装置に格納されているこれらのレガートフレーズのオリジナルテンポは、たとえばテンポ160において16分音符の音価である。したがって前述の圧縮伸長ツールを用いて8分音符の3連符を171〜266までのテンポに、16分音符のパッセージを128〜200までのテンポに、16分音符のパッセージを128〜200までのテンポに、16分音符の3連符を86〜133までのテンポに、さらに32分音符のパッセージを64〜100までのテンポに変換することができる(5連符や6連符もこれとまったく同様)。
【0094】
フルートソロ
【0095】
【外12】
【0096】
上述の音符の行にはこのプロセスが表されている。
【0097】
アクティブにされた後、シーケンサユニットは選び出された部分をスキャンし、対象とするすべてのパッセージがマークされる(音符列NZ参照)。さらにシーケンサユニットは1つの音符シーケンスだけしかもたないサブトラックSTを生成し、そのトラックににおいてコンポーネントシステムの分配が目に見えるようになる。ユーザはこの音符イメージに基づき、どのようにして2倍、3倍、4倍のシーケンスから、および場合によっては単音によって、所望の速いレガートシーケンスが構築されるのかを分析することができる。
【0098】
「スペシャル」オプション(スペシャルツール)
このオプションによってユーザに対したとえば以下のようなスペシャル応用リストが現れる。
【0099】
【外13】
【0100】
「クロスフェード・パラメータ」
この機能は、同じ音の高さをもつ隣り合う2つの音に対しそれぞれ異なる楽器パラメータを割り当てようとするときにアクティブにすることができる。
【0101】
【外14】
【0102】
(1)秒単位のフェードの長さ
(2)2番目のサンプルの始点を任意に定義することができる:1番目のサンプルの終点はその音符の長さによって定義される。
【0103】
(3)によって新たな単一サンプルを記憶し、あとになってそれを固有の「サウンド」として用いることができる(上記参照)。
【0104】
(4)はサンプルシーケンスのすべての音においてそれぞれ設定されたパラメータを使用するが、これは音の高さごとにであり、それを固有の「楽器」として記憶することができ、それによりその「楽器」は「ユーザ生成」として楽器パラメータに現れる。
【0105】
(5)「楽器として記憶」のようなものであるが、利用可能なすべてのダイナミックランクも考慮される。
【0106】
サンプル1:10ヴァイオリン:「スル・ポンティチェルロ/トレモロ」
サンプル2:10ヴァイオリン:「トレモロ」
「クロスフェード」の規定された長さに従い、音響効果は駒から通常のポジションへのトレモロ中の滑らかな弓の変化に対応する。
【0107】
ユーザがこのツールの能力をそのプログラミングにおいて考慮すれば、無限の個数の新たなサンプルを生成することができる。
【0108】
アンサンブルコンビネーション:
本発明によるシステムには有利にはアンサンブルスタンダードコンビネーションつまりたとえばユニゾンやオクターブ移動のサンプルシーケンスが含まれている。
【0109】
ここでユーザがたとえばヴァイオリンを数小節選択してメニュー「アンサンブルコンビネーション」を呼び出すと、たとえば可能な組み合わせのリスト「ヴァイオリン・オクターブ移動、3本のフルートユニゾン、8本のヴィオラ・ユニゾンおよびオクターブ移動」などが現れる。この選択肢のうちの1つが選ばれると、コンビネーション楽器トラックにスペシャルとマークされた一連の音符が現れ、その際には個々の「マザー楽器」の参照指示といっしょに現れる。
【0110】
アンサンブルコンビネーションメニューのさらに別のオプションを「自動検出コンビネーション」とすることができる。これによればシーケンサは可能なユニゾンまたはオクターブのコンビネーションをサーチし、それをデータベースから伝達された「アンサンブルサンプル」と置き換えることができる。
【0111】
オーケストラコンストラクションセット
このセットはアンサンブルコンビネーションの1つの実施形態を成している。その相違点は、この場合にはもはや単音ではなく、単純な終止和音から本当のクラスタなどのような特殊効果まで和音シーケンスおよびリズムシーケンスが取り扱われることである。
【0112】
ユーザがこの機能をアクティブにすると、シーケンサは固有のオーケストラトラックを生成し、そのトラックにサンプルを配置させることができ、その際に2つのコンストラクションセットバリエーションを存在させることができる。
【0113】
A)サンプルベースのオーケストラコンストラクションセット:
この場合、ユーザはまえもって形成され記憶されているステレオサンプルを探す:サンプルが選ばれると、ゴーストパートのようにやはり種々の楽器トラック上にこのサンプルの記譜が現れる。
【0114】
B)ミディソフトウェアベースのオーケストラコンストラクションセット:
まえもって作成されたミディファイルが用いられる:これがオーケストラトラック上に配置される場合、個々の楽器トラックにおける記譜は「リアル」であり、その場合、ユーザはあとからさらにアレンジすることができる。さらに固有のコンストラクションセットを生成してそれらを記憶することもできる。
【0115】
「ホールフィルタ・ステレオ分配・弱/強圧縮」ソフトウェア:
(ホールフィルタリング・プラニング圧縮)
サンプルとシーケンサとの間の連結をホールパラメータおよびホールフィルタというかたちで発展させることもできる。つまり余韻効果プログラムは、何が余韻を残すかの情報をもっている。プログラムは作品のいかなる時点においても、シーケンサユニットで決められた楽器の選択、演奏スタイル、ダイナミックな割り当て等について情報を有している。適切なアルゴリズムを用いることでホールソフトウェアは、コンサートホール内で生じるオーケストラの倍音の融合をシミュレートし、それに応じて本物のように作用するサウンドイメージを生成する。基礎を成すアルゴリズムはたとえば、生でサンプリングされたユニゾンコンビネーションとシーケンサユニットで合成されたコンビネーションとの差異に基づく。したがってたとえば種々のサウンドイメージ:
フルート・ソロ
オーボエ・ソロ
フルート−オーボエ・ユニゾン・生
フルート−オーボエ・サンプラで合成
の差分分析からアルゴリズムを導出することができ、それらは様々な楽器やダイナミックのコンビネーションで作成される。
【0116】
別の例として、低音のティンパニの打音がコントラバスに及ぼす共振作用を考慮するソフトエアを挙げることができる。この場合、コントラバスの胴はいわばティンパニの共振増幅器の役割を果たす。ティンパニとコントラバスのユニゾンコンビネーションにおいては付加的な「サウンド融合」が発生する。つまりアンサンブルにおいてティンパニがコントラバスなしで演奏されると、ティンパニのサウンドスペクトルにおける相違が著しく顕著になる。すでに簡単に説明したように、ホールソフトウェアはコントラバスが場合によっては存在することあるいはユニゾンコンビネーションに関する情報をもっており、それをサウンドイメージ計算に考慮することができる。
【0117】
最良にはグラフィック指向の最適なホール/フィルタソフトウェアは、複雑な技術的パラメータなく基本的に以下の視点に従って構築されている:
1.コンサートホールを「世界最高のコンサートホール」のプリセットにより定義する。
【0118】
2.オーケストラを配置する。つまり楽器の空間分配を定義する。
【0119】
3.聴き手を配置する等。これはたとえば指揮者から個々の「ホール」における最終列までのポジションなどによって行われる。
【0120】
4.ダイナミックレンジを定義する。これはたとえば圧縮の僅かなクラシックCDレンジから最高圧縮のスポットコマーシャルまでというように行われる。
【0121】
5.サウンド特性を定義する。これはたとえば「ハード」から「非常にソフト」という具合に、しかも適切なフィルタおよび対応する楽器やサウンドイメージ全体のレベル増強によって行われる。
【0122】
ミキシング・ダイナミックソフトウェア:
ミキシング調整:
様々な楽器および楽器群相互間の音量比の処理は複雑な課題である。1本のフルートのff音は3本のトロンボーンのff音よりもはるかに小さい。本発明による装置においてこの理由で重要な要素は、すべての楽器相互間の自然なダイナミック比を精確に維持することである。もちろんユーザの目的のためにそれをやめてしまうこともユーザの自由である。
【0123】
この目的を達成する目的で、サンプル録音にあたり精確なダイナミック記録が実行される。fffのティンパニ打音とソロヴァイオリンのpppのトレモロ/コン・ソルディーノとの間が何dBであるかはわかっている。この情報は具体的に前述の楽器パラメータにおいて(「サンプル記述パラメータ」のかたちで)含められる。ユーザは、自身のプログラミングした音量比が本物のオーケストラの音量比と一致していると信頼してよく、あるいはユーザが既存のスコアを借用したときには、ダイナミックの指示が作曲者の意図にきちんと対応していると信頼してよい。
【0124】
さて、作曲者が室内楽的な楽器編成の作品つまりたとえば木管楽器と小編成の弦楽アンサンブルを含む作品を書こうとするならば、そのことから利用されないダイナミックヘッドルーム(dynamic headroom)すなわちダイナミックの上方スペースが生じることになる。ミキシングにおいて最適な品質を得る目的で、つまりできるかぎり高いSN比を達成する目的で、標準化機能による既製プログラミングの後で作品を最適化することができる。シーケンサユニットは作品の最大音量のサンプルをサーチし、すべてのサンプルを可能な値だけ上方に高める。もちろんこのプロセスによっても音量比には影響が及ぼされず、まえもって定められたダイナミック値は同様に維持され、つまりたとえばppのサンプルはやはりppのサンプルのままである。
【0125】
このオプションは、ライブラリ自体が標準化されている場合に可能となる。各サンプルは最大レベルで格納されている。録音にあたり記録された音量差はサンプルボリュームデータにいっしょに格納される。つまり各サンプルはいっしょに格納されたボリューム値を有している。したがってfffティンパニ打音はほぼ0dB付近となり、pppのソロヴァイオリンは−40dBのオフセットのところにある。したがってシーケンサユニットは、どのサンプルの最大のサンプルボリューム値のいずれがゼロに一番近いかを確かめればよく、それに応じてすべてのサンプルボリュームデータを上に向かって動かす。
【0126】
(外部でミキシングを行うときに)個々のオーディオ出力におけるSN比を最適に利用できるようにする目的でユーザは標準化機能を利用することができ、それによれば1つの出力に基づくすべての楽器とサンプルがそれ自体閉じられたパケットとして標準化されている。この場合、シーケンサユニットは、たとえば金管楽器がステレオ出力1、木管楽器がステレオ出力2という具合に各出力値に立ち戻ることができるよう、外部のミキシングコンソールをどのように調整すべきかについてダイナミック記録を計算する。
【0127】
ダイナミック調整:
ダイナミックコントロールのための他の特徴は、管弦楽作曲家をスコアまたはレイアウトワークステーションとみなす作曲者のためにある。つまり「本物の」オーケストラのためにはたらく作曲家たちである。
【0128】
この場合、作曲者は自身の作品をプログラミングし、すべての楽器パラメータを定義する。作曲者は最後の作業ステップまでダイナミック割り当てを残しておいた。作曲者のダイナミック割り当ての出発点はたとえばリリックなオーボエソロである。オーボエがmp〜mfの範囲内で演奏したとき、オーボエの印象が作曲者の心に最もかなう。作曲者はこのダイナミック値を一番目のものと規定する。ついで作曲者に対し自身の望む効果を達成する目的で、伴奏と装飾声部およびバス声部がどの程度の大きさをもつべきであるかについて質問が出される。
【0129】
そこでシーケンサユニットはそのために固有のダイナミックツールを提供する。これにより作曲者は、個々の声部または選択個所をいっそう大きくおよびいっそう小さくすることができる。従来の「ベロシティコントロール」との相違点は、個々のサンプルのダイナミックランクがいっしょに考慮されていることである。この実施例では作曲者は、オーボエソロが適正な度合いで現れるよう弦楽器のハーモニーの音量を抑えた。オーボエ声部以外はまだダイナミック値が決められておらず、シーケンサユニットは出荷時プリセットをもとにしているので、弦楽器のダイナミックは最初はほぼmfに相応している。所望のサウンド結果が達成されるまで作曲者が弦楽器を抑えた後、弦楽器はたとえば中庸のpp値に到達した。作曲者はウィンドウを閉じ、その後、弦楽器声部のところには自動的にダイナミック指示ppがセットされる。この動作をもちろん以前に設定されたクレッシェンド値およびデクレッシェンド値に適用することもできる。つまり作曲者に対し、自身のダイナミック指示が最終的にコンサートホールにおいて作曲者の望む効果を達成することになる、ということが保証される。
【0130】
このような「ダイナミックコントロール」により、1つまたは複数の楽器を選択したときまたは楽器全体の規模において種々の作業プロセスを短縮し軽減する以下の可能性がユーザに対し与えられる。
【0131】
ダイナミックコントロール
だんだんと大きく 1)
だんだんと小さく 2)
ソロ楽器のダイナミックを維持 3)
ソロ楽器のダイナミックを高める 4)
ダイナミックを拡げる(伸長) 5)
ダイナミックを狭める(圧縮) 6)
最大音量 7)
最小音量 8)
1),2)は前述の説明の機能。
【0132】
3)「選択されていない」すべての楽器がだんだんとダイナミックに低減される。
【0133】
4)「選択された」楽器が最大値に達したとき、その楽器のダイナミックが高められる。これは「ソロ楽器のダイナミック維持」のような機能である。
【0134】
5)は楽器の最小および最大のダイナミック記号に対応し、差をだんだんと大きくし、ダイナミック記号が自動的に改められる。
【0135】
6)「ダイナミックを拡げる」と逆のプロセス。
【0136】
7)最小のダイナミック記号に対応し、相応する可能な値だけ最大レベルに向かって高められる。
【0137】
8)最小のダイナミック記号に対応し、相応する可能な値だけ低減される。
【0138】
本発明による装置の基礎とするハードウェアについて以下で簡単に説明する:
記憶容量:
本発明に従って設けられている双方向サウンドパラメータ記憶ユニット内で編成されているオーディオサンプルは、装置の固定的な構成部分である。約125Gbitのところに、ユーザ用のサンプルが直接は変更できないかたちで格納されている。ただ1つのアクセス権限をもつものはシーケンサユニットのソフトウェア自身である。サンプルはたしかに従来どおり Velocity & Mainvolume などのような基準により作用を及ぼされるが、シーケンサソフトウェアはオーディオトラックにおけるように、個々の作品に必要とされるサンプルを事前にバッファリングすることができるので、極端に大容量のRAMメモリは相応に高速なハードディスクであれば必ずしも前提条件とはならない。
【0139】
本発明を完全に利用するために用意したい最低限の装備は、8個の理想的には16個のステレオ出力である。この場合、96kHz/24bitの分解能で処理されるので、このデータレートを受け継ぐのが当然である。このためにはそれ相応の高級なディジタルコンバータが必要とされ、種々のディジタル出力バリエーションつまり44100、48000もしくは96000kHzのオプションが前提条件となる。
【0140】
次に、図面を参照しながら本発明について詳しく説明する。
【0141】
図1は新しい作曲装置を示す図であり、図2は作曲プロセスのフローチャートである。
【0142】
図1に示されている作曲装置100は、ユーザつまり作曲者により自身の作り出したサウンドシーケンスないしは作品01を与えることのできる記譜入力ユニット2を有しており、このユニットはディスプレイを用いたインタフェースたとえばグラフィカルユーザインタフェース(GUI)3を介して、作曲コンピュータ1と接続されており、データ経路が形成されている。このコンピュータには対応周辺機器たとえば(スコア)プリンタ32などが接続されている。装置100の基本的なコンポーネントを成すのはオーディオエクスポートシステムであり、これはオーディオインタフェース(オーディオエンジン)7を介して音響再生ユニットつまりたとえばスピーカシステム33もしくは試聴モニタ8を管理している。そしてこれらのスピーカシステム33もしくは試聴モニタ8は、目下入力されている音符を音響再生するように構成されており、これはたとえば音符や音符シーケンスおよび最終的にたとえば作品全体が入力された後にサウンドまたはサウンドシーケンスをただちにコントロールするためのものである。
【0143】
作曲コンピュータ1のシステムには、少なくとも1つの計算ユニットもしくはプロセッサユニット(CPU)4、ならびにこのユニットと接続されてデータ経路形成とデータ交換の行われる少なくとも1つのシーケンサユニット(シーケンスエンジン)5が一体化されている。サウンドライブラリ記憶ユニット6b内には、実際の楽器、楽器群、オーケストラ等のサウンド、サウンドシーケンス、サウンドクラスタ等の録音02に基づくディジタルサウンドサンプル61がたとえばサウンド周波数エンベロープ等として格納されており、このサウンドライブラリ記憶ユニット6bとプロセッサユニット4との間にインテリジェントリレーショナルデータベース6aつまり双方向サウンドパラメータ記憶ユニット6aが挿入接続されている。この双方向サウンドパラメータ記憶ユニット6aは本発明による装置もしくはこの装置の基礎を成しており、そこにはライブラリユニット6b内の個々のサウンドサンプル61各々についてそのサウンドやサウンドシーケンス、サンドクラスタおよびそれらの品質に割り当てられ、それらの特性を表し記述しそれらを定義するすべてのパラメータと、サウンドサンプルライブラリ6b内のサウンドをサーチして呼び出しそこから取り出すために必要なデータ、座標、アドレス情報等が格納されている。ここで挙げたユニット6aおよび6bはサウンドサンプルユニット6を成しており、もしくはそれらの本質的な部分を成している。
【0144】
最後に挙げたこのシステムに統合されている新しいサウンドパラメータ記憶ユニット6aは少なくとも、プロセッサユニット4およびシーケンサユニット5と接続されてデータ経路形成およびデータ交換が行われ、つまりそれらとネットワークでつながれている。サウンドパラメータ記憶ユニット6aは常に、サウンドサンプルライブラリ6b内に格納されているすべてのサウンド61(たとえばディジタルによるサウンドエンベロープのかたちのサウンドイメージなど)に関する情報と、それらに内在するすべての定量的および定性的な値に関する情報を有している。さらにサウンドパラメータ記憶ユニット6aは、どの楽器において適切な音符入力により要求されるサウンドをその品質パラメータとともに生成可能であるかという情報、入力に基づき要求された楽器においてそれをそもそも演奏可能なのかという情報などを有している。サウンドパラメータ記憶ユニット6bは、サウンドサンプルライブラリ6aに含まれているすべてのサウンドサンプルに関していつでも得られる精確な概観に基づきたとえば、ユーザにより選択された楽器では演奏不可能なサウンドについて、「演奏可能な」代替楽器および/または整合した代替サウンドに関する提案をユーザに対し自発的に呈示するようなこともできる。
【0145】
作曲コンピュータ1は、少なくともCPUとシーケンサユニット5に割り当てられたさらに別の様々な多数のソフトウェアユニットもしくはそれらに格納されたプログラムソフトウェアを有しており、それらは通常のスコアとして入力された作品を再生するためのプログラムソフトウェア41および/または、作曲者により入力されたいずれの音が自身により選択された楽器ではその音域制限ゆえに演奏不可能であるかを監視するソフトウェア42および/または、サウンド処理用のソフトウェア43などである。
【0146】
ここではすべてを挙げることはしないがソフトウェアユニットとしてさらに、サウンドにホール/余韻特性を付けるソフトウェア、長く持続した1つの音の中でダイナミックを変更するためのソフトウェア44、同じ高さで速く繰り返されるサウンドが実物どおりに再生されるよう補正するためのソフトウェア45、または異なる高さで相前後して速く演奏されるサウンドが実物どおりに再生されるよう補正するためのソフトウェア46、様々な楽器のサウンド相互間のダイナミック値を整合させるためのさらに別のソフトウェア47などである。
【0147】
その後、このように補正等がなされて処理されたサウンドイメージもしくはサウンドサンプルをサウンド変換器7を介して、適切に補正されたディジタルサウンドエンベロープとして試聴モニタ8もしくはそのスピーカ33へ供給することができ、それによって最終的に要求どおりに処理されたサウンドとして再生することができる。
【0148】
さらにコンピュータ1内部においてたとえばシーケンサユニット5から、時間軸に沿った再生パラメータつまりたとえばスコア用処理モードをすでに保持されているプロジェクトデータユニット90を介して、スコア格納のためプロジェクト記憶ユニット9を供給することができ、このプロジェクト記憶ユニット9からいつでも作業セッション中に必要とされるエレメントやまえもって作成されそこに記憶されている作品の部品を呼び出すことができる。
【0149】
図2に示されているように開始後、サウンド定義パラメータがサウンドデータベース6からロードされる。このサウンドデータベース6にはサウンド定義パラメータを格納するサウンドサンプルパラメータ記憶ユニット6aとサウンドサンプルライブラリ6bが一体化されている。
【0150】
その後、ロードされたプロジェクトをプロジェクト記憶ユニット9に記憶すべきであるかが問い合わせられ、「イエス」であればそのことが行われる。「イエス」でなければ、つまり新規プロジェクトを開始しそれゆえ空白のスコアシートを利用する場合には、音符シーケンス、作品等を形成する音符や楽節記号等がユーザによりたとえばASCIIキーボード、マウス、MIDIキーボード、音符スキャナなどの音符入力ユニット2を用いて入力される。
【0151】
次にサウンドデータベース6において双方向サウンドパラメータ記憶ユニット6aに用意されるかたちで、メイントラックHTが生成される。そこにおいてユーザがまえもって設定した音符等に割り当てられたサウンドなどがそれらのパラメータやフレーズサンプルやテンポマッチングともども選択され、次の問い合わせステップにおいてそれらの選択が承認または否定される。
【0152】
その後、すでに格納されているプロジェクトつまりプロジェクト記憶ユニット9に記憶されているスコアを作曲の基礎または補足として利用しようという場合には、それをプロジェクト記憶ユニット9から受け取ることができる。これに続いてユーザの判定が行われ、自身の入力したサウンドもしくはそれに対応するサウンドシーケンス等および/またはプロジェクト記憶ユニット9から取り出されたサウンドシーケンス等の品質ならびにその他の特性にユーザが満足しているか否かが判定される。満足していないのであれば処理段階のループへ戻り、そのためにサウンドデータベース6から新たなパラメータ、処理パラメータ等もしくはそこで生成された代替提案および/または補足提案が用意される。上述の問い合わせおよびコントロールループは、ユーザが自身により絶えずコントロール可能なサウンドやサウンドシーケンスに満足するまで実行される。
【0153】
このようにして再生やディジタルミックスダウン、オーディオエクスポート、楽譜エクスポート等を行うことができ、その際に問い合わせによって、たったいま作成されたばかりのプロジェクトを記憶すべきか否かの判定を下すことができる。記憶すべきであるならば、それがプロジェクト記憶ユニット9に取り込まれる。そうでなければ作業セッションが終了する。
【図面の簡単な説明】
【図1】新しい作曲装置を示す図である。
【図2】作曲プロセスのフローチャートである。
Claims (9)
- 有利には複数の本物の楽器に対応しそれらの楽器の音もしくはサウンドを提供する仮想の楽器によりたとえば室内楽編成やオーケストラ編成などのようなアンサンブル編成で演奏可能であり該仮想の楽器により再生可能な音、音のシーケンス、トーンクラスタ、サウンド、サウンドシーケンス、サウンドフレーズ、楽曲、作品などを、音楽作品作成中および/または作成終了後に少なくとも音響再生による支援を受けて作曲するための、ならびに音楽作品をスコアに即してまたは他のかたちで音響的に再生するための装置において、
装置(100)の音符入力ユニット(2)は少なくとも1つのインタフェースたとえばグラフィカルユーザインタフェース(3)を介して、作曲コンピュータ(1)と接続されネットワークでつながれてデータ経路形成およびデータ交換が行われ、
該作曲コンピュータ(1)は、少なくとも1つのプロセッサユニット(CPU 4)と、該プロセッサユニット(4)と接続されてデータ経路形成とデータ交換の行われる少なくとも1つのシーケンサユニット(5)と、前記プロセッサユニット(4)および前記シーケンサユニット(5)と接続されてデータ経路形成およびデータ交換の行われるサウンドサンプラユニット(6)を有しており、
前記シーケンサユニット(5)に、前記の音、音のシーケンス、トーンクラスタなどをそれらに割り当てられたサウンド定義パラメータともども供給可能であり、または該パラメータに対応するサウンド、サウンドシーケンス、サウンドクラスタなどを供給可能であり、前記シーケンサユニット(5)はそれらを入力に即した順序に従い呼び出せるように格納し少なくとも1つの相応のインタフェース(7)を介して試聴モニタ(8)、スピーカユニット(33)、スコアプリンタ(32)などへ送出し、
前記サウンドサンプラユニット(6)は、少なくとも1つのサウンドサンプルライブラリ記憶ユニット(6b)と、該ユニットと接続されてデータ経路形成およびデータ交換の行われる双方向サウンドパラメータ記憶ユニットまたはリレーショナル・サウンドパラメータデータベース(6a)を有しており、
前記サウンドサンプルライブラリ記憶ユニット(6b)は、個々の仮想の楽器または楽器群のすべての個別サウンド、サウンドシーケンス、サウンドクラスタなどにおけるディジタルまたは他の形式で存在する録音されたサウンドイメージまたはサウンドサンプル(61)を記憶して保持しており、
前記双方向サウンドパラメータ記憶ユニットまたはリレーショナル・サウンドパラメータデータベース(6a)は、該サウンドサンプル(61)各々をそれらに割り当てられそれらを記述するまたは定義するサウンド定義パラメータを記憶および管理しており、前記サウンドサンプルライブラリ記憶ユニット(6b)からサウンドサンプルを呼び出し、該サウンドサンプルを少なくとも前記プロセッサユニット(CPU 4)および/またはシーケンサユニット(5)へ転送し、および/または前記作曲コンピュータ(1)においてそれらの品質つまりはそれらのサウンド定義パラメータを処理することにより変更されたまたはそれらに新たに取り込まれたサウンド定義パラメータによって記述されたサウンド/サウンドシーケンス/サウンドクラスタなどを記憶、管理および転送することを特徴とする装置。 - 有利には複数の本物の楽器に対応しそれらの楽器の音またはサウンドを提供する仮想の楽器によりたとえば室内楽編成やオーケストラ編成などのようなアンサンブル編成で演奏可能であり該仮想の楽器により再生可能な音、音のシーケンス、トーンクラスタ、サウンド、サウンドシーケンス、サウンドフレーズ、楽曲、作品などを、音楽作品作成中および/または作成終了後に必要に応じて音響再生による支援を受けて作曲するための、ならびに音楽作品を音響的にまたは他のかたちで再生するための装置において、
少なくとも1つの音符入力ユニットが設けられており、該音符入力ユニットにより、個々の仮想の楽器または楽器群により演奏すべき音またはサウンドの基礎を成す音符が、演奏すべき楽器または楽器群の種類、音の高さ、音の長さ、ダイナミック、演奏スタイルなどに関して作曲者により該音符に対し指示され該音符を詳しく記述または定義するサウンドパラメータとともに入力され、および/または、サウンドシーケンスおよび該サウンドシーケンスを記述するサウンドシーケンスパラメータおよび/またはサウンドクラスタおよび該サウンドクラスタを記述するサウンドクラスタパラメータが入力され、
前記音符入力ユニットから、前記のサウンド、サウンドシーケンス、サウンドクラスタなどがそれらに割り当てられたパラメータとともに、該音符入力ユニットと接続されてデータ経路形成され有利には作曲コンピュータなどにプログラム、ソフトウェアなどとして一体化されたサウンドパラメータ記憶ユニットおよびシーケンサユニットに供給されて記憶され、
前記のサウンドパラメータ記憶ユニットおよびシーケンサユニットから、作曲中の試奏および/または演奏または事前に作成されたサウンドシーケンスや作品などの再生にあたり、該ユニットとまたはシーケンサユニットを介して接続され結合されてデータ経路の形成されたサウンドサンプルライブラリ記憶ユニットまたはサンプルデータベースにおいて、それぞれ入力されたサウンド定義パラメータに対応するサウンドイメージまたはサウンドサンプルが制御され、呼び出され、および/またはアクティブにされ、前記サウンドライブラリ記憶ユニットまたはサンプルデータベースには、個々の仮想の楽器または楽器群のすべての個々のサウンド、サウンドシーケンス、サウンドクラスタなどにおける有利にはディジタルで存在するサウンドイメージまたはサウンドサンプルならびにそれらのパラメータ、パラメータ配置、パラメータコンビネーションなどが含まれており、つまりサンプリングされたすべてのサウンド/サウンドパラメータが含まれており、
前記サウンドイメージはサウンドサンプルライブラリ記憶ユニットから音響変換器たとえばディジタル/アナログ変換器を介して音響再生ユニットたとえばスピーカユニットまたは試聴モニタへ供給されることを特徴とする装置。 - 双方向サウンドパラメータ記憶ユニット(6a)においてサウンド定義パラメータが、メイントラックとしてオーケストラの様々な楽器のグループをもちサブトラックとして個々のグループの個別楽器をもつ階層構造で構成されている、請求項1または2記載の装置。
- 前記個別楽器のサブトラックはデータツリー方式に従い、個別楽器固有のサウンドパラメータレベルまたはサウンドパラメータレベルシーケンスとして階層状に構成または構造化されている、請求項1から3のいずれか1項記載の装置。
- 双方向サウンドパラメータ(6a)においてサウンド定義パラメータが階層方式に従い、たとえば楽器レベル(Ei)、楽器モードレベル(Em)、楽器演奏スタイルレベル(Es)、第1番目から第n番目の演奏スタイルレベル(Es1,Es2〜Esn)、サウンド長レベル(El)、サウンド高レベル(Eh)というように構成または構造化されている(たとえばEi:ヴァイオリン、Em:センツァ・ソルディーノ、Es:アルコ、Es1:レガート、Es2中庸なヴィブラート、Es3:...Es(n−1):4分音符、Esn:アルコのa)、請求項1から4のいずれか1項記載の装置。
- 双方向サウンドパラメータ(6a)において、個々のサウンド/サウンドシーケンス/サウンドクラスタ定義パラメータたとえば演奏すべき個々の楽器または演奏すべき個々の楽器群、ダイナミック、反復、速いレガート、特殊モードなどが同じ権利で1つの階層レベル内に並置されて構成されており、前記サウンド定義パラメータ内に階層構造またはメインレベルとサブレベルをもつ構成が設けられている、請求項1から5のいずれか1項記載の装置。
- 少なくともプロセッサユニット(CPU 4)および該ユニットと結合されてデータ経路形成およびデータ交換の行われるシーケンサユニット(5)に対し、ユーザフレンドリーな利用や処理などのための少なくとも1つのソフトウェアユニット(41〜47)が割り当てられておりまたは従属されており、該ソフトウェアユニットとはたとえば少なくとも1つのスコアユニット、または音符入力装置(2)を介して入力されたサウンド/サウンドシーケンス/サウンドクラスタパラメータを慣用の音符列モードまたはスコアモードで入出力インタフェースたとえばグラフィカルユーザインタフェース(3)および/またはプリンタ(32)などへ伝えるための相応のソフトウェア(41)および/または、音域定義および制限ユニットまたは相応のソフトウェア(42)であり、該ユニットまたはソフトウェアは(42)は、個々の指定された楽器では演奏不可能でありたとえば該楽器では低すぎるか高すぎる音またはサウンドが音符入力ユニット(2)を介して入力されると、それに応じた警告指示を音符入力ユニット(2)または入力インタフェース(GUI 3)へ送出する、
請求項1から6のいずれか1項記載の装置。 - 作曲コンピュータ(1)における少なくともプロセッサユニット(CPU 4)および該ユニットと接続されてデータ経路形成およびデータ交換の行われるシーケンサユニット(5)に対し付加的または択一的に、少なくともサウンド(後)処理ユニットまたは相応のソフトウェア(43)および/または、少なくともダイナミックユニットまたは相応のソフトウェア(44)が割り当てられておりまたは従属されており、
前記サウンド(後)処理ユニットまたは相応のソフトウェア(43)は、サンプルライブラリ記憶ユニット(6a)から呼び出されてそこから送出されたサウンドイメージまたはサウンドサンプル(61)を変更または(後)処理し、たとえばホール特性および/または余韻特性および/または音色特性などを個々の楽器固有に調整して与え、
前記ダイナミックユニットまたは相応のソフトウェア(44)は、音またはサウンドまたはサウンドクラスタにおけるダイナミックたとえば持続された音またはサウンドまたはサウンドクラスタ内のダイナミックを変更する、
請求項1から7のいずれか1項記載の装置。 - 作曲コンピュータ(1)における少なくともプロセッサユニット(CPU 4)および少なくともシーケンサユニット(5)に対し付加的または択一的に、繰り返し検出ユニットまたは相応のソフトウェア(45)および/または、速いレガート(Fast Legato)ユニットまたは相応のソフトウェア(46)および/または、ダイナミック整合ユニットまたは相応のソフトウェア(47)が割り当てられておりまたは従属されており、
前記繰り返し検出ユニットまたは相応のソフトウェア(45)は、個々の仮想楽器において相前後して速く演奏される同じ高さの音またはサウンド(サウンド反復)の聴き手の印象を、実際に演奏された楽器の聴き手の印象に合わせて適合させ、
前記速いレガートユニットまたは相応のソフトウェア(46)は、仮想の楽器において相前後して速く演奏されるそれぞれ異なる高さの音またはサウンドたとえば上昇する音またはサウンドまたは下降する音またはサウンドの聴き手の印象を、実際に演奏された楽器におけるこのような速いシーケンスの聴き手の印象に合わせて適合させ、
前記ダイナミック整合ユニットまたは相応のソフトウェア(47)は、異なる複数の楽器による合奏において望まれる個々の楽器の種々の音量/サウンド音量範囲相互間の調整のために設けられていて、該ユニットまたは相応のソフトウェア(47)には、実際に演奏された楽器固有に達成可能な最大音量または最小音量またはそれらの音量範囲を規定するサウンド音量パラメータなどおよび適合のためのアルゴリズムなどが含まれている、
請求項1から8のいずれか1項記載の装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ATA810/2000 | 2000-05-09 | ||
AT0081000A AT500124A1 (de) | 2000-05-09 | 2000-05-09 | Anlage zum komponieren |
PCT/AT2001/000136 WO2001086624A2 (de) | 2000-05-09 | 2001-05-09 | Anordnung bzw. anlage zum komponieren |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2004506225A true JP2004506225A (ja) | 2004-02-26 |
JP2004506225A5 JP2004506225A5 (ja) | 2007-09-06 |
JP4868483B2 JP4868483B2 (ja) | 2012-02-01 |
Family
ID=3681326
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001583492A Expired - Fee Related JP4868483B2 (ja) | 2000-05-09 | 2001-05-09 | 仮想の楽器により演奏可能であり該仮想の楽器により再生可能な音または音のシーケンスまたは楽曲をコンピュータ支援により作曲および再生するための装置 |
Country Status (7)
Country | Link |
---|---|
US (1) | US7105734B2 (ja) |
EP (1) | EP1336173B1 (ja) |
JP (1) | JP4868483B2 (ja) |
AT (1) | AT500124A1 (ja) |
AU (1) | AU784788B2 (ja) |
DE (1) | DE50107773D1 (ja) |
WO (1) | WO2001086624A2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008250008A (ja) * | 2007-03-30 | 2008-10-16 | Yamaha Corp | 楽音処理装置およびプログラム |
CN108369799A (zh) * | 2015-09-29 | 2018-08-03 | 安泊音乐有限公司 | 采用基于语言学和/或基于图形图标的音乐体验描述符的自动音乐合成和生成的机器、系统和过程 |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030014272A1 (en) * | 2001-07-12 | 2003-01-16 | Goulet Mary E. | E-audition for a musical work |
US6483019B1 (en) * | 2001-07-30 | 2002-11-19 | Freehand Systems, Inc. | Music annotation system for performance and composition of musical scores |
US20050136383A1 (en) * | 2003-12-17 | 2005-06-23 | International Business Machines Corporation | Pluggable sequencing engine |
US20060173692A1 (en) * | 2005-02-03 | 2006-08-03 | Rao Vishweshwara M | Audio compression using repetitive structures |
CN1306594C (zh) * | 2005-03-08 | 2007-03-21 | 北京中星微电子有限公司 | 一种图形引擎芯片及其应用方法 |
CN1298049C (zh) * | 2005-03-08 | 2007-01-31 | 北京中星微电子有限公司 | 一种图形引擎芯片及其应用方法 |
JP4626376B2 (ja) * | 2005-04-25 | 2011-02-09 | ソニー株式会社 | 音楽コンテンツの再生装置および音楽コンテンツ再生方法 |
SE528839C2 (sv) * | 2006-02-06 | 2007-02-27 | Mats Hillborg | Melodigenerator |
US20090320669A1 (en) * | 2008-04-14 | 2009-12-31 | Piccionelli Gregory A | Composition production with audience participation |
FR2903804B1 (fr) * | 2006-07-13 | 2009-03-20 | Mxp4 | Procede et dispositif pour la composition automatique ou semi-automatique d'une sequence multimedia. |
FR2903803B1 (fr) * | 2006-07-13 | 2009-03-20 | Mxp4 | Procede et dispositif pour la composition automatique ou semi-automatique d'une sequence multimedia. |
US7783623B2 (en) * | 2007-08-31 | 2010-08-24 | Yahoo! Inc. | System and method for recommending songs |
US8022284B1 (en) * | 2010-08-07 | 2011-09-20 | Jorge Alejandro Velez Medicis | Method and system to harmonically tune (just intonation tuning) a digital / electric piano in real time |
EP2661748A2 (en) | 2011-01-06 | 2013-11-13 | Hank Risan | Synthetic simulation of a media recording |
US20130000463A1 (en) * | 2011-07-01 | 2013-01-03 | Daniel Grover | Integrated music files |
US9384719B2 (en) * | 2013-07-15 | 2016-07-05 | Apple Inc. | Generating customized arpeggios in a virtual musical instrument |
US10854180B2 (en) | 2015-09-29 | 2020-12-01 | Amper Music, Inc. | Method of and system for controlling the qualities of musical energy embodied in and expressed by digital music to be automatically composed and generated by an automated music composition and generation engine |
US10002596B2 (en) * | 2016-06-30 | 2018-06-19 | Nokia Technologies Oy | Intelligent crossfade with separated instrument tracks |
US11295715B2 (en) | 2017-09-25 | 2022-04-05 | Symphonova, Ltd. | Techniques for controlling the expressive behavior of virtual instruments and related systems and methods |
US11037538B2 (en) | 2019-10-15 | 2021-06-15 | Shutterstock, Inc. | Method of and system for automated musical arrangement and musical instrument performance style transformation supported within an automated music performance system |
US11024275B2 (en) | 2019-10-15 | 2021-06-01 | Shutterstock, Inc. | Method of digitally performing a music composition using virtual musical instruments having performance logic executing within a virtual musical instrument (VMI) library management system |
US10964299B1 (en) | 2019-10-15 | 2021-03-30 | Shutterstock, Inc. | Method of and system for automatically generating digital performances of music compositions using notes selected from virtual musical instruments based on the music-theoretic states of the music compositions |
US11875764B2 (en) * | 2021-03-29 | 2024-01-16 | Avid Technology, Inc. | Data-driven autosuggestion within media content creation |
IT202200010865A1 (it) * | 2022-05-25 | 2023-11-25 | Associazione Accademia Di Musica Onlus | Sistema di riproduzione adattativa di una base orchestrale. |
CN116894513B (zh) * | 2023-07-12 | 2024-02-13 | 广东工业大学 | 一种划分区域的皮革二维不规则排样方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5858592A (ja) * | 1981-10-02 | 1983-04-07 | ヤマハ株式会社 | 楽譜表示装置 |
JPS60165697A (ja) * | 1984-02-08 | 1985-08-28 | 松下電器産業株式会社 | 電子鍵盤楽器 |
JPS6118996A (ja) * | 1984-07-05 | 1986-01-27 | 松下電器産業株式会社 | 電子楽器 |
JPH04504005A (ja) * | 1988-09-19 | 1992-07-16 | ウェンジャー・コーポレーション | 音楽情報発生の方法及びその装置 |
JPH04294395A (ja) * | 1991-03-22 | 1992-10-19 | Yamaha Corp | 電子楽器 |
JPH0650093U (ja) * | 1992-12-14 | 1994-07-08 | カシオ計算機株式会社 | 楽音発生装置 |
JPH1173182A (ja) * | 1997-07-11 | 1999-03-16 | Seer Syst Inc | 音楽作品ファイルを作成、配布、記憶、及び、実行するシステム並びに方法 |
JP2000003175A (ja) * | 1999-03-19 | 2000-01-07 | Yamaha Corp | 楽音生成方法、楽音デ―タ作成方法、楽音波形デ―タ作成方法、楽音デ―タ生成方法、および記憶媒体 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3604686A1 (de) * | 1986-02-14 | 1987-08-27 | Rainer Gallitzendoerfer | Elektronisches musikinstument |
FR2643490B1 (fr) | 1989-02-01 | 1994-05-06 | Fourreau Pierre | Procede de codage lineaire des notes de musique par ordinateur |
US5142961A (en) * | 1989-11-07 | 1992-09-01 | Fred Paroutaud | Method and apparatus for stimulation of acoustic musical instruments |
JPH04101195A (ja) * | 1990-08-20 | 1992-04-02 | Yamaha Corp | 電子楽器 |
US5357048A (en) * | 1992-10-08 | 1994-10-18 | Sgroi John J | MIDI sound designer with randomizer function |
JP3144140B2 (ja) * | 1993-04-06 | 2001-03-12 | ヤマハ株式会社 | 電子楽器 |
JP3486938B2 (ja) * | 1993-12-28 | 2004-01-13 | ヤマハ株式会社 | レガート演奏可能な電子楽器 |
US5763800A (en) * | 1995-08-14 | 1998-06-09 | Creative Labs, Inc. | Method and apparatus for formatting digital audio data |
US5783767A (en) * | 1995-08-28 | 1998-07-21 | Shinsky; Jeff K. | Fixed-location method of composing and peforming and a musical instrument |
US5693902A (en) * | 1995-09-22 | 1997-12-02 | Sonic Desktop Software | Audio block sequence compiler for generating prescribed duration audio sequences |
US5728960A (en) | 1996-07-10 | 1998-03-17 | Sitrick; David H. | Multi-dimensional transformation systems and display communication architecture for musical compositions |
JP3120043B2 (ja) | 1996-11-27 | 2000-12-25 | 山一電機株式会社 | Icカード用コネクタにおけるイジェクト機構 |
JP3750284B2 (ja) * | 1997-06-11 | 2006-03-01 | ヤマハ株式会社 | 自動作曲装置および記録媒体 |
JP3925993B2 (ja) | 1997-08-29 | 2007-06-06 | パイオニア株式会社 | 信号処理装置 |
DE69836393T2 (de) | 1997-09-30 | 2007-09-06 | Yamaha Corp., Hamamatsu | Verfahren, Vorrichtung und maschineslesbares Speichermedium zur Klangsynthesierung |
JP3704980B2 (ja) * | 1997-12-17 | 2005-10-12 | ヤマハ株式会社 | 自動作曲装置と記録媒体 |
US5986199A (en) * | 1998-05-29 | 1999-11-16 | Creative Technology, Ltd. | Device for acoustic entry of musical data |
JP3654026B2 (ja) * | 1999-01-28 | 2005-06-02 | ヤマハ株式会社 | 奏法対応入力システム及びその記録媒体 |
-
2000
- 2000-05-09 AT AT0081000A patent/AT500124A1/de not_active Application Discontinuation
-
2001
- 2001-05-09 EP EP01931187A patent/EP1336173B1/de not_active Expired - Lifetime
- 2001-05-09 WO PCT/AT2001/000136 patent/WO2001086624A2/de active IP Right Grant
- 2001-05-09 AU AU58022/01A patent/AU784788B2/en not_active Ceased
- 2001-05-09 JP JP2001583492A patent/JP4868483B2/ja not_active Expired - Fee Related
- 2001-05-09 US US10/275,259 patent/US7105734B2/en not_active Expired - Fee Related
- 2001-05-09 DE DE50107773T patent/DE50107773D1/de not_active Expired - Lifetime
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5858592A (ja) * | 1981-10-02 | 1983-04-07 | ヤマハ株式会社 | 楽譜表示装置 |
JPS60165697A (ja) * | 1984-02-08 | 1985-08-28 | 松下電器産業株式会社 | 電子鍵盤楽器 |
JPS6118996A (ja) * | 1984-07-05 | 1986-01-27 | 松下電器産業株式会社 | 電子楽器 |
JPH04504005A (ja) * | 1988-09-19 | 1992-07-16 | ウェンジャー・コーポレーション | 音楽情報発生の方法及びその装置 |
JPH04294395A (ja) * | 1991-03-22 | 1992-10-19 | Yamaha Corp | 電子楽器 |
JPH0650093U (ja) * | 1992-12-14 | 1994-07-08 | カシオ計算機株式会社 | 楽音発生装置 |
JPH1173182A (ja) * | 1997-07-11 | 1999-03-16 | Seer Syst Inc | 音楽作品ファイルを作成、配布、記憶、及び、実行するシステム並びに方法 |
JP2000003175A (ja) * | 1999-03-19 | 2000-01-07 | Yamaha Corp | 楽音生成方法、楽音デ―タ作成方法、楽音波形デ―タ作成方法、楽音デ―タ生成方法、および記憶媒体 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008250008A (ja) * | 2007-03-30 | 2008-10-16 | Yamaha Corp | 楽音処理装置およびプログラム |
JP4613923B2 (ja) * | 2007-03-30 | 2011-01-19 | ヤマハ株式会社 | 楽音処理装置およびプログラム |
CN108369799A (zh) * | 2015-09-29 | 2018-08-03 | 安泊音乐有限公司 | 采用基于语言学和/或基于图形图标的音乐体验描述符的自动音乐合成和生成的机器、系统和过程 |
Also Published As
Publication number | Publication date |
---|---|
WO2001086624A3 (de) | 2003-05-30 |
AT500124A1 (de) | 2005-10-15 |
EP1336173A2 (de) | 2003-08-20 |
US7105734B2 (en) | 2006-09-12 |
US20030188625A1 (en) | 2003-10-09 |
AU5802201A (en) | 2001-11-20 |
EP1336173B1 (de) | 2005-10-19 |
JP4868483B2 (ja) | 2012-02-01 |
DE50107773D1 (de) | 2005-11-24 |
AU784788B2 (en) | 2006-06-22 |
WO2001086624A2 (de) | 2001-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4868483B2 (ja) | 仮想の楽器により演奏可能であり該仮想の楽器により再生可能な音または音のシーケンスまたは楽曲をコンピュータ支援により作曲および再生するための装置 | |
Pejrolo et al. | Acoustic and MIDI orchestration for the contemporary composer: a practical guide to writing and sequencing for the studio orchestra | |
US7335833B2 (en) | Music performance system | |
US6362411B1 (en) | Apparatus for and method of inputting music-performance control data | |
JP2001159892A (ja) | 演奏データ作成装置及び記録媒体 | |
US11138261B2 (en) | Media playable with selectable performers | |
US7718883B2 (en) | Complete orchestration system | |
JP2000066677A (ja) | 演奏情報発生装置及びそのための記録媒体 | |
US7030312B2 (en) | System and methods for changing a musical performance | |
JP3214623B2 (ja) | 電子楽音再生装置 | |
Winter | Interactive music: Compositional techniques for communicating different emotional qualities | |
JP3900187B2 (ja) | 演奏データ作成装置 | |
WO2004025306A1 (en) | Computer-generated expression in music production | |
JP2002297139A (ja) | 演奏データ変更処理装置 | |
JP3832421B2 (ja) | 楽音生成装置及び方法 | |
JP3760909B2 (ja) | 楽音生成装置及び方法 | |
JP3674469B2 (ja) | 演奏ガイド方法と装置及び記録媒体 | |
Kesjamras | Technology Tools for Songwriter and Composer | |
JP3832422B2 (ja) | 楽音生成装置及び方法 | |
JP3832419B2 (ja) | 楽音生成装置及び方法 | |
Allen | Arranging in the digital world: techniques for arranging popular music using today's electronic and digital instruments | |
JP3832420B2 (ja) | 楽音生成装置及び方法 | |
Stoller | Exploring MIDI and sampling compositional techniques in four etudes for organ and digital sampler | |
Bennett | Computer orchestration: tips and tricks | |
JPH0519765A (ja) | 電子楽器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070719 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070719 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100820 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100917 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20101214 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20101221 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20101228 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20110117 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20110124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110407 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20110704 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20110711 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20110804 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20110811 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110831 |
|
TRDD | Decision of grant or rejection written | ||
RD13 | Notification of appointment of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7433 Effective date: 20111017 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111020 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20111017 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111111 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141125 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |