JP2001517814A - Sound effect system - Google Patents

Sound effect system

Info

Publication number
JP2001517814A
JP2001517814A JP2000513267A JP2000513267A JP2001517814A JP 2001517814 A JP2001517814 A JP 2001517814A JP 2000513267 A JP2000513267 A JP 2000513267A JP 2000513267 A JP2000513267 A JP 2000513267A JP 2001517814 A JP2001517814 A JP 2001517814A
Authority
JP
Japan
Prior art keywords
sound
sound effects
parameters
synthesizer
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000513267A
Other languages
Japanese (ja)
Inventor
ラマー ワイス,ロンス
ローワン ケロック,ピーター
Original Assignee
ケント リッジ ディジタル ラブズ(ケーアールディーエル),ナショナル ユニバーシティ オブ シンガポール
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ケント リッジ ディジタル ラブズ(ケーアールディーエル),ナショナル ユニバーシティ オブ シンガポール filed Critical ケント リッジ ディジタル ラブズ(ケーアールディーエル),ナショナル ユニバーシティ オブ シンガポール
Publication of JP2001517814A publication Critical patent/JP2001517814A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • G10H7/002Instruments in which the tones are synthesised from a data store, e.g. computer organs using a common processing for different operations or calculations, and a set of microinstructions (programme) to control the sequence thereof
    • G10H7/004Instruments in which the tones are synthesised from a data store, e.g. computer organs using a common processing for different operations or calculations, and a set of microinstructions (programme) to control the sequence thereof with one or more auxiliary processor in addition to the main processing unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/02Synthesis of acoustic waves
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/315User input interfaces for electrophonic musical instruments for joystick-like proportional control of musical input; Videogame input devices used for musical input or control, e.g. gamepad, joysticks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/281Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
    • G10H2240/311MIDI transmission
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/315Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
    • G10H2250/365Gensound applause, e.g. handclapping; Cheering; Booing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/315Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
    • G10H2250/371Gensound equipment, i.e. synthesizing sounds produced by man-made devices, e.g. machines
    • G10H2250/381Road, i.e. sounds which are part of a road, street or urban traffic soundscape, e.g. automobiles, bikes, trucks, traffic, vehicle horns, collisions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/315Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
    • G10H2250/391Gensound footsteps, i.e. footsteps, kicks or tap-dancing sounds
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/315Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
    • G10H2250/395Gensound nature
    • G10H2250/411Water, e.g. seashore, waves, brook, waterfall, dripping faucet
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/315Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
    • G10H2250/395Gensound nature
    • G10H2250/415Weather

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

(57)【要約】 音響効果システムであって、行動の特徴のセットを持っている、当該の現象が含んでシステムの音を生成する現象をモデルにして作られた、音響効果を作り出すための音響効果システムで、合成が、音を合成することに対して、意味し、当該の統合が当該の計算装置によってコントロールされて意味する音響効果のそれぞれのためのモデルを処理するための計算装置、中央処理装置を含めての当該の計算装置、メモリとインプット装置、音響効果モデル、当該のモデル本質に対応する音を生成する現象の行動の特徴を有し、音響効果を出力するためのアウトプット手段と、当該の音代表から得られた、シンセサイザーコマンドのストリームを生成するための伝達されているコマンドを言った1コマンド世代が当該の音統合が当該の音を生ずる現象で、音イベントとシンセサイザーパラメータをコントロールするコマンドを始めて、そして終えるコマンドを含めての当該のシンセサイザーコマンドの行動の特徴にとって代表的な音声のアウトプットを引き起こすことを意味する統合がそんなものを意味すると言った:そしてそれによって当該のシステムが効率的な方法で広範囲の現実な音響効果とそれらの相違を引き起こす当該の音を生成する現象の当該の行動の特徴に関連している方法でそれによって当該の音声の生産が変えられるかもしれないユーザーパラメータをコントロールするための手段を具備する音響効果システムである (57) [Summary] A sound effect system for generating sound effects, which has a set of behavioral characteristics and is modeled on a phenomenon that generates a sound of the system when the phenomenon is included. A computing device for processing a model for each of the sound effects, wherein the synthesis means for synthesizing sound and the integration is controlled by the computing device for the sound effect system; An output for outputting a sound effect, having the characteristics of the computing device including the central processing unit, a memory and an input device, a sound effect model, and a behavior of a phenomenon that generates a sound corresponding to the essence of the model; Means and one command generation, said from said sound representative, said the transmitted command to generate a stream of synthesizer commands, said sound integration being said Such sound-generating phenomena, including commands to control sound events and synthesizer parameters, including the commands that initiate and end, cause the output of speech to be representative of the behavioral characteristics of the synthesizer command in question, meaning integration that means Said to mean: and the way in which the system relates to the relevant behavioral characteristics of the phenomenon of generating the relevant sound in a manner that is effective in a wide range of real sound effects and their differences A sound effect system comprising means for controlling user parameters by which the production of said sound may be changed.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】 発明のフィールド 本発明は一般に対話型のメディアと音生産のフィールドに関連している。特に
、それは音響効果の広範な限界を作り出すことができるモデリングと対話型のモ
デルベースの音響効果とシステムの生産に関連している。
FIELD OF THE INVENTION The present invention relates generally to the field of interactive media and sound production. In particular, it relates to the production of modeling and interactive model-based sound effects and systems that can create a wide range of sound effects.

【0002】 発明の背景 機械の発明が、音響効果を作ることに対して、例えば、金属雷紙とバレル+ロ
ープ「ライオンのうなり」が演劇で使った世紀の間使われた。20世紀に、フィ
ルムの開拓者が、音響効果を作ることに対して、物理的なオブジェクトの扱いに
よって音響効果を行うことについての「フォーリー」テクニックを含めてクニッ
ックとトリックの過剰を作ったルッソーロのような専門家(騒音、1916の芸
術)がミュージカルあるいは準ミュージカルの公演で騒音を作り出して(そのた
めに)電気機械装置の使用を創始した音響効果が映画上のイベントと同期する。
BACKGROUND OF THE INVENTION Machine inventions have been used for creating acoustic effects, for example, during the centuries in which metal lightning paper and barrel + rope "lion roars" were used in theater. In the twentieth century, film pioneers created an excess of knicks and tricks, including a "foley" technique of making sound effects by treating physical objects versus making sound effects. Such professionals (noise, the art of 1916) create noise in musical or semi-musical performances and have created the use of electromechanical devices for the sound effects synchronized with the cinematic event.

【0003】 デジタルオーディオの到着から、専門家が持っている音響効果がエディットす
るべきコンピュータを使った、そしてプロセスが音響効果がデジタル音声のエデ
ィタのようなツールを使っているのを記録した。主に音楽の目的のために設計さ
れたハードウェアとソフトウェア(MIDIキーボード&スライダバンクのよう
なハードウェア、シーケンサのようなソフトウェア)が音響効果の生産で同じく
広く使われる。
[0003] Since the arrival of digital audio, the sound effects professionals have used computers to edit and the process has recorded sound effects using tools such as digital audio editors. Hardware and software (hardware like MIDI keyboard & slider bank, software like sequencer) designed primarily for musical purposes are also widely used in the production of sound effects.

【0004】 音響効果がコンピュータゲーム、マルチメディアタイトル、のような対話型の
メディアとワールドワイドウエブサイトでと同様、フィルム、テレビ、ラジオと
劇場、のような伝統的なメディアで広く使われる。そして効果が類似の方法でし
ばしば作り出される間に、それらが使われる方法、メディアに依存して大いに異
なるかもしれない。これは、対話型のメディアが音響効果が所定の状態に従って
変化することを必要とする間に、音響効果が伝統的なメディアで固定されている
形式で残っているからである。映画での音響効果が、例えば、1つの視聴から次
のものまで同じままで、ある。音響効果と視聴者の間に、コンピュータゲームの
ような対話型のメディアのケースに対話がない、間に合ってそれぞれの瞬間にユ
ーザの行動に頼っている生産を通して多数の可能性あるいは「パス」がある。そ
れ故、両方のそれらがもしユーザの経験が大いに対話型であるなら呼ばれる不可
欠が今のところ基礎をなしているモデルから作った視覚の、そして聞こえる素子
である。
[0004] Sound effects are widely used in traditional media such as film, television, radio and theater, as well as in interactive media such as computer games, multimedia titles, and on world wide websites. And while effects are often created in similar ways, they may vary greatly depending on the way in which they are used, the media. This is because while the interactive media requires the sound effects to change according to predetermined conditions, the sound effects remain in a form fixed in traditional media. The sound effects in a movie, for example, remain the same from one viewing to the next. There is no interaction between the sound effects and the audience in the case of interactive media, such as computer games, there are numerous possibilities or "passes" through production relying on user behavior at each moment in time . Therefore, both of them are visual and audible elements built from the models that are currently based, if the user's experience is highly interactive.

【0005】 たいていのコンピュータゲームと仮想の環境で今日、視覚の素子は主にそれで
視覚の経験で高度の対話性を供給しているモデルから作られる。前者がセットか
ら調整可能なパラメータから作られるという点で、モデルベースのイメージがあ
らかじめ録音されたイメージと異なっている。後のものは固定されて、そして容
易に操られることができない。例えば、ユーザと場面遺言書のビューの角度によ
ってそうするように命令されるときオブジェクトが、ユーザが、彼が実世界で彼
のヘッドを回すとき、人、ビューが変化する方法に類似している仮想の空間に向
きを変えるとき仮想のスペースで動く。すべてのビューが今まであらかじめ録音
されていたわけではないけれども、これは可能である。
[0005] In most computer games and virtual environments today, the visual elements are primarily made from models that provide a high degree of interactivity with the visual experience. Model-based images differ from pre-recorded images in that the former is made from adjustable parameters from the set. The latter are fixed and cannot be easily manipulated. For example, when the user is commanded to do so by the angle of view of the user and the scene will, the object resembles the way the user changes the view when he turns his head in the real world. When you turn to a virtual space, you move in a virtual space. This is possible, although not all views have ever been pre-recorded.

【0006】 音響効果のケースで、しかしながら、今日の解決は一般に1つから典型的に続
くあらかじめ録音された音声の部分を1秒から数分に取り戻すことである。例え
ば、動いている自動車をシミュレートするビデオゲームを考慮しなさい。自動車
が現実では音を引き起こすであろうイベントを経験するときはいつでも、例えば
、高いスピードで障害を打って、あらかじめ録音された音が衝突が起こる正確な
瞬間にプレーされる。典型的に、音とイベントの間の関係、すなわち、衝突、は
非常にありのままである。すなわち、音響効果は環境などについて、例えば自動
車のスピード、それが衝突するオブジェクトの材料、影響の角、あるいは反響特
徴を考慮に入れない。身近に特定の状態に対応している異なったあらかじめ録音
された音部分をプレーすることによって、異なった要因を考慮に入れることは可
能である間に、正確にすべての可能な筋書きに対応するであろう音の完全な連続
体を集めることは非実用的であるか、あるいはしばしば不可能である。
[0006] In the case of sound effects, however, the solution today is to recover from one second to a portion of the typically pre-recorded audio, typically one second to several minutes. For example, consider a video game simulating a moving car. Whenever a car experiences an event that would cause sound in reality, for example, hitting obstacles at high speeds, pre-recorded sounds are played at the exact moment when a collision occurs. Typically, the relationship between sound and event, i.e., collision, is very straightforward. That is, the sound effects do not take into account the environment or the like, for example, the speed of the car, the material of the object it collides with, the angle of influence, or the reverberation characteristics. By playing different pre-recorded sound parts corresponding to a particular situation at hand, it is possible to take into account different factors while accurately responding to all possible scenarios Collecting a complete continuum of likely sounds is impractical or often impossible.

【0007】 あらかじめ録音された音部分を思い出すことによって、音響効果を作り出すこ
とは注意深く実世界状態の繊細さをシミュレートするオリジナルの音部分の変化
を引き起こすために既存の音部分が容易に結合されるか、あるいはスムーズな方
法で操られることができないという限界を持っている。これはあらかじめ録音さ
れた音がモデルに基づいていないから音を作り出す現象のパラメータから成り立
っている。
[0007] By recalling pre-recorded sound portions, creating sound effects can be easily combined with existing sound portions to carefully alter the original sound portions that simulate the delicacy of real-world conditions. Or has the limitation that it cannot be manipulated in a smooth manner. It consists of the parameters of the phenomenon that produces sound because pre-recorded sound is not based on a model.

【0008】 それでもし1が正確に(そのために)音部分が利用可能ではない現実のイベン
トを設計する音響効果を作り出すことを望むことであったなら、音のまったく新
しい部分が記録される煩わしいに違いない、結合するか、あるいは既存の部分を
操ることによって、それは作り出されることができない。 音を前もって記録することは音響効果が現在そうであるほとんどすべてが両方
ともに伝搏なそして対話型のメディアを生産した方法である。対話型のメディア
で、上に論じられるように、この方法の主な欠点は現実主義の欠如である。伝統
的なメディアのために、欠点は増やされた労働である。例えば、もし足跡のシリ
ーズが映画で必要とされる、音響効果専門家がフィルムで特定の場面を見るよう
にするであろうなら、正確な現場に現われるものに対応する実際の足跡音(どん
なに彼が、実際に歩くか、あるいは一緒に物理的なオブジェクトをバンと鳴らす
ことによって、か否かにかかわらず、そうすることに決めるとして、のシリーズ
を作って、そして記録しなさい。もし何らかの理由で、現場が変えられるなら、
歩く場面から動いている場面まで、新しい記録のセッションがステップの増やさ
れたスピードに対応する足跡を生産するために行なわれなければならないであろ
う。歩く現場から前に記録された足音を操ることによって、ただ現実的な調査の
足跡を生産することは可能ではないであろう。
[0008] If one wanted to create sound effects that accurately (for that reason) design real-world events where sound portions are not available, the annoyance that an entirely new portion of sound is recorded Must be, by combining or manipulating existing parts, it cannot be created. Prerecording sound is a way that almost all sound effects are now both produced beating and interactive media. In interactive media, as discussed above, the main drawback of this method is the lack of realism. For traditional media, the drawback is increased labor. For example, if a series of footprints is required in a movie, if the sound effects professional would make a particular scene in the film, the actual footprint sound corresponding to what appears on the exact scene (however he Make and record a series of whether you decide to do so, whether by actually walking or banging a physical object together, if for any reason. If you can change the site,
From walking to moving scenes, a new recording session will have to be performed to produce a footprint corresponding to the increased speed of the steps. By manipulating previously recorded footsteps from the walking site, it would not be possible to produce just a realistic survey footprint.

【0009】 伝統的なメディアでのこの問題に対する1つの解決がCDの上に通常供給され
た多くのサンプルあるいはCD−ROMのコレクションを持つことであった。こ
れらのコレクションが何千というサンプルを含むことができるけれども、この解
決は、多くの問題を提出した。1(人・つ)のために、融通がきかない:サンプ
ルは容易に操られることができない。加えるに、人が多くのサンプルを通して行
って、そして受容性を調べる必要があるときから、正しいサンプルを見いだすこ
とはしばしば時間がかかる。けれども最も重大な問題は音響効果での相違の数が
必要とした無限点という条件のもとに使われて最高にもかかわらず、そのために
目的に適している正確なサンプル音響効果である掘り出し物がそうである数、そ
れがまだ困難であるということである。それ故、音響効果の産業で、時間と労力
を取っておくと同様、共に現実主義を獲得することができる音響効果を作り出す
ことによってモデルベースの方法と体系を持つ大きい必要があることは見られる
ことができる。
[0009] One solution to this problem in traditional media has been to have a large collection of samples or CD-ROMs usually supplied on a CD. This solution has raised a number of problems, though these collections can contain thousands of samples. Inflexible due to one: the sample cannot be easily manipulated. In addition, finding the correct sample is often time consuming, since one has to go through many samples and determine acceptability. But the most serious problem is that the number of differences in sound effects is the best used under the condition of infinity, but the bargain that is the exact sample sound effect that is suitable for the purpose The number that is so is that it is still difficult. Therefore, in the sound effects industry, it is seen that there is a great need to have model-based methods and systems by creating sound effects that can achieve realism together as well as save time and effort be able to.

【0010】 いくつかの合成技術が存在するけれども、適当な一つも、必要、が上に記述し
なかった。現在デジタルの音統合の技術のいくつかの別の集まりがある。1つは
リアルタイム生成と対話のためにハードウェアそして/あるいはソフトウェアコ
ントローラーによって動かされる専門的な電気回路そして/あるいはDSPコー
ドを持っている専用のシンセサイザーである。2番目の集まりはどんな想像可能
な統合アルゴリズムでも実行することができる汎用のソフトウェアシンセサイザ
ーである。それらは一般にリアルタイムではないが、音ファイルを引き起こす何
らかの種類のコンパイルしている段階を持つ。
[0010] Although several synthetic techniques exist, no suitable one has been described above as necessary. Currently there are several different gatherings of digital sound integration technology. One is a dedicated synthesizer with specialized electrical circuits and / or DSP code driven by hardware and / or software controllers for real-time generation and interaction. The second collection is a general purpose software synthesizer that can execute any imaginable integration algorithm. They are generally not real-time, but have some kind of compiling stage that causes sound files.

【0011】 同じぐらいたいていの人々によって経験されたコンピュータ音がデスクトップ
コンピュータの上に音源カードを使って作り出される。典型的に少数の統合方法
が利用可能である。そして制御が、ホストCPU、もう1つ、ネットワークで結
ばれたコンピュータ、あるいは音楽のキーボードのような外部の装置、がコント
ローラーとして作用するという状態で、MIDIプロトコルによってである。
[0011] Computer sounds experienced by as many people as possible are produced using a sound card on a desktop computer. Typically, a small number of integration methods are available. And control is by the MIDI protocol, with the host CPU, another, a networked computer, or an external device such as a music keyboard acting as a controller.

【0012】 そこに方法が今日のコマーシャル音源カードの上に一般に使った3つの統合、
周波数変調(FM)、がウェーブテーブル、そしてウェーブカイド(一種の「身
体のモデリング」)であるかウェーブテーブルの統合が典型的に記録された物質
的な(例えば楽器の音符)に頼るのに対して、PMとウェーブガイド統合は純粋
に合成である。純粋に合成のアルゴリズムがそれらが作り出す音でもっと多くの
柔軟性を供給する、しかし自然の音の模倣はウェーブテーブルの方法が上に基礎
を置いたと比べて同じぐらい現実的ではない傾向がある。
There are three integration methods commonly used on today's commercial sound card,
Whereas frequency modulation (FM) is a wavetable, and a wave guide (a kind of "body modeling") or integration of a wavetable typically relies on recorded material (eg musical instrument notes) Thus, PM and waveguide integration are purely synthetic. Purely synthetic algorithms provide more flexibility in the sounds they create, but imitation of natural sounds tends to be not as realistic as wavetable methods based on.

【0013】 設計された音源の記録の調子が移行して、そして柔軟性が、ただ少数の異なっ
た記録されたメモだけに基づいて範囲楽器の能力を設計することにおいて、一般
に使った時間及びこれらの標準的なテクニックが供給する兆候と腐敗を調整する
という状態で、ウェーブテーブルの統合が通常環状になっているセクションのよ
うな実行の間に記録された音の若干の扱いを巻き込む。あらかじめ録音された切
り抜きの単純な加工されていない再生録音はただ浅薄に「統合である」しかしそ
れは現在最も一般にソフトウェア環境の中で音響効果を生み出すために使われた
方法である。
[0013] The recording tone of the designed sound source shifts, and the flexibility and time commonly used in designing the capabilities of a range instrument based on only a few different recorded notes and these Wavetable integration involves some treatment of the sound recorded during execution, such as a section that is usually annular, with the standard techniques of adjusting the sign and decay provided. Simple unprocessed playback of pre-recorded cutouts is simply "integrated" but it is the method most commonly used today to create sound effects within a software environment.

【0014】 人は音統合のためにいくつかの異なった時スケールの間の区別をすることがで
きる。1つはサンプルが音声のアウトプット装置に配達されなくてはならないレ
ートである(例えば「CD品質」音のチャンネルのための44.1kHz )。もう
1つは統合をコントロールしているパラメータ値が最新のものにされなくてはな
らないコントロールレートである。これはしばしばサンプルレートより遅くあり
得る。例えば、そのレートにおいてその投球とボリューム変更が通常楽器の、そ
して自然の音で起こる、型通りの統合は通常規模あるいはサンプルより遅い2が
評価するこれらのパラメータで更新されて、そしてまだ滑らかな変化の理解力を
作ることができる。最終的に、人はその統合においてアルゴリズム(例えば音符
)が始められて、そして止められるそのレートに基づいたイベント時スケールを
考慮することができる。
A person can make a distinction between several different time scales for sound synthesis. One is the rate at which samples must be delivered to the audio output device (eg, 44.1 kHz for a "CD quality" sound channel). The other is a control rate at which the parameter values controlling integration must be updated. This can often be slower than the sample rate. For example, at that rate the pitch and volume changes usually occur in instrumental and natural sounds, routine integration is updated with these parameters, usually 2 or slower than the sample, and still smooth changes You can make your understanding. Eventually, one can consider an event-time scale based on that rate at which algorithms (eg, notes) are started and stopped in the synthesis.

【0015】 異なった時スケールの間の区別はパラダイム、しかしそれが多くに役立って、
ある特定の統合のために幾分任意で、そしてさらに不適当である。プロトコルが
コントローラーとシンセサイザーの間の区別に基づいてそうであって、そして公
有地の最も多くをしたMIDMはおよそ3Kバイト/秒の転送速度でアーキテク
チャをバスで運ぶ。共有さた仮想の環境とマルチユーザのゲームがありふれてい
るネットワークで結ばれたコンピュータという環境で、コミュニケーションバン
ド幅が同様に需要が大きい。方クライアントコンピュータはパワフルで、そして
重要な量の統合を処理することができる。もしクライアントが統合の普通のライ
ブラリを共有するなら、ルーチン、そして次に音の「イベントと制御装置パラメ
ータ」表示が非常に効率的であって、通信バンド幅に低需要を置いて、そしてク
ライアントの能力に頼って独断的に高い音品質を生成することができる。
The distinction between different time scales is a paradigm, but it helps many,
Somewhat optional for certain integrations, and even more unsuitable. The MIDM protocol is based on the distinction between controllers and synthesizers, and the most common MIDM bus architecture at a transfer rate of approximately 3 Kbytes / sec. Similarly, in a shared virtual environment and an environment of computers connected by a network in which multi-user games are common, communication bandwidth is also in great demand. Client computers are powerful and can handle a significant amount of integration. If the client shares a common library of integrations, the routine, and then the "event and controller parameters" display of the sound is very efficient, places a low demand on communication bandwidth, and High sound quality can be arbitrarily generated depending on the ability.

【0016】 上に概説された考慮はウェーブテーブルのイベントパターンに基づいてモデル
をして音響効果に導いた。個別のイベントがまだ記録された音サンプルに基づい
ているという事実は現実主義の顕著な程度に記録されたオーディオの再生録音と
ウェーブテーブルの統合と結び付きを維持する現在のシステムを許す。しかしパ
ターン代表での合成の建築物に向かっての動きは柔軟性でカーブを上に動かすシ
ステムを許す。
The considerations outlined above have led to sound effects modeling based on wavetable event patterns. The fact that the individual events are still based on recorded sound samples allows the current system to maintain a connection with the replay and recording of recorded audio and integration of wavetables to a remarkable degree of realism. But the movement towards the composite building in the pattern representative allows the system to move up the curve with flexibility.

【0017】 普通のデスクトップ形状がウェーブテーブルの能力で音源カードを含むので、
音処理とオペレーションを混ぜることの多くがカードの上に行われるように、ホ
ストはイベント制御装置レートにおいてだけ音建設を課される。さらに中にいる
純粋ソフトウェア統合環境、ウェーブテーブルのイベントパターンテクニックは
「サンプルによってのサンプル」統合より計算上効率的な音声の再生録音とさら
に多くよりいっそうフレキブルで、そしてメモリー効率的である。音がCPU集
中的な応用で埋め込みであるとき、これは重要である。
Since the ordinary desktop shape includes a sound source card with the capability of a wavetable,
The host is charged with sound construction only at the event controller rate so that much of the mixing of sound processing and operation takes place on the card. Furthermore, the pure software integration environment, Wavetable's event pattern technique, is more computationally efficient than "sample-by-sample" integration and more flexible and memory efficient than audio playback and recording. This is important when the sound is embedded in CPU intensive applications.

【0018】 効率的かつ表情豊かにモデリングアプローチの他の利点はその境界の中で効率
的に表されることができる音の幅である。音響効果のドメインを失う音がしない
、それで普遍性は重要である。 ウェーブテーブルのイベントパターン代表は2つの両極端の間に落ちる。1つ
の終わりの上にひとつの長いイベントがある、そしてそれは明らかに代表の有効
性、証明しない。他の極点の上に多数の非常に短いイベントがある。粗い統合は
時ドメイン信号を表すことができる一般的なテクニックである。しかしスペクト
ルのこの終わりは計算、望ましいバンド幅とメモリで望ましい縮小を達成しない
。イベントとシンセサイザーコマンドのレートが計算とバンド幅を、特にいくつ
かの音プロセスがすぐに走っているとき、処理しやすい必要条件にしておくため
に最低(音がめったに25/秒よりいっそう多くを使わない)にしておかれるこ
とは望ましい。他方、原子のイベント要素がより短いと、それだけ我々が、音を
コントロールすることにおいて、いっそう多くの柔軟性を供給することができる
。非常に効果的な対話性がしばしば音響効果毎に秒毎に10のようなイベントレ
ートで達成されることができる。
Another advantage of an efficient and expressive modeling approach is the breadth of sound that can be efficiently represented within its boundaries. There is no sound losing the sound effects domain, so universality is important. The event pattern representative of the wavetable falls between the two extremes. There is one long event on one end, which clearly does not prove the validity of the representative. There are a number of very short events on other extremes. Coarse integration is a common technique that can represent time-domain signals. However, this end of the spectrum does not achieve the desired reduction in computation, desired bandwidth and memory. The rate of events and synthesizer commands is the lowest (sounds seldom use more than 25 / s) to keep computation and bandwidth requirements easy to handle, especially when some sound processes are running quickly Is not desirable). On the other hand, the shorter the atomic event component, the more we can provide more flexibility in controlling the sound. Very effective interactivity can often be achieved at event rates such as 10 per second per sound effect.

【0019】 足跡を例であると考えなさい。望ましい制御は歩くか、あるいは走ることにつ
いてのレート、その人重量、耐えられているくつのタイプと表面特徴を伴うかも
しれない。 (我々が実際にひとつのステップを表すためのいくつかのイベントを使うけれ
ども)、イベントレートは明白に低い。ウェーブテーブルの数は望ましい可変性
の若干の機能である、しかし可変性のかなりの量が同じくボリュームとピッチの
ような標準的なウェーブテーブルのパラメータのコンビネーションで達成される
ことができる。
Consider footprints as an example. Desirable controls may involve the rate of walking or running, the weight of the person, the type of shoes being carried and the surface characteristics. The event rates are clearly lower (though we actually use several events to represent a single step). The number of wavetables is a function of some of the desired variability, but a significant amount of variability can also be achieved with a combination of standard wavetable parameters such as volume and pitch.

【0020】 当然このように設計される他のイベント志向の音響効果は拍手喝采、機関銃と
オブジェクトを返送することである。より速い不連続のイベントから作られてい
る音が多分それほど明白ではない。このカテゴリーはシャッフルしているカード
、パターンをかん高い声で言っているある特定の人工衛星と、若干のタイプのラ
チェットのような機械、さく岩ドリルとエンジン等を含む。
Of course, other event-oriented sound effects designed in this way are applause, returning machine guns and objects. The sounds being made from the faster discrete events are probably less obvious. This category includes shuffled cards, certain satellites shouting patterns, and some types of ratchet-like machines, rock drills and engines, and the like.

【0021】 これらのテクニックで設計されることができるもう1つの音タイプのクラスが
texturedな音である。このカテゴリーに滝、風、部屋堅固、群衆、トラ
フィック、ひっかき音と回転する音にする。たいていのマルチメディアアプリケ
ーションで今日、統計学的に安定した音を生成することは、短い記録でループポ
イントを作ることによって、される。不幸にして、耳はその発見が速く現実主義
のどんなセンスでも破壊するこのようなループのプレゼンスに非常に敏感である
。統計上のイベントを生成しているアルゴリズムがループが現在ある状態が使っ
た大部分で効率的に使われることができるそれらは最小限に同じくストアされた
データの量を保持する、しかし気を散らせる環状になっている効果を作り出さな
い。
Another class of sound types that can be designed with these techniques is textured sounds. In this category waterfall, wind, room firmness, crowd, traffic, scratching and spinning sounds. Generating a statistically stable sound in most multimedia applications today is done by making loop points in short recordings. Unfortunately, the ears are very sensitive to the presence of such loops whose discovery destroys any sense of realism fast. Algorithms that generate statistical events can be used efficiently in most of the situations where loops are currently used, but they also keep the amount of stored data to a minimum, but distracting Does not create an annular effect.

【0022】 ひとつのイベント(例えば発砲あるいは割れている鉛筆)と認知される音が同
じく柔軟性が、単純な音声の再生録音に関して、主要な利点であるという状態で
、同時にあるか、あるいは部分的に一致している多数のウェーブテーブルのイベ
ントを使って設計されることができる(使用法が記録してひとつのイベントより
いっそう重大にさえすることができたメモリ)。いっそう難しいが、モデルをす
るために、不可能でない音は見つけられていないイベントの変更を認めるのに十
分なきめ変化を持っていないそれらである(例えばきりのブンブンいう音)。こ
のように設計することが実際的でない音は多くの特質の向こう側に複雑な特有の
時間、連続を持っているそれらである(例えばスピーチ)。
The sound perceived as one event (eg, a fired or broken pencil) is either simultaneous or partial, with flexibility also being a major advantage with respect to simple audio playback and recording. Can be designed using multiple wavetable events matching the memory (memory usage could be recorded even more serious than one event). More difficult, but not impossible sounds to model, are those that do not have enough texture change to allow a change in an undiscovered event (eg, a crackle). Sounds that are impractical to design in this way are those that have a complex characteristic time, continuity across many attributes (eg speech).

【0023】 (そのために)このウェーブテーブルのイベントパターン代表が柔軟性、記憶
使用法と音品質、に関して効率的である音の距離はそれで非常に広い。 発明の目的 それはそのためにリアルタイムでユーザーの行動に返答する音響効果システム
を提供するための現在の発明の対象である。
The sound distance at which the event pattern representation of this wavetable is efficient with respect to flexibility, storage usage and sound quality is therefore very wide. Object of the invention It is the object of the present invention to provide a sound effects system for responding to user actions in real time.

【0024】 それはもう1つの現実的な調査の音響効果を作り出すことができる音響効果シ
ステムを提供するための現在の発明の対象である。 それは、音響効果を作ることにおいて、十分に時と労働をセーブすることがで
きる音響効果システムを提供するための現在の発明のさらにもう1つの対象であ
る。それはまだ、モデルベースの音響効果を作り出すことに対して、方法とシス
テムを提供するための現在の発明のさらにもう1つの対象である。
It is the subject of the present invention to provide a sound effects system capable of producing another realistic survey sound effect. It is yet another object of the present invention to provide a sound effects system that can save time and labor in making sound effects. It is still yet another object of the present invention to provide methods and systems for creating model-based sound effects.

【0025】 それはまだ現定されたクラスあるいは音響効果のサブクラスを生産するように
制約され、しかし広範囲の音響効果を作り出すことができるもう1つの方法とシ
ステムを提供するための現在の発明の対象である。 発明の要約 現在の音響効果システムは足跡、地震などのような音を生成する現象のパラメ
ータ化されたモデルに基づいている音響効果を引き起こす。現実主義を保証する
ためにモデルを作るとき、現象の行動の特徴は考慮に入れられる。音響効果がモ
デルから作られるから、システムはユーザーにより大きい柔軟性と対話性を許す
。パラメータのセットをコントロールすることによって、ユーザーはリアルタイ
ムでシステムと相互に作用することができる。それが広範囲の音響効果を作り出
すことができて、そして特定の音響効果あるいは音響効果のクラスを作り出すだ
けに制限されないという点で、システムは用途が広い。
It is still the subject of the present invention to provide another method and system that is constrained to produce a defined class or subclass of sound effects, but can produce a wide range of sound effects. is there. SUMMARY OF THE INVENTION Current sound effects systems produce sound effects that are based on parameterized models of sound-producing phenomena such as footprints, earthquakes, and the like. When creating models to guarantee realism, the behavioral characteristics of phenomena are taken into account. The system allows the user greater flexibility and interactivity because the sound effects are created from the model. By controlling a set of parameters, the user can interact with the system in real time. The system is versatile in that it can create a wide range of sound effects and is not limited to only creating a particular sound effect or class of sound effects.

【0026】 中央処理装置がそうであるシステム組み込みはランダムアクセスメモリ(RA
M)、キーボードのような1つあるいはそれ以上のインプット装置、マウス、制
御装置、MIDIコントローラーに接続した;視覚のディスプレイ装置;音シン
セサイザーとオーディオデジタル−アナログ・コンバータ(DAC)、アンプ、
拡声器あるいはヘッドホンを含めてシステムを出力した(あるいは代りに、これ
らの個別の装置の若干を統合している音源カードが使われることができる)、そ
して非破壊記憶装置のようなハードディスク。これらのコンポーネントは発明、
音響効果ソフトウェアエンジン(SFXエンジン)から成り立つ対話型の音響効
果コンピュータ・プログラム(SFXプログラム)について、そしてオプション
として中央の要素に補助の役割を演ずるグラフィカル・ユーザインタフェースプ
ログラム(GUI)。オペレーションの1つのモードでGUIはGUIを置き換
える支配的なプログラムによって置き換えられることができる。同じく現在は、
どんなパーソナル・コンピュータシステムでもの水準オペレーティング・システ
ムのような、オペレーティング・システムプログラムである。
The system incorporation of a central processing unit is a random access memory (RA
M), connected to one or more input devices such as a keyboard, a mouse, a controller, a MIDI controller; a visual display device; a sound synthesizer and an audio digital-to-analog converter (DAC), an amplifier,
Output system including loudspeakers or headphones (or alternatively, a sound card integrating some of these individual devices can be used) and a hard disk such as non-destructive storage. These components are inventions,
An interactive sound effects computer program (SFX program) consisting of a sound effects software engine (SFX engine) and, optionally, a graphical user interface program (GUI) that plays an auxiliary role in the central element. In one mode of operation, the GUI can be replaced by a dominant program that replaces the GUI. Also currently,
An operating system program, such as a standard operating system in any personal computer system.

【0027】 CPUは、よく知られている回をスライスさせるテクニックのような多重タス
ク処理に従ってSFXエンジン、GUIあるいは支配的なプログラム、オペレー
ティング・システムと多分他のプログラムのSにその処理力を共有して、メモリ
にプログラムのストアされたインストラクションを行する。SFXエンジンの指
揮の下で、それはイベントのストリームを届ける、あるいは回答でデジタルオー
ディオを作り出す音シンセサイザーへのコマンドがこれらのコマンドを出力する
。シンセサイザーのアウトプットは、それから拡大されて、そしてアンプと拡声
器あるいはヘッドホンの手段によってユーザーに配達されて、デジタル−アナロ
グ・コンバータ(DAC)によってアナログ形式に変換されるデジタル音声信号
である。オプションとしてデジタル音声信号は同じくそれがさらに処理されるか
、あるいは跡の回復のためにストアされることを可能にしているCPUに届けら
れるかもしれない。
The CPU shares its processing power with the SFX engine, GUI or dominant program, operating system and possibly other program's S in accordance with multitasking, such as the well-known slicing technique. And executes the instructions stored in the memory in the program. Under the direction of the SFX engine, it delivers these commands to a sound synthesizer that delivers a stream of events, or produces digital audio in response. The output of the synthesizer is a digital audio signal that is then expanded and delivered to the user by means of an amplifier and loudspeakers or headphones and converted to analog form by a digital-to-analog converter (DAC). Optionally, the digital audio signal may also be delivered to a CPU that allows it to be further processed or stored for trace recovery.

【0028】 SFXエンジンはGUIの手段によって、あるいはコンピュータゲームのよう
な外部の支配的なプログラムか、あるいはめったに両方ともによって同時には直
接制御されていない。GUIの管理の下で、ユーザーが効率的に、英数字のコン
ピュータキーボード、ポインティング装置、制御装置のような1つあるいはそれ
以上のインプット装置の手段によってそれをコントロールして、直線SFXプロ
グラムと相互に作用するとき、スライダバンクのような専門的なコントローラー
あるいは音楽キーボードが楽器デジタルインタフェースのような手段によって(
MIDI)標準、あるいは他の物理的コントロール手段を結んだ。役に立つこの
モード、モデルが現在いずれの音響効果であるかを含んでいるSFXエンジンの
地位についての視覚のインフォメーションをユーザーに提供するディスプレイ方
策が呼び出したGUIプログラム使用、これらの音モデルの構造、それらのパラ
メータの設定と他、インフォメーションである。
The SFX engine is not directly controlled at the same time by GUI means or by external dominant programs such as computer games, or rarely both. Under the control of the GUI, the user can efficiently control it by means of one or more input devices, such as an alphanumeric computer keyboard, pointing device, control device, and interact with the linear SFX program. When operating, a specialized controller such as a slider bank or a music keyboard is provided by means such as an instrument digital interface (
MIDI) standard or other physical control means. This mode useful, a GUI program uses a display strategy that provides the user with visual information about the status of the SFX engine, including which sound effects the model is currently calling, the structure of these sound models, their Information on parameter settings and other information.

【0029】 音モデルはインタフェース機能、外部の制御のためのパラメータ、プロセスが
CPUを共有するために停止される間に、国家を支える私的なデータ、モデルが
使う銀行ウェーブテーブルとイベントを生成するコードの中へのインデックスか
ら成り立つ。 音モデルは、多くの音クラスが直接ベースクラスから得られるという状態で、
オブジェクト指向クラス階層として整えられる。この構造は多くの特質があると
いう事実とすべての音に共通の方法(例えば場所、ボリュームのためである。他
方たいていの他の特質が1つのモデルに共通であるか、あるいは共通にさもなけ
ればわずかしか持っていない他のモデル(例えば足跡の表面特徴)と有した。
The sound model generates interface functions, parameters for external control, private data supporting the state, bank wavetables and events used by the model while the process is stopped to share the CPU. Consists of an index into the code. The sound model has many sound classes directly from the bass class,
It is arranged as an object-oriented class hierarchy. This structure has many attributes and a common way to all sounds (eg for location, volume. On the other hand most other attributes are common to one model or otherwise With other models that have only a few (eg surface features of footprints).

【0030】 モデルはいずれかの音を生成する現象に基づいている。現象の若干の例が空気
調整剤を走らせて、球技を跳ね上げて、自動車などを動かず足跡、地震、である
。それが関連づけられる若干の音がする限り、現象は事実上何でもあり得る。本
当に、現象はそれが実世界で実際に存在しなくてもよいという意味で必ずさえ現
実の現象である必要がない。
The model is based on the phenomenon of producing any sound. Some examples of phenomena are running footprints, earthquakes, running air conditioners, jumping ball games, not moving cars and the like. The phenomenon can be virtually anything, as long as it has some sound associated with it. Indeed, phenomena need not necessarily be real phenomena, even in the sense that they need not actually exist in the real world.

【0031】 音モデリングプロセスは音の生成に関係がある特定の音現象と結び付けられた
行動の特を識別することから始める。行動の特徴が世間知らずの聞き手が、どの
ようにそれが変化するか、あるいはそれに影響して異なった状態に応えて進展す
るか定義するそれらを含んで音響効果を他の音響効果から区別しているものと見
なすであろう特性のセットと定義されることができる。
The sound modeling process begins by identifying behavioral characteristics associated with particular sound phenomena related to sound production. Behavioral features distinguish acoustics from other acoustics, including those where a naive listener defines how it changes or evolves in response to different conditions Can be defined as a set of properties that would be considered.

【0032】 これらの状態の若干のために、音が現象から生成される方法の仕組みを分析す
ることは有用である。足跡を例として用いて、足跡から生成されている音は主に
2つの別のイベント、すぐ後、それから、表面を打っているかかとの衝撃、表面
を打っている足指の衝撃の結果として生じる。標準的な人の足跡のために、生成
された音の全体は他のフィートのかかと足指行動によって後に続かれた1フィー
トのかかと足指動きなどの結果として生じる。1人がより速く歩くとき、1フィ
ートのかかと足指行動と他のフィートのかかと足指行動から作り出された音の間
の時間隔は減少する。しかしながら、同じくかかとから作り出された音そして次
に足指の間の時間隔が同じく、かかと時間隔へのいずれかの関係に関して減少す
ることを悟ることは重要である。
For some of these situations, it is useful to analyze how the sound is generated from the phenomenon. Using the footprint as an example, the sound being generated from the footprint is primarily the result of two separate events, shortly thereafter, then the impact of a heel striking the surface, the impact of a toe striking the surface . Due to standard human footprints, the entire sound generated is the result of heel toe movements of one foot followed by heel toe movements of other feet. As one walks faster, the time interval between one foot heel action and the sound produced from the other foot heel action decreases. However, it is important to realize that the time interval between the sound also produced from the heel and then the toes also decreases with respect to any relationship to the heel time interval.

【0033】 行動の特徴が識別された途端に、多くの相違のために土台になるであろう若干
の音サンプあるいは手続き上生成された音が必要とされる。サンプルは、実世界
現象で実際の音のサンプル部分が見いだされるのを記録して、(あるいはただ前
もって録音して存在していくらかから部分をとる)ことによってあるはよく知ら
れている統合テクニックであって特定の音響効果という条件のもとでいっそう都
合が良いか、あるいは望ましいとはどちらを通してでも部分を作り出すことによ
って、得られるかもしれない。
As soon as the behavioral features are identified, some sound sump or procedurally generated sound is needed, which will be the basis for many differences. Samples are a well-known integration technique by recording the real-world phenomena where a sample portion of the actual sound is found (or just taking a portion from a pre-recorded existence). It may be obtained by making the part more convenient or desirable under the conditions of certain sound effects.

【0034】 音サンプルの長さの選択は因数の数に頼る。一般的な規則として、サンプルが
より小さいと、それだけ柔軟性がより大きい。裏面の上に、サンプルがより小さ
いと、それだけ現実主義を達成することがもっと難しいものがより大きい。良い
概算が、モデルのユーザーパラメータを変更することによって、現実での同等の
音の音波の可能性の知覚の限界の大部分が達成されることができる有用な柔軟性
の損失なしで、すなわち、可能な限り長いサンプルを持つはずである。音サンプ
ルの選択はパラメータの限界の上にある程度、そして同じく同じく現象の行動の
特徴に頼る。
The choice of the length of a sound sample depends on a number of factors. As a general rule, the smaller the sample, the greater the flexibility. On the back, the smaller the sample, the more difficult it is to achieve realism. A good approximation is that by changing the user parameters of the model, most of the perceptual limitations of the possibility of the equivalent sound wave in reality can be achieved without loss of useful flexibility, i.e. You should have the longest possible sample. The choice of sound sample depends to some extent on the limits of the parameters, and also on the behavioral characteristics of the phenomenon.

【0035】 行動の特徴が分析されて、サンプルが得られると、ユーザーパラメータ、すな
わち、音響効果をコントロールするためにモデルのユーザーにとって入手可能で
あるようにされるべきパラメータを選択することが必要である。パラメータは設
計された音を作り出すために制御される必要がある種々の要素を表す。パラメー
タは音響効果をもたらす多くの方法で構造化され得るけれども、本発明の好まし
い実施例のために、パラメータ構造が、トップと中央と底との3つのレイヤを持
っていると見ることは有用である。
Once the behavioral characteristics have been analyzed and a sample has been obtained, it is necessary to select the user parameters, ie the parameters to be made available to the user of the model to control the sound effects. is there. The parameters represent various factors that need to be controlled to produce the designed sound. Although the parameters can be structured in many ways to provide a sound effect, it is useful for the preferred embodiment of the present invention to see that the parameter structure has three layers: top, center and bottom. is there.

【0036】 トップのレイヤはユーザーと音響効果システムの間のインタフェースであるユ
ーザーパラメータから成り立つ。真ん中のレイヤはSFXエンジン、あるいは単
に「エンジンパラメータ」と称されるパラメータから成る。底のレイヤは現在の
音あるいは音楽シンセサイザーのいずれででも見いだされるよく知られているパ
ラメータであるシンセサイザーパラメータから成る。
The top layer consists of user parameters, which are the interface between the user and the sound effects system. The middle layer consists of the SFX engine, or parameters simply called "engine parameters". The bottom layer consists of synthesizer parameters, which are well-known parameters found in either current sound or music synthesizers.

【0037】 ユーザーパラメータのそれぞれは、より単純なケースにおいては、ユーザーパ
ラメータがシンセサイザーパラメータあるいはエンジンパラメータだけをコント
ロールするかもしれないけれども、エンジンパラメータとシンセサイザーパラメ
ータの組み合せに影響を与える。エンジンとシンセサイザーパラメータの任意の
組み合せが理論的に可能である。しかしながら、それらが結合される方法はどの
ようにユーザーパラメータが特定現象の行動の特徴を考慮に入れて定義されるか
によるであろう。
Each of the user parameters affects a combination of engine and synthesizer parameters, though in the simpler case the user parameters may control only the synthesizer parameters or the engine parameters. Any combination of engine and synthesizer parameters is theoretically possible. However, the way they are combined will depend on how the user parameters are defined taking into account the behavioral characteristics of the particular phenomenon.

【0038】 ユーザーパラメータは望ましい音響効果に関して定義される。例えば、足音の
場合は、ユーザーパラメータは場所、歩くスピード、ぐったりしたスタイル、重
量、過酷さ、表面タイプなどであり得る。これらのパラメータは仮想的に任意の
方法で定義できるけれども、もしそれらが音響効果が作り出されている現象と目
的の行動の特徴を直接的に反映するなら、しばしば最も有用である。
User parameters are defined for the desired sound effect. For example, for footsteps, the user parameters may be location, walking speed, sluggish style, weight, severity, surface type, etc. Although these parameters can be virtually defined in any way, they are often most useful if they directly reflect the characteristics of the phenomenon and the desired behavior for which the sound effects are being produced.

【0039】 中間的なレイヤパラメータ、あるいはエンジンパラメータと底レイヤパラメー
タ、あるいはシンセサイザーパラメータ、は共働してユーザーパラメータによっ
て定義される音響効果を作り出す。底レイヤパラメータは、ボリューム制御、パ
ン、ピッチ、フィルターカットオフ、振幅包絡線及び当業者によく知られている
多くの他のものといったサウンドマンピュレーションテクニックを含む。いつ、
そしてどのように中央と底レイヤパラメータが結合されるかは、特定の現象の行
動の特徴を考慮に入れるSFXエンジンによってコントロールされる。本質的に
、中央のレイヤは、底レイヤにより提供された基本的な音扱いパラメータを使う
音を「モデル」しているレイヤと見なされることができる。中央レイヤのパラメ
ータの役割が複雑であるけれども、パラメータはタイミングと、選択と、パター
ニングとに大きく分類できる。タイミングパラメータは基本的に特定の音響効果
内の数片の音のトリガとストップの間の時間間隔とシンセサイザーに送られた他
のコマンドの間の時間間隔の長さをコントロールする。選択パラメータは、サン
プルが選択されるオーダーを含み、所定の瞬間にどの音サンプルが選択されるか
がコントロールするパターニングパラメータはこれらの要因の間の関係をコント
ロールする。シンセサイザーパラメータと共に適切にエンジンパラメータのこれ
らの3つのクラスを調整することによって、音響効果の大きいセットが生成され
ることができる。
Intermediate layer parameters, or engine and bottom layer parameters, or synthesizer parameters, work together to create a sound effect defined by user parameters. Bottom layer parameters include sound manipulation techniques such as volume control, pan, pitch, filter cutoff, amplitude envelope, and many others well known to those skilled in the art. When,
And how the middle and bottom layer parameters are combined is controlled by the SFX engine that takes into account the behavioral characteristics of the particular phenomenon. In essence, the middle layer can be considered as a layer that "models" the sound using the basic sound handling parameters provided by the bottom layer. Although the role of the parameters in the middle layer is complex, the parameters can be broadly classified into timing, selection, and patterning. Timing parameters basically control the length of the time interval between triggering and stopping several pieces of sound within a particular sound effect and the time interval between other commands sent to the synthesizer. The selection parameters include the order in which the samples are selected, and the patterning parameters that control which sound sample is selected at a given moment control the relationship between these factors. By adjusting these three classes of engine parameters appropriately along with the synthesizer parameters, a large set of sound effects can be generated.

【0040】 一般に行動の特徴は、使われるシンセサイザーパラメータの選択で若干のふる
まいを持つであろうけれども、どのようにこれらのパラメータが選択されるべき
であるかについて難しくそして速い規則がない。音が幾分人間の理解力によって
定義されるから、そして同じく多くの微妙な相違があるから、現象の行動の特徴
の研究はどのようにシンセサイザーパラメータが所定の状態のために使われるべ
きであるか決定するために常に十分な情報を明らかにしないかもしれない。それ
故、若干の経験的な実験が行われる必要があるかもしれない。 発明の詳細な説明 システムの構成 全体的なシステムはいくつかのレイヤとして概念化され、一番上のレイヤが音
を使うであろうアプリケーションであるグラフィカル・ユーザインタフェースは
(どちらかと言うと特別なものであるけれども)そのようなアプリケーションの
1つである。次の層はアルゴリズムの音モデルのコレクションである。これらは
データをカプセルに包むオブジェクトであって、そして音行動を記述する。モデ
ルはアプリケーションが、メッセージをプレーし、ストップし、そして送ること
によって、あるいはパラメータを更新することによって、音をコントロールする
ために使うインタフェースを提供する。
In general, the behavioral features will have some behavior in the choice of the synthesizer parameters used, but there are no hard and fast rules on how these parameters should be selected. Since sound is somewhat defined by human comprehension, and also with many subtle differences, studies of the behavioral characteristics of phenomena should see how synthesizer parameters should be used for a given state May not always reveal enough information to decide. Therefore, some empirical experiments may need to be performed. DETAILED DESCRIPTION OF THE INVENTION System Configuration The overall system is conceptualized as a number of layers, and the graphical user interface, which is the application in which the top layer will use sound, is rather a special one. (Although there is) one such application. The next layer is a collection of algorithm sound models. These are the objects that encapsulate the data and describe the sound behavior. The model provides an interface that applications can use to control the sound by playing, stopping, and sending messages, or by updating parameters.

【0041】 音モデルはコマンドを生成して、そして適切な時にシンセサイザーにそれらを
渡す。シンセサイザーはサンプル毎のオーディオ波形が生産され、混合され、そ
して音声の出力装置に送られる後部である。 図1は本発明の望ましい実施例の主な要素を示すブロックダイアグラムである
。中央処理装置1は、ランダムアクセスメモリ(RAM)2、キーボード3のよ
うな1つあるいはそれ以上の入力装置、マウス4、制御装置5、MIDIコント
ローラー6;視覚に訴えるディスプレイ装置7;音シンセサイザー8デジタル−
アナログ・コンバータ(DAC)9を含む音声の出力システム、アンプ10、拡
声器あるいはヘッドホン、それ(あるいは代わりに、これらの個別の装置の若干
を統合しているサウンドカードが使われることができる)、ハードディスク12
のような不揮発記憶装置に接続されている。これらのコンポーネントは本発明の
中心的要素に対して補助の役割を演ずる。中心的要素とは音響効果ソフトウェア
エンジン(SFXエンジン)13と、そしてオプションとして、ラフィカル・ユ
ーザインタフェースプログラム(GUI)14とである。オペレーションの1つ
のモードでGUIはGUIを置き換える支配的なプログラム15によって置き換
えられることもできる。また、どんなパーソナル・コンピュータシステムでもの
水準オペレーティング・システムのような、オペレーティング・システムプログ
ラム16が存在する。
The sound model generates commands and passes them to the synthesizer at the appropriate time. The synthesizer is the rear where the audio waveform for each sample is produced, mixed and sent to an audio output device. FIG. 1 is a block diagram showing the main elements of a preferred embodiment of the present invention. The central processing unit 1 includes a random access memory (RAM) 2, one or more input devices such as a keyboard 3, a mouse 4, a control device 5, a MIDI controller 6; a visually appealing display device 7; a sound synthesizer 8 digital. −
An audio output system including an analog converter (DAC) 9, an amplifier 10, a loudspeaker or headphones, which (or alternatively, a sound card integrating some of these individual devices can be used); Hard disk 12
Is connected to a non-volatile storage device such as These components play an auxiliary role to the central element of the present invention. The core elements are a sound effects software engine (SFX engine) 13 and, optionally, a graphical user interface program (GUI) 14. In one mode of operation, the GUI may be replaced by a dominant program 15 that replaces the GUI. Also, there is an operating system program 16, such as a standard operating system in any personal computer system.

【0042】 CPU1は、SFXエンジン13、GUI14あるいは支配的なプログラム1
5、オペレーティング・システム16と多分他のプログラムの間によく知られて
いるタイムスライシングテクニックのような多重タスク形態に従ってその処理力
を分担して、メモリ内のプログラムのストアドインストラクションを実行する。
SFXエンジンの命令の下で、それは音シンセサイザー8にコマンドのストリー
ムを届ける。そしてそれはこれらのコマンドに応えてデジタルオーディオを生成
する。シンセサイザーの出力はデジタル−アナログ・コンバータ(DAC)9に
よってアナログ形式に変換されるデジタル音声信号であって、その時アンプ10
と拡声器あるいはヘッドホン11によって、ユーザーに渡される。オプションと
してデジタル音声信号はまたCPUに戻されて、さらに処理されるか、あるいは
後の修復のためにストアされることを可能にしてもよい。
The CPU 1 controls the SFX engine 13, the GUI 14, or the dominant program 1
5. Execute the stored instructions of the program in memory, sharing its processing power according to a multi-task configuration such as a well-known time slicing technique between the operating system 16 and possibly other programs.
Under the direction of the SFX engine, it delivers a stream of commands to the sound synthesizer 8. And it produces digital audio in response to these commands. The output of the synthesizer is a digital audio signal which is converted to analog form by a digital-to-analog converter (DAC) 9 and then an amplifier 10
Is passed to the user by the loudspeaker or the headphone 11. Optionally, the digital audio signal may also be returned to the CPU for further processing or storage for later restoration.

【0043】 ハードディスクまたは他の不揮発記憶装置12は次の項目を無限に格納する手
段を提供する。データと多数の音響効果を表しているインストラクションを含む
SFXプログラムそれ自身SFXプログラムのパラメータと他の可変要素の設定
オプションとして、SFXプログラムの制御の下にシンセサイザー8から出力さ
れるデジタルオーディオ。
The hard disk or other non-volatile storage device 12 provides a means for storing the following items indefinitely. A digital audio output from the synthesizer 8 under the control of the SFX program, as an option of setting the parameters and other variables of the SFX program itself, including data and instructions representing a number of sound effects.

【0044】 SFXエンジン13はGUI14の手段によって、あるいはコンピュータゲー
ム15のような外部の支配的なプログラムから、あるいはまれには両方によって
同時に、直接制御される。GUIの管理の下で、ユーザーが効率的に、英数字の
コンピュータキーボード3、ポインティングデバイス4、ジョイスティック5と
いった1つ以上の入力装置によってそれをコントロールして、直接SFXプログ
ラムと対話するとき、スライダ銀行のような専門的なコントローラーあるいは音
楽キーボードが楽器ディジタル・インタフェース(MIDI)水準6のような手
段、あるいは他の物理的な支配的な手段によって接続した。役に立つこのモード
で、GUIプログラム14はモデルが現在そうである音響効果が含めて13を呼
び出したSFXエンジンの地位についての視覚のインフォメーション、これらの
音モデルの構造、(彼・それ)らのパラメータの設定と他のインフォメーション
でユーザーに供給するべきディスプレイ装置7を使う。
The SFX engine 13 is directly controlled by means of a GUI 14 or from an external dominant program such as a computer game 15 or, in rare cases, both simultaneously. Under the control of the GUI, when the user efficiently controls it with one or more input devices such as an alphanumeric computer keyboard 3, pointing device 4, joystick 5 and interacts directly with the SFX program, the slider bank A specialized controller such as a musical keyboard or a musical keyboard connected by means such as Musical Instrument Digital Interface (MIDI) Level 6, or other physical dominant means. In this useful mode, the GUI program 14 provides visual information about the status of the SFX engine, including the sound effects that the model is currently calling 13, the structure of these sound models, their parameters Use the display device 7 to be provided to the user with settings and other information.

【0045】 制御装置がポインティングデバイスの手段によってであるとき、ディスプレイ
装置7いつもの方法におけるポインティングデバイスの論理名ポジションの上に
ユーザーに同じくフィードバックを提供する。ディスプレイ7を観察して、そし
て/あるいはオーディオが、インプット3から6までの方策を操る間に、出力さ
れるのに耳を傾けることによって、結果に満足しているまで、ユーザーは音響効
果を変えることが可能である。オペレーションのこの様式はSFXシステムの一
般的な音響効果モデルから、オーディオを作り出すためにそれ、轤始めるか、あ
るいは引き起こしているモデルがシステムから出力した音響効果を選んで、モデ
ルのパラメータを調整して、モデルと他の動きの要素を選択することによってユ
ーザーに彼/彼女の必要に従って特定の音響効果を作ることを許すよう意図され
る。
When the control device is by means of a pointing device, the display device 7 also provides feedback to the user on the logical name position of the pointing device in the usual way. By observing the display 7 and / or listening to the audio being output while manipulating the input 3 to 6, the user changes the sound effect until satisfied with the result. It is possible. This mode of operation is to create an audio from the general sound effects model of the SFX system, start it on, or select the sound effects that the model causing the output from the system and adjust the parameters of the model It is intended to allow the user to create specific sound effects according to his / her needs by selecting models and other movement elements.

【0046】 オペレーションの代わりのモードでSFXエンジン13は外部の支配的なプロ
グラムの制御装置の下で、コンピュータゲームの謔、な、15、ネットワーク−
在住のインフォメーションサイト(ウェブサイト)のプログラム、バーチャル・
リアリティープログラム、ビデオをエディッしているプログラム、マルチメディ
アオーサリングツール、あるいは音響効果を必要とする他のいかなるプログラム
でもある。このモードでユーザーはインプット3から6までの装置とディスプレ
イ装置7の手段によって支配的なプログラム15と相互に作用する。SFXエン
ジン13は、その制御装置の下で音響効果を作り出して、支配的なプログラム1
に奴隷の役を務める、支配的なプログラムがデータをSFXエンジン13、支配
的なメッセージとしてSFXエンジンによって翻訳されているこのデータに送る
ことを可能にすることによって、こ黷へ達成される。オペレーションのこのモー
ドで、SFXエンジンはディスプレイ7の上に典型的にユーザーに見えないであ
ろう、そして間接IにSFXエンジンに影響を与える支配的なプログラムの局面
によってだけユーザーによって支可能であるであろう。ユーザーがSFXエンジ
ンに関して持つ制御の方法と学位は完全に支配的なプログラムの機能であって、
そして支配的なプログラムのデザイナーによって決断される。 論理的な構造 現在のシステムの論理的な構造はイチジク2で見せられる。主な要素は、上に
記述されるように、GUI2のか、あるいは、オペレーションの代わりのモード
で、外部の支配的なプログラムの制御の下の制御の下にあるかもしれないセック
スエンジン1である。音声のアウトプットシステムに導くシンセサイザー4が同
じく見せられる。これらの要素はイチジク1の対応する要素と比べて同じである
が、それらの論理的な相互関係を強調する方法に示されてここにある。
In an alternative mode of operation, the SFX engine 13 operates under the control of an external dominant program, such as a computer game, 15, network,
Resident information site (website) program, virtual
Reality programs, video editing programs, multimedia authoring tools, or any other program that requires sound effects. In this mode, the user interacts with the dominant program 15 by means of the devices 3 to 6 and the display device 7. The SFX engine 13 creates sound effects under its control,
This is accomplished by allowing the dominant program, which acts as a slave, to send data to the SFX engine 13, this data being translated by the SFX engine as the dominant message. In this mode of operation, the SFX engine will typically not be visible to the user on the display 7 and can be supported by the user only through indirect I dominant program aspects that affect the SFX engine. There will be. The control method and degree that the user has on the SFX engine is a completely dominant program function,
And decided by the dominant program designer. Logical Structure The logical structure of the current system is shown in FIG. The main element is the sex engine 1, which may be under the control of the GUI 2, as described above, or in an alternative mode of operation, under the control of an external dominant program. Synthesizer 4 leading to an audio output system is also shown. These elements are the same as the corresponding elements of FIG. 1, but are shown here in a way that emphasizes their logical interrelationships.

【0047】 発明が直接ユーザによって使われているオペレーションのモードで、ユーザー
はGUI2の手段によってシステムをコントロールする、そしてそれは(コンピ
ュータキーボードのキーストロークあるいはポインティングデバイスの動きのよ
うな)ユーザーインタフェースを受け入れて、そして共にシステムのそして彼の
効果/彼女の行動の地位のユーザーに知らせるために行動をする。音響効果の生
産に影響を与えるユーザー行動がGUIから音響効果を始めて、解雇して、そし
てコントロールするためのSFXエンジン1まで送られるコントロールメッセー
ジを生成する。これらのメッセージはSFXエンジンによって決定された、そし
てGUIに知られているフォーマットにある。これらのメッセージに応えて、S
FXエンジン1はcurrently−active音響効果の行動を設計して
、そしてイベントのストリームあるいはシンセサイザー4送られるコマンドを生
成する、そしてそれは順番に音声の生産を生成する。GUI2によって使われる
ディスプレイの方法に影響を与えているある特定のインフォメーションはSFX
エンジン1の中で含んでいられる:例えば音響効果モデルの制御装置パラメータ
が示されるべきである方法は1つのモデルからもう1(つ・人)まで変動する、
そしてインフォメーションはcurrently−active音響効果モデル
についてSFXエンジンによって持たれる。それでSFXエンジンからGUIま
でインフォメーションが返される必要がある、そして、SFXエンジンがディス
プレイインフォメーションをGUIに送ることを可能にするか、あるいはGUI
がSFXエンジンからディスプレイインフォメーションを引き出すことを可能に
することによって、これは達成される。
In the mode of operation in which the invention is used directly by the user, the user controls the system by means of GUI2, which accepts a user interface (such as a computer keyboard keystroke or a pointing device movement). And act together to inform the user of the status of the system and his effect / her action. User actions that affect the production of sound effects initiate a sound effect from the GUI, generate a control message that is sent to the SFX engine 1 for firing and control. These messages are determined by the SFX engine and are in a format known to the GUI. In response to these messages, S
The FX engine 1 designs the behavior of a currently-active sound effect and generates a stream of events or commands sent to the synthesizer 4, which in turn generates a production of voice. Certain information affecting the display method used by GUI2 is SFX
Included in the engine 1: for example, the way in which the controller parameters of the sound effects model should be indicated varies from one model to another,
The information is then provided by the SFX engine for the currently-active sound effect model. So the information needs to be returned from the SFX engine to the GUI, and allows the SFX engine to send display information to the GUI or the GUI
This is accomplished by allowing the SFX engine to retrieve display information from the SFX engine.

【0048】 発明の外側のプログラムからSFXエンジンがコントロールされているオペレ
ーションの代わりのモードで、ユーザーは全に発明から独立している方法で外部
の支配的なプログラム3と相互に作用する。3つの送信がコントロールする支配
的なプログラムはSFXエンジンに音響効果を始めて、解雇して、そしてコント
ロールするための1を伝える。これらのメッセージはSFXエンジンによって決
定された、そして支配的なプログラムに知られているフォーマットにいて、そし
て典型的にそうするために、類似あるいは上に記述されたオペレーション唐最初
のモードでGUIによって使われたそれらの下位グループである。これらのメッ
セージに応えて、SFXエンジン1の主な目的はcurrently−acti
ve音響効果の行動を設計して、そしてイベントのストリームあるいはシンセサ
イザー4に送られるコマンドを生成することである、そしてそれは順番に音声の
生産を生成する。
In an alternative mode of operation in which the SFX engine is controlled from a program outside the invention, the user interacts with the external dominant program 3 in a way that is completely independent of the invention. The dominant program of the three transmission controls tells the SFX engine one to start, fire and control sound effects. These messages were determined by the SFX engine and are in a format known to the controlling program, and are typically used by the GUI in similar or similar modes of operation as described above. They are subgroups of them. In response to these messages, the main purpose of the SFX engine 1 is currently-acti
It is to design the behavior of the ve sound effects and to generate a stream of events or commands sent to the synthesizer 4, which in turn generates a production of sound.

【0049】 SFXエンジン1の主な内部の素子は対話型の音響効果モデル(SFXモデル
)のセットである5;アプリケーションプログラマインタフェース(API)7
;メッセージプロセッサ8;パラメータリンカー/マッパ9;タイミングとシン
セサイザーコマンドプロセッサ(TSCP)10。 ライブラリあるいは相互作用の音響効果モデル(SFXモデル)5のセットで
、それぞれのモデルが音特徴と音響効果の行動、あるいは音響効果のクラスを表
してデータとプログラム学習から成り立つ。これらのモデルは連続的に、あるい
は同時に訴えられるかもしれない、それでシステムは(いわゆる「リアルタイム
」で)感知できないか、あるいはほとんど感知できない遅れの後に孤立して、あ
るいは結合で、典型的に音響効果を引き起こすことができる。それぞれのSFX
モデルがSFXモデルによって作り出された音を変えるために使われるかもしれ
ない1(つ・人)あるはそれ以上のコントロールパラメータを提供される、そし
て、システムが音響効果を闖すことである間に、これらのコントロールパラメー
タは同じくアウトプットの聞える変更を作り出す本当の時間で修正されるかもし
れない。ある特定のケースで複合的な音響効果モデルはモデルが、それで独断的
に複雑なモデルに多くのより単純なモデルから作られることができるようにして
、レベルのどんな数か轤も成り立っている階層で取り決めた他の音響効果で構成
されているかもしれない。
The main internal elements of the SFX engine 1 are a set of interactive sound effect models (SFX models) 5; an application programmer interface (API) 7
Message processor 8; parameter linker / mapper 9; timing and synthesizer command processor (TSCP) 10. A library or a set of interaction sound effect models (SFX models) 5, each model representing a sound feature and a sound effect action or a sound effect class, and is composed of data and program learning. These models may be sued continuously or simultaneously, so the system is typically acoustically isolated or coupled after an imperceptible or almost imperceptible delay (so-called "real-time") Can cause. Each SFX
One or more control parameters that the model may be used to alter the sound produced by the SFX model are provided, while the system is breaking sound effects These control parameters may also be modified in real time, producing audible changes in output. In certain cases a complex sound effects model is a hierarchy where any number of levels or wheels make up the model, so that it can be made arbitrarily complex from many simpler models. May consist of other sound effects negotiated in.

【0050】 アプリケーションプログラマインタフェース(API)7は支配的なメッセー
ジ、GUI2あるいは外部の支配的なプログラム3から到着しているこれらのメ
ッセージとしてSFXエンジンによって翻訳されるデータを受け取る。APIは
いずれのメッセージのタイプが送られたかを立証するためにメッセージを解読し
て、そしてメッセージプロセッサ8へのメッセージを転送する。
An application programmer interface (API) 7 receives data translated by the SFX engine as dominant messages, these messages arriving from the GUI 2 or an external dominant program 3. The API decrypts the message to establish which type of message was sent and forwards the message to the message processor 8.

【0051】 8が、スタートして、そして特定の音響効果を止めることを含んで、ロードし
て、そして音響効果をアンロードして、支配的なメッセージによって指揮されて
行動を行うメッセージプロセッサは、制御装置パラメータの修正の効果をSFX
モデルに適用して、その全体的な行動に影響を与えるSFXエンジンの設定を修
正して、そしてさもなければSFXエンジンをコントロールして、RAMから設
計する。
The message processor 8, which includes starting and stopping specific sound effects, loading and unloading sound effects, and taking action directed by a dominant message, SFX effect of modification of control device parameters
Modify the settings of the SFX engine that apply to the model to affect its overall behavior, and otherwise control the SFX engine and design from RAM.

【0052】 パラメータリンカー/マッパ9が制御装置パラメータあるいはメタパラメータ
の1つあるいはそれ以上の代わりのセットをSFXモデルに寄付することについ
ての手段に提供する、そしてそこでこれらのメタパラメータはパラメータの階層
でSFXモデルのオリジナルの制御装置パラメータセットにあるいは他のメタパ
ラメータにリセットされる。それは同じくコントロールパラメータとメタパラメ
ータの数学的な変換を値に適用す驍とについての手段を供給する。特定のSFX
モデルのオリジナルの制御装置パラメータが、例えばSFXエンジンがそれ自身
のデザイン制約を持っている外部の支配的なプログラム3によってコントロール
されているとき、あるいはSFXモデルが、上に記述されるように、複合的なS
FXモデルの一部を形成するとき、必ずしもすべてのケースで最も適切でも、あ
るいは有用でもあるから、パラメータリンカー/マッパは有用である。
The parameter linker / mapper 9 provides a means for donating one or more alternative sets of controller parameters or meta-parameters to the SFX model, where these meta-parameters are organized in a hierarchy of parameters. Reset to the SFX model's original controller parameter set or other meta-parameters. It also provides a means for applying mathematical transformations of control parameters and meta-parameters to values. Specific SFX
When the original controller parameters of the model are controlled by an external dominant program 3, for example, where the SFX engine has its own design constraints, or the SFX model is described above, Typical S
When forming part of an FX model, the parameter linker / mapper is useful because it is not always the most appropriate or useful in all cases.

【0053】 タイミングとシンセサイザーコマンドプロセッサ(TSCP)10はタイミン
グにそしてシンセサイザー4に送られるイベントの処理と他のコマンド塔hと関
係がある多くの機能を提供する。発明は統合の特定の方法に限定されていない、
そしてこの要素の細部が際立ってタイプシンセサイザーのデザインに依存する。
どんなに2つの一般的な機能が識別されたとしても: 1.音を作り出すためのシンセサイザーに配達されるMIDIコマンドのよう
なコマンドのストリームを作り出すことによって、SFXエンジンは稼働する、
そして典型的にこのプロセスはリアルタイムで起こる。イベントあるいはコマン
ドが受けられる瞬間にアウトプット音を作り出すか、あるいは修正することによ
って、たいていのシンセサイザーが稼働する。従ってSFXエンジンの単純なイ
ンプリメンテーションがシンセサイザーコマンドを引き起こすか烽れない、ただ
今のところそれらはシンセサイザーによって必要とされるかし、CPUがアウト
プット音の聞こえる中断を避けるのに十分速く多数のSFXモデルの複雑なコマ
ンドストリームを処理することが不可能であるかもしれないから、これはタイミ
ング中断についてさらされ易い。それ故、現在の時より先に短い間隔コマンドを
生成して、データバッファのようなメカニズムでそれらを待ち行列に入れて、そ
して適切な時にシンセサイザーにそれらを配達することによって、いっそう洗練
されたインプリメンテーションがタイミングのより大きい一貫性を達成すること
ができる。TSCPは(それによって)コマンドが現在の時より先に生成される
インターバフ(intervaf)が同じく違って異なったSFXモデルの予定
になっているかもしれない最適な価値に調整されるかもしれないほど方法、この
機能を提供する。最適条件はそのコントロールパラメータの変更に反応が早いタ
イミング中断を避ける必要とシステムを作る必要の間に妥協である。
The timing and synthesizer command processor (TSCP) 10 provides many functions related to the processing of events sent to the synthesizer 4 in timing and other command towers h. The invention is not limited to a particular method of integration,
And the details of this element remarkably depend on the design of the type synthesizer.
However two general functions are identified: The SFX engine works by creating a stream of commands, such as MIDI commands, that are delivered to a synthesizer to create the sound.
And typically this process occurs in real time. Most synthesizers operate by creating or modifying the output sound at the moment an event or command is received. So it may be a signal that a simple implementation of the SFX engine will trigger the synthesizer commands, but at the moment they are needed by the synthesizer or the CPU will not be able to send multiple SFXs fast enough to avoid audible interruptions of the output sound. This is vulnerable to timing interruptions, as it may not be possible to handle the complex command stream of the model. Therefore, an even more sophisticated implementation is to generate short interval commands earlier than the current time, queue them with a mechanism such as a data buffer, and deliver them to the synthesizer at the appropriate time. Annotations can achieve greater consistency in timing. The TSCP may be adjusted so that the intervaf (by which the command is generated earlier than the current time) may also be differently scheduled for different SFX models. How to provide this function. Optimal conditions are a compromise between the need to avoid timing interruptions that are responsive to changing the control parameters and the need to build a system.

【0054】 2.もし1以上のSFXモデルがアクティブであるなら、あるいはもしひとつ
のSFXモデルが複雑であるなら、それぞれのシンセサイザーチャネルが準備さ
れるシンセサイザーの異なったチャネルに音響効果の異なった音要素を作る配達
されなくてはな轤い多数のコマンドストリームを作り出すための必要がある。典
型的な実行でこれらの経路は限定されたリソースであって、そして慎重に管理さ
れて、要求次第ダイナミックに例えば割り当てられなくてはならない。TSCP
は合成としてチャンネルのマネージャーを演ずる。
[0054] 2. If more than one SFX model is active, or if one SFX model is complex, each synthesizer channel will not be delivered to a different channel of the prepared synthesizer, producing a different sound component of the sound effect. There is a need to create a large number of command streams. In a typical implementation, these paths are limited resources and must be carefully managed and dynamically allocated on demand, for example. TSCP
Plays the channel manager as a composition.

【0055】 上に述べられるように、ハードディスクあるいは他のnonvolatile
記憶装置(イチジク1での12)の1つの目的がいつまでもパラメータとSFX
プログラムの他の可変的な要素の設定をストアする手段を供給することである。
システムがそれがシステムが外部の支配的なプログラムの制御の下に代わりのモ
ードあるときそれから再呼出しされるGUIを使っているユーザーによって直接
コントロールされているモードにある間に、このようなパラメータと他の要素は
セーブされるかもしれない。これは音響効果のパラメータがパラメータの値のセ
ットがアプリケーションに最も適であって、SFXエンジンが外部(the.e
xternal)の管理の下でシステムが同一か、あるいはほとんど同一の音響
効果を引き起こすようにするための支配的なプログラムである間に、それから値
のこの同じセットを再呼出しするために見いだしたGUIセーブを使うという状
態で、ユーザーに直接実験することを許す。このようにして音響効果を蓄えて、
そして思い出すことはそのパラメータを変えること、ついての手段によって、そ
れが思い出された後、変えられてそれがそのために通り過ぎて完全に音響効果の
モデルに基づいていて、そしてそうしてもよいという点で貯蓄してそして音響効
果のデジタルの音声信号を思い出すことと異なる。
As mentioned above, a hard disk or other nonvolatile
One purpose of storage (12 in FIG. 1) is to permanently store parameters and SFX
The provision of a means for storing the settings of other variable elements of the program.
While the system is in a mode that is directly controlled by the user using a GUI that is then recalled when the system is in an alternate mode under the control of an external governing program, such parameters and Other elements may be saved. This is because the parameters of the sound effects are most suitable for the application and the SFX engine is external (the.e.
GUI saves then found to recall this same set of values, while under control of the xternal) system is the dominant program to cause the same or almost the same sound effects Allow users to experiment directly with the use of. In this way, we store sound effects,
And remembering that by changing the parameters, by means of which, after it is remembered, it is changed, it passes by for it and is completely based on the model of sound effects, and may do so Unlike saving and recalling digital sound signals with sound effects.

【0056】 モデルが現実的な音を作り出して、そしてパラメータ変更に写実的な、そして
/あるいは予測可能な方法で返答するように、音モデルは注意深く物理学あるい
は実世界オブジェクトの他の行動にあわせて形づくられるかもしれない。これら
が密接に設計されている音を生成している現象の行動の特徴と関係があるという
状態で、モデルがそうであるかもしれない音響効果は問題の特定の音響効果に最
も重要であるか、あるいは適切であるとみなされたコントロールパラメータのセ
ットを割り当てた。パラメータのこのセットは特定のモデルに特有なパラメータ
、類似のモデルのセットの一般的なパラメータとシステムのすべてのモデルに一
般的なパラメータを含むかもしれない。例えば人間の足跡のモデルがこのモデル
に特有であるであろう歩くスタイルのためにパラメータを、すべての人と動物足
跡モデルとボリュームのような他のパラメータあるいはすべてのモデルに共通の
反響深さにもう1つの普通であるであろう歩くスピードのためのパラメータを持
っているかもしれない。
As the model produces realistic sounds and responds to parameter changes in a realistic and / or predictable manner, the sound model is carefully tailored to the physics or other behavior of the real world object. May be shaped. With these closely related to the behavioral characteristics of the sound-generating phenomena that are closely designed, are the acoustic effects that the model might be most important for the particular acoustic effects in question? Or assigned a set of control parameters deemed appropriate. This set of parameters may include parameters that are specific to a particular model, general parameters for a similar set of models, and general parameters for all models of the system. For example, the parameters for the walking style in which the model of human footprints would be specific to this model, set the parameters to other parameters such as all human and animal footprint models and volume, or the echo depth common to all models. You may have another parameter for walking speed that would be normal.

【0057】 システムはエンティティーを音−作り出して当然の写実的なシミュレーション
が起こるという状態で、プログラムを計画されるモデル、実世界で対応物を持っ
ていない劇的な効果と純粋に想像力が豊かな性質の他の音響効果のために性格に
おいて誇張される他の音響効果を含むことができる。それらの自然生成(nat
urally−occurring)対応物の健全な連続シーンであるか、ある
いは他の聞こえる特徴、写実的なシミュレーションのケースと本当の音の誇張で
、音響効果モデルが自動的に音の正確な複製を供給するであろうように、音響効
果モデルは精度のどんな選ばれた度にでもそれら自然生成(naturally
−occurring)対応物の行動にあわせて形づくられるかもしれない。
The system models the program, with dramatic effects that have no real-world counterparts and pure imagination, with sound-producing entities and natural photorealistic simulations taking place. Other sound effects that are exaggerated in character due to other sound effects of a particular nature can be included. Their natural generation (nat
The sound effect model automatically provides an exact reproduction of the sound, either in a sound continuous scene of the correspondingly-occurring counterpart or in other audible features, the case of a realistic simulation and the exaggeration of the real sound. As will be appreciated, the sound effects models have their natural generation at any chosen degree of accuracy.
-Occurring) may be shaped according to the behavior of the counterpart.

【0058】 システムは同じく「複合的な音」を支援することができる:これらは段層でレ
ベルのどんな数ででも他の音モデルの階層から成り立つ音モデルである。典型的
に(彼・それ)らは多くの音波の要素から成り立っている全部の場面を表すかも
しれない。トップのレベルにおいてユーザーは現場全体に対する変更をすること
ができる(例えば、全体的なボリュームを変える)、しかし個別の要素の上の制
御同じく可能である、そしてこれらのより低レベルの要素はオプションとして離
される(「一人で」聞かれる)に得る(彼・それ)らに調整をするとき。
The system can also support “complex sounds”: these are sound models that consist of a hierarchy of other sound models at any number of levels in the tier. Typically they may represent an entire scene that is made up of many sonic components. At the top level the user can make changes to the entire site (eg, change the overall volume), but control over individual elements is also possible, and these lower level elements are optional When making adjustments to get them released (heard "alone").

【0059】 システムはパラメータが数学的な関係に従って他のパラメータのコンビネーシ
ョンに関連づけられるかもしれない「パラメータをつなぐこと」に対する一般的
なサポートを含む。;これは、例えば、レベルが高いパラメータが多数のより低
レベルのパラメータの全面的な変更をすることか、あるいは大きさを調整するこ
とを他のパラメータに適することか、あるいはいくつかの他のパラメータの変更
の複雑なセットを作るために使われることを可能にする。
The system includes general support for “connecting parameters” where parameters may be related to combinations of other parameters according to mathematical relationships. This may mean, for example, that a higher level parameter makes a total change of a number of lower level parameters, or adjusts the magnitude to suit other parameters, or some other Allows it to be used to create complex sets of parameter changes.

【0060】 可能な限り現実的な音を立てるために、システムは正確な反復を避けて、そし
て自然の効果を達成するために生産された音に(典型的にランダムであるか、あ
るいは半ランダムな自然の)変動を導入することができる。変動を紹介するため
のテクニックが含む: − コマンドのタイミングあるいはシンセサイザーに送られたイベントを変える
− シンセサイザーに送られたコマンドでパラメータの値を変える − もしシンセサイザーが再生しているサンプルに基づいたものであるなら、類似
であるが、同一でないサンプルのコレクションから、ランダムにサンプルを選択
する。
In order to make the sound as realistic as possible, the system avoids exact repetition and creates a sound (typically random or semi-random) to produce a natural effect. Natural) fluctuations can be introduced. Techniques for introducing fluctuations include:-changing the timing of commands or events sent to the synthesizer-changing the value of parameters with commands sent to the synthesizer-if based on the sample the synthesizer is playing If so, randomly select a sample from a collection of similar but not identical samples.

【0061】 この間隔が、もしタイムクリティカルのコマンドがそれらが必要とされる瞬間
に生成され、しかしシステム中断を克服するのに十分なそれが長いので、システ
ムは感知できないか、あるいはほとんど感知できない遅れの後にその制御装置パ
ラメータの変更に反応するように、定められているという状態で、システムは現
在の時より先に短い間隔シンセサイザーにコマンドのストリームを生成する。
The interval is such that if the time-critical commands are generated at the moment they are needed, but it is long enough to overcome the system interruption, the system is insensitive or almost insensitive The system generates a stream of commands to the short interval synthesizer earlier than the current time, in a defined manner to respond to changes in its controller parameters after.

【0062】 システムはトリガの2つのモードを供給する。1つのモードでは、音響効果、
一般的に連続的な、発展的なあるいは反復的な性質は一度開始し、連続的に明示
的に止められるまで継続する。 他のモードで、それらがコンピュータゲーム、ファイル、ビデオ製作、あるい
アニメーションで視覚のイベントで、それで正確な同時発生を許して、必要とさ
れる並びに、音響効果典型的に短い非連続的性質が引き起こされる。
The system provides two modes of triggering. In one mode, sound effects,
In general, a continuous, evolving or repetitive nature starts once and continues continuously until explicitly stopped. In other modes, they are visual events in computer games, files, video productions, or animations, thus allowing precise synchrony, as well as sound effects, typically short non-continuous properties Is caused.

【0063】 システムは音響効果のクラスの行動がコード化される、そして、一般的なモデ
ルのオプションを選択して、一般的なモデルの変数の値を特定の値にセットして
、そしてそれ自身のサンプルをシンセサイザーに提供することによって、システ
ムのユーザーが特定の音モデルを作ることができる方法を提供する一般的な音響
効果モデルを含む。 音響効果統合テクニック 音の表現 音モデルはインタフェース機能から成り立つ、外部の制御のためのパラメータ
、プロセスがCPU時間を共有するために停止される間に、状態を維持する私的
なデータ、はバンクウェーブテーブル、あるいは統合の中にモデルが使うデータ
とイベントを生成するコードにインデックスする。
The system encodes the behavior of the class of sound effects, selects the options of the generic model, sets the values of the variables of the generic model to specific values, and itself And a general sound effects model that provides a way for a user of the system to create a particular sound model by providing the sample to the synthesizer. Sound Effects Integration Techniques Sound Representation The sound model consists of interface functions, parameters for external control, private data that maintains state while the process is stopped to share CPU time, is a bank wave. Index into the code that generates the data and events used by the model in a table or integration.

【0064】 音モデルは、多くの音クラスが直接ベースクラスから得られるという状態で、
オブジェクト指向クラス階層として整えられる。この構造は多くの特質があると
いう事実とすべての音に共通の方法(例えば場所、ボリューム)のためである、
他方たいていの他の特質が1つのモデルに共通であるか、あるいは共通にさもな
ければわずかしか持っていない他のモデル(例えば足跡の表面特徴)とを有した
。音モデルはそれらがCPUを共有するメカニズムである時間のコンピュータア
ヘッドの窓を持っている。この窓は異なった音モデルのために異なり得る、そし
て通常100−300ミリセカンドの限界である。音モデルプロセスはこのレー
トにおいてリコールされる、そしてすべてのイベントアップがそうすると計算す
る、そして少し向こうに次のものはコールバック時間を期待した。イベントはそ
れらの望ましいアウトプット時でタイムスタンプを押され、そして(より詳細は
Fig.4A,4B及び以下の記載参照)アウトプットマネージャーに行かせら
れる。
The sound model is based on the fact that many sound classes are obtained directly from the bass class.
It is arranged as an object-oriented class hierarchy. This structure is due to the fact that it has many qualities and a way common to all sounds (eg location, volume),
On the other hand, most other features were common to one model, or had other models (eg, footprint surface features) that otherwise had little in common. Sound models have a computer-ahead window of time, which is the mechanism by which they share the CPU. This window can be different for different sound models, and is usually at the limit of 100-300 milliseconds. The sound model process is recalled at this rate, and all event ups calculate that so, and a little beyond the next expected callback time. Events are time-stamped at their desired output, and sent to the output manager (see FIGS. 4A, 4B and below for more details).

【0065】 音モデル代表のいくつかの局面がマルチメディアアプリケーションデベロッパ
ーがそれらをコントロールする必要がある方法の直接の結果として身につけられ
た。最初はパラメータがあらかじめ調整されるということである。これらはいく
つかの異なった別のパラメータ化でモデルを使う頻繁な必要から来る。明示的に
多分多くのパラメータのそれぞれを変えるためにデベロッパーにコードを書かな
ければならない負担を与えるよりむしろ、アプリケーションによって呼び戻すこ
とができるあらかじめ調整されるようにそれからしまっておかれた音に対するそ
れらの効果をモニターする間に、パラメータがグラフィカル・ユーザインタフェ
ース(「GUI」)を使って調整されるかもしれない。デベロッパー便利さのほ
かに、モデルのひとつのインスタンスの中でこのようにアプリケーションでパラ
メータ設定を取り替えることについての利点はモデルの2つの異なったインスタ
ンスを使うよりむしろ、歩みをブレークしないで、イベントを生成しているアル
ゴリズムが(足跡を考慮)継続することができるということである。
Some aspects of the sound model representative have been learned as a direct result of the way multimedia application developers need to control them. The first is that the parameters are pre-adjusted. These come from the frequent need to use the model with several different and separate parameterizations. Rather than explicitly burden the developer with having to write code to change each of the many parameters, their effects on pre-set and then settled sounds that can be recalled by the application Parameters may be adjusted using a graphical user interface ("GUI") while monitoring the. In addition to developer convenience, the advantage of swapping parameter settings in an application in one instance of a model in this way is that rather than using two different instances of the model, rather than breaking the walk, generating events This means that the algorithm you are using can continue (taking into account footprints).

【0066】 もう1つの代表問題が多くの音の上に制御の2つの異なった、そして相互に排
他的な方法の必要である。概念的に、パラメータの2つの異なった種類がある:
アプリケーションがリアルタイムで音と相互に作用するために使うであろうそれ
らとデータベースから音の特定のパラメータ化を選ぶそれら。これらの2つのグ
ループは同じ音のために異なった文脈において異なっているかもしれない。
Another representative problem is the need for two different and mutually exclusive methods of control over many sounds. Conceptually, there are two different types of parameters:
Those that the application will use to interact with the sound in real time and those that select specific parameterizations of the sound from a database. These two groups may be different in different contexts for the same sound.

【0067】 足跡モデルを考慮する。もし、世界の光景がユーザーの目を通してであるよう
に、事実上の環境応用が設計されるなら、健全な足跡の自然のコントロールの1
つはレートパラメータであるであろう。ユーザーがより速くスペースを通って動
くと、それだけ足跡のレートがより速い。もし、しかしながら、健全な足跡が目
に見えるフィートに付けられるなら、個別の音は明らかに写実的なイベントに同
調させられる必要がある。最初のケースで、写実的なイベントがない、そしてそ
れは時間に持っているべきアプリケーションの上に重要な負担を提出していて、
そしてメッセージをすべてのステップのための音モデルに送るであろう。2番目
のケースで、レートパラメータは無意味である。
Consider a footprint model. One of the natural controls of sound footprints if virtual environmental applications are designed so that the world sight is through the eyes of the user
One would be the rate parameter. The faster the user moves through the space, the faster the footprint rate. However, if sound footprints are attached to the visible feet, the individual sounds need to be tuned to clearly graphic events. In the first case, there is no graphic event, which is presenting a significant burden on the application to have on time,
And will send a message to the sound model for every step. In the second case, the rate parameter is meaningless.

【0068】 現在のシステムはその代わりに使われる制御の方法が、もしイベント・バイ・
イベント制御が必要とされる、モデルの標準的なプレー機能が訴えられない、し
かしオブジェクトがメッセージ交換を供給するならいずれかあるいは両方のため
に提供する。すべての他の支持(例えば連続した音、パラメータコントロールの
統計上の可変性)はまだ利用可能である。レートを使う音モデルが他の性質をコ
ントロールするために、意味があるレートがイベントトリガから測られなくては
ならない。
The current system is based on the alternative control method, if it is an event-by-
Event control is required, the standard play functions of the model are not provoked, but provide for either or both if the object provides a message exchange. All other supports (eg continuous sound, statistical variability of parameter controls) are still available. For sound models that use rates to control other properties, meaningful rates must be measured from event triggers.

【0069】 制御のいっそう複雑な問題が、例えば、リアルタイムでコントロールされるは
ずである拍手喝采モデルが鐘の舌の数のためにパラメータを使うという状態で、
例証されることができる。パラメータは典型的に0で始まって、多くの人々が仮
想の聴衆の中でそうである対応しているレベルまで追い詰められて、しばらくの
間そのレベルにおいて残留して、ゼロにそれから次第に朽ちるであろう。どんな
に、ある特定の目的のために、アプリケーションがこのような私事の制御を必要
としないかもしれないとしても、ただ人々の数と順番に「人々の数」パラメータ
の時間のエンベロップに影響を与えることができた「熱意」レベル(「メタ時間
」のパラメータ)を特定することは望ましいかもしれない。アプリケーションは
ただ始められていつ(あるいは前に)拍手喝采音がそうである「熱意」パラメー
タについて心配しなければならないだけであるであろう。制御の2つの方法は相
互に排他的である。
An even more complex problem of control is that, for example, with the applause model to be controlled in real time, using parameters for the number of bell tongues,
Can be illustrated. The parameters typically start at zero, many people are cornered to the corresponding level that is in a virtual audience, remain at that level for some time, and then gradually decay to zero. Would. No matter how specific the application may not require such private control for a particular purpose, just affect the number of people and in turn the time envelope of the "number of people" parameter It may be desirable to specify the "enthusiasm" level (a parameter of "meta time") that has been created. The application will only have to worry about the "enthusiasm" parameter at which (or before) the applause is started. The two methods of control are mutually exclusive.

【0070】 足音で、両方の論じられたコントロール(個別の足跡対レート)のタイプがリ
アルタイムであるから、拍手喝采例は足跡例と異なっている。拍手喝采例での制
御の対比している方法は時間の軌道のメタ時間の仕様書と弾道のリアルタイム制
御の間にある。我々はこれらの制御装置選択をサポートする最も有用な方法がパ
ラメータ弾道がGUIを使っているデベロッパーによって作られるのを記録する
ことであると信じて、そして次にアプリケーションから引き金イベントの後に、
再生録音に間に、軌道を使う。
In the case of footsteps, the example of applause is different from the example of footprints, since both types of control (individual footprint versus rate) discussed are real-time. The contrasting method of control in the applause case lies between the meta-time specification of the time trajectory and the real-time control of the trajectory. We believe that the most useful way to support these controller choices is to record the parameter trajectory created by the developer using the GUI, and then after the trigger event from the application
Use orbit during playback recording.

【0071】 これらのコントロール問題は音それ自身を設計することについてのプロセスか
ら生じない。しかしどちらかと言うとモデルが埋め込まれている文脈から起こる
。同じ問題はすべての音モデルに関して考えられなくてはならない、しかし異っ
たコントロール方法の実行はひどく音代表に依存する。 音モデリングプロセス 以下は音モデリングプロセスにステップを提供する記述である。これらのステ
ップはそれらが広範囲の音響効果を作り出すために使われることができるという
意味で一般的であって、そしてただ特定のセットだけを生産することに限定され
ていない。しかしながら、これらの原則がいっそう容易に理解されるように、種
々の例が提供され、そしてイラスト目的のために、ときどき、論じられるであろ
う。
These control problems do not arise from the process of designing the sound itself. But rather it comes from the context in which the model is embedded. The same problem must be considered for all sound models, but the implementation of different control methods depends heavily on sound representation. The following is a description that provides steps to the sound modeling process. These steps are generic in the sense that they can be used to create a wide range of sound effects, and are not limited to producing just a particular set. However, in order that these principles may be more readily understood, various examples are provided and will be discussed from time to time for illustration purposes.

【0072】 本方法とシステムは一定の現象を伴った音をシミュレートする音響効果を生成
する。現象の若干の例が足跡、地震、空調器、動いている自動車である。それが
関連づけられる若干の音がする限り、現象は事実上何でもあり得る。本当に、現
象はそれが実世界で実際に存在しなくてもよいという意味で必ずさえ現実の生活
現象である必要がない。例えば、現象は未来的なフェイザー銃の解雇であり得た
。このような銃が現在存在しないかもしれないけれども(それ故現象は存在する
ことできない)、この事実は何について若干の認識がある限り、無関係である「
現象」に結び付けられた音は同種のものあるいは聞き手にとって受け入れられる
かもしれないものであるかもしれない。どのようにかについて、若干の認識を持
つことは同じく有用である「音が種々の仮の要素に依存して変化するであろう。
例えば、1人はフェイザー銃を撃つことと結び付けられた音がフェイザー銃がい
っそう強力になる、そしてそれが種々の種類のオブジェクトの何のタイプが銃の
光線によって打たれるかによっている「跳飛」によって後に続かれるためにより
うるさくて、そしてより鋭くなると考えるかもしれない。
The present methods and systems generate sound effects that simulate sound with certain phenomena. Some examples of the phenomenon are footprints, earthquakes, air conditioners, moving cars. The phenomenon can be virtually anything, as long as it has some sound associated with it. Indeed, a phenomenon need not necessarily be a real life phenomenon, even in the sense that it need not actually exist in the real world. For example, the phenomenon could have been the firing of a futuristic phaser gun. Although such guns may not currently exist (hence the phenomenon cannot exist), this fact is irrelevant, as long as there is some awareness of what "
The sound associated with the "phenomenon" may be of the same type or something that may be acceptable to the listener. It is also useful to have some awareness of how "the sound will vary depending on various hypothetical factors.
For example, one may hear that the sound associated with shooting a phaser gun is more powerful, and it depends on what type of objects of various types are struck by the gun's rays. You may think it is noisier and sharper to be followed by.

【0073】 音モデリングプロセスは音の生成に関係がある特定の音現象と結び付けられた
行動の特性を識別することから始める。行動の特徴がナイーブな聞き手が、どの
ようにそれが変化するか、あるいはそれに影響して異なった状態に応えて進展す
るか定義するそれらを含んで音響効果を他の音響効果から区別しているものと見
なすであろう特性のセットと定義されることができる。多くの場合、それらは素
人が音響効果を記述するために使うであろう用語に1対1の一致を持つ。実際に
存在するオブジェクトあるいは奇才に対応しない音響効果のケースで中にいる「
特徴がそうである実世界、例えば、フェイザーが、上記のとおり、行動のものを
銃で撃つナイーブな聞き手がこのようなオブジェクトあるいは現象がもしそれが
存在したなら所有することを予想するかもしれない特性である。
The sound modeling process begins by identifying behavioral characteristics associated with a particular sound phenomenon that is related to sound production. What distinguishes a sound effect from other sound effects, including those in which the behavioral characteristics of a naive listener define how it changes or evolves in response to different conditions Can be defined as a set of properties that would be considered. In many cases, they have a one-to-one correspondence with the terms that a layman would use to describe sound effects. "In the case of sound effects that do not correspond to objects that actually exist or geniuses"
A real world feature is, for example, a phaser, as described above, a naive listener shooting a behavioral object might expect such an object or phenomenon to possess if it existed It is a characteristic.

【0074】 スピードのようなこと、ひきずりとよろめき、重量(足跡を作り出している人
について)の度合が音響で取り巻いていてタイプ(例えば、セメント、草、泥)
、場所(聞き手に関する位置)、を塗装する行動の特徴が含むであろう、足跡の
ケースでの、例などのために。これらの特徴が状態の特定のセットのために音を
定義することは容易に感謝されることである。例えば、音は足跡から生産した音
から自信がカジュアルな散歩で生産されたそれらと異なるであろう;硬い大理石
の上の足音がぬれた泥の上に足跡より違って鳴るであろうことで腹を立てている
The degree of things like speed, drag and stagger, weight (for the person making the footprint) are audibly surrounded by type (eg cement, grass, mud)
For example, in the case of footprints, the features of the action painting, location (location with respect to the listener), may include. It is easily appreciated that these features define the sound for a particular set of situations. For example, the sound will be different from those produced by casual walks from the sound produced from footprints; footsteps on hard marble will sound different than footprints on wet mud. Is standing.

【0075】 これらの状態の若干のために、音が現象から生成される方法の仕組みを分析す
ることは有用である。もう1度足跡を例として用いて、足跡から生成されている
音は主に2つの別のイベントのすぐ後に、それから、表面を打っているかかとの
衝撃、表面を打っている足指の衝撃の結果として生じる。標準的な人の足跡のた
めに、生成された音の全体は他のフィートのかかと足指行動によって後に続かれ
た1フィートのかかと足指動きなどの結果として生じる。1人がより速く歩くと
き、1フィートのかかと足指行動と他のフィートのかかと足指行動から作り出さ
れた音の間の時間隔は減少する。しかしながら、同じくかかとから作り出された
音そして次に足指の間の時間隔が同じく、かかとかかと時間隔へのいずれかの関
係に関して減少することを悟ることは重要である。ある時点に、かかとから作り
出された音と実際に足指から作り出された音は部分的に重複する。そして、別の
ものであるとして、それは区別することは難しくなる)。
For some of these situations, it is useful to analyze how the sound is generated from the phenomenon. Using the footprints again as an example, the sound being generated from the footprints is mainly immediately after two other events, then the impact of the heel hitting the surface, the impact of the toe hitting the surface Resulting. Due to standard human footprints, the entire sound generated is the result of heel toe movements of one foot followed by heel toe movements of other feet. As one walks faster, the time interval between one foot heel action and the sound produced from the other foot heel action decreases. However, it is important to realize that the time interval between the sound also produced from the heel and then the toes also decreases with respect to any relationship to the heel-heel interval. At some point, the sound produced from the heel and the sound actually produced from the toes partially overlap. And, as another thing, it becomes difficult to distinguish).

【0076】 加えるに、かかとから足指への時はもう1つのパラメータによって影響を与え
られる。行進するとき、足は急速に落ちそしてそれで垂直であるとき、かかとか
ら足指への時は非常に短い。それと対照的に、かかとが、足が垂直であることか
らほど遠くそして足指が地面に触れるから、長い歩みが長いかかとから足指への
時を引き起こす比較的長距離で、それが地面に触れる前に、旅行すること。それ
で、モデリングの現在の方法で、かかとから足指への時は(長い歩み対行進)歩
くスピードと「歩行スタイル」両方の最終結果である。一般的な原則はモデルの
内部のパラメータが任意の複雑さの数学的な関係で外観あるいは「ユーザー」パ
ラメータの多くによって影響を与えられるかもしれないということである。
In addition, the time from heel to toe is affected by another parameter. When marching, the foot falls quickly and so when vertical, from heel to toe is very short. In contrast, the heel is far from being vertical and the toe touches the ground, so a long walk causes a longer heel to toe time and is relatively long before it touches the ground To travel. So, with the current method of modeling, the time from heel to toe (long walk vs. march) is the end result of both walking speed and "walking style". The general principle is that the parameters inside the model may be influenced by many of the appearance or "user" parameters in a mathematical relationship of arbitrary complexity.

【0077】 ある特定のケースで、音モデリングを試みるとき、音世代のこの仕組みについ
ての知識は2つの主な理由のために重要である。最初に、それは1人に最も現実
的な音響効果を作り出すようにパラメータの正しいセットを変えることを許す。
もし誰かが、「かかとと足指の間に同じく比例して時間隔を変えないで、1つの
かかと足指行動からもう1人まで作り出された音の間に時間隔を変えていたなら
、例えば、上に与えられた足跡例で、結果として生じている音響効果は非常に現
実的な音がしないであろうが...。仕組みを分析する2番目の主な理由はそれ
が必要とされる若干の大きさの概念と音のタイプが試すものを許すということで
ある。上に例えば、再び足跡例を使って、個々にかかと音と足指音の独立した制
御を持つことが重要である、そしてそのために、音のそれぞれのための別のサン
プルが必要とされる。まとめられた対としてかかと足指音のサンプルを持つこと
は十分ではない。
In certain cases, when attempting sound modeling, knowledge of this mechanism of the sound generation is important for two main reasons. First, it allows one to change the correct set of parameters to create the most realistic sound effects.
If someone said, "If the heel and toe did not change the time interval equally, but changed the time interval between the sound produced from one heel and toe to another, In the footprint example given above, the resulting sound effect will not sound very realistic ... but the second main reason to analyze the mechanism is that it is needed It is important to have independent control of the heel and toe sounds individually, for example, again using the footprint example, with the concept of some loudness and sound type. There is, and for that, another sample for each of the sounds is needed, it is not enough to have the heel toe samples as a combined pair.

【0078】 もちろん、どちらかと言うと大きい範囲のどんな特定の現象の行動の特徴でも
ある、そ,オて選択の選択とこれらの行動の特徴の分析の程度は主に音響効果の
可能性がある使用に依存する、音を作り出す現象と現実主義の程度の性質は望ん
だ。しかしながら、若干の身元確認とどんな現象の行動の特徴の理解でも適切に
音響効果を・ン計することを必要とされることは一般に本当である。
Of course, the behavioral characteristics of any particular phenomenon in a rather large range, of course, the degree of choice of selection and the analysis of these behavioral characteristics may be primarily sound effects. The nature of the sound-producing phenomena and the degree of realism that depended on the use desired. However, it is generally true that some identification and understanding of the behavioral characteristics of any phenomenon requires that sound effects be properly measured.

【0079】 行動の特徴が識別された途端に、多くの相違のために土台になるであろう若干
の音サンプルあるいは他の手続き上生成された音が必要とされる。サンプルは、
実世界現象で実際の音のサンプル部分が見いだされるのを記録して、(あるいは
ただ若干の既存のプレレコーディングから部分をとる)ことによって、あるいは
、よく知られている統合テクニック、設計されて特定の音響効果という条件のも
とでいっそう都合が良いか、あるいは望ましいこと、へどちらを通してでも部分
を作り出すことによって、得られるかもしれない。例えば、フェイザー銃の音が
設計されているケースで、ただ、与えられて、サンプルを合成することはこのよ
うなどのフェイザー銃も実世界で実際に存在しないよりいっそう都合が良いかも
しれない。ケースで、しかしながら、足跡の、ただ音が実際の足跡から作り出さ
れるのを記録することか、あるいは足跡(すなわち、かかと盗聴器と足指蛇口が
別に録音した)の個別の検索を記録することか、あるいはこれらの要素(例えば
、望ましい音が達成されるまで・A一緒に異なったタイプの堅いオブジェクトを
軽くたたくことによって、)のシミュレーションを記録することはたいていのケ
ースでより容易であるであろう。このタイプのモデルで使用のためにサンプルを
記録するとき、身近に特定の現象と関係がない音の包含を妨げることは一般にす
なわち、音を離すために、もっと良い。
As soon as the behavioral features have been identified, some sound samples or other procedurally generated sounds are needed that will be the basis for many differences. sample,
Record the actual sound sample parts found in real-world phenomena and identify (or just take parts from some existing pre-recording) or well-known integration techniques, designed It may be obtained by creating the part either through it, which is more convenient or desirable under the condition of the sound effect of the camera. For example, in the case where the sound of a phaser gun is being designed, just synthesizing a sample, given, may be more convenient than no such phaser gun actually exists in the real world. In the case, however, of recording footprints, just that sound is produced from actual footprints, or recording individual searches of footprints (ie, heel taps and toe taps recorded separately) Or, it will be easier in most cases to record a simulation of these elements (eg, by tapping different types of rigid objects together until the desired sound is achieved). . When recording samples for use with this type of model, it is generally better to prevent the inclusion of sounds that are not closely related to a particular phenomenon, ie, to separate the sounds.

【0080】 音サンプルの長さの選択は多くの要因に依存する。一般的な規則として、サン
プルがより小さいと、それだけ柔軟性がより大きい。裏面の上に、サンプルがよ
り小さいと、それだけ現実主義を達成することがそうである働ともっと難しいも
のがより大きい。良い概算が、モデルのユーザーパラメータを変更することによ
って、現実での同等の音の音波の可能性の知覚の限界の大部分が達成されること
ができる有用な柔軟性の損失なしで、すなわち、可能な限り長いサンプルを持つ
はずである。例えば、足跡のケースで、もし1が異なったスピードの足跡を生産
することを望むことであったなら、かかと音と足指音を含めて、上に提供された
理由のためにサンプルのセットを得ることは必要であるであろう。しかしながら
、これは常に1人がテクニックが継ぐことを考慮に入れる現在の編集とひとつの
記録を多数のサンプルに分けるための編集の他の形式から別に2つの音を記録す
る必要があることを意味するわけではない。「けれども継ぐことテクニックは音
が部分的に一致するケースのために難しいか、あるいは不可能であるかもしれな
い。
The selection of the length of a sound sample depends on many factors. As a general rule, the smaller the sample, the greater the flexibility. On the backside, the smaller the sample, the greater the work it is to achieve realism and the harder it is. A good approximation is that by changing the user parameters of the model, most of the perceptual limitations of the possibility of the equivalent sound wave in reality can be achieved without loss of useful flexibility, i.e. You should have the longest possible sample. For example, in the case of footprints, if one wanted to produce footprints of different speeds, include a set of samples for the reasons provided above, including heels and toes. It will be necessary to get. However, this means that one always has to record two sounds separately from the current edit taking into account the technique inherits and other forms of edit to split one record into many samples I do not. "But the heap technique may be difficult or impossible for cases where the sounds partially match.

【0081】 音サンプルの選択はパラメータ(パラメータが下に詳細で論じられる)の限界
の上にある程度、そして同じく同じく現象の行動の特徴に頼る。もう1度足跡例
を使って、若干の音響効果が若干数がする白い追加のサンプルを必要としないこ
とは指摘されるべきである。例えば、散歩、ただ変えられるタイミングのニーズ
だけについて、そしてそれ故スタイルを変えるために、これはしかしながら、そ
れの上に足跡が作られる表面を変えるためにどんな既存のサンプルでも終え得る
、効果を装うために既存のサンプルを操ろうと試みるよりむしろ表面のそれぞれ
の上にただ足跡のサンプルを得ることはより容易である。例えば、コンクリート
表面の上にただ足跡のサンプルだけを使って柔らかい泥だらけの表面の上に足跡
の音を作り出すことは容易ではないであろう。いくつのサンプルが所定の現象の
ために必要とされるかは、もちろん、1人が大いに1つの音響効果からも1つ・
人まで欲求して、そして変える範囲と音響効果の距離、ノ頼る。
The choice of the sound sample depends to some extent above the limits of the parameters (the parameters are discussed in detail below), and also depends on the behavioral characteristics of the phenomenon. Again using the footprint example, it should be pointed out that some sound effects do not require some additional white samples. For example, to pretend to be a walk, just the need for timing that can be changed, and therefore to change the style, this can finish any existing sample to change the surface on which the footprint is created It is easier to get a sample of footprints just on each of the surfaces, rather than trying to manipulate an existing sample. For example, it would not be easy to create footstep sounds on a soft muddy surface using only footprint samples on concrete surfaces. How many samples are needed for a given phenomenon can, of course, be determined by one person from one sound effect
We want people and rely on the range of change and the distance of sound effects.

【0082】 多くの場合、多数の類似であるが、同一でない、サンプルが集められる。これ
は2つの目的を持っている。最初に、それは実世界音の微妙な、絶えず変わる性
質を装うことについての手段を供給、キる。例えば、2つの足跡が実現では同一
ではない、そして連続して2つの同一の足跡を作り出すモデルがすぐに人工であ
ると認知される。選ぶべきいくつかのサンプルと(典型的に同じく即刻の連続で
2度引き起こされている同じものを除いて)ランダムに類似のサンプルのセット
から選択する規模で、自然らしさの多くが装われるかもしれない。
In many cases, a number of similar but not identical samples are collected. It has two purposes. First, it supplies and quells a means about impersonating the subtle, ever-changing nature of real-world sound. For example, two footprints are not identical in realization, and a model that creates two identical footprints in succession is immediately recognized as artificial. Much of the naturalness may be imitated, with some samples to choose and a randomly selected set of similar samples (except for the same which is also triggered twice in immediate succession) Absent.

【0083】 多数のサンプルを集める2番目の理由は、スペクトルに沿ってポイントを集め
ることによって、絶え間がないスペクトルがしばしば装われることができるとい
うことである。例えば、心からの笑いの中に、静かなクスクス笑いを変えること
に対して、周知の統合あるいは音処理テクニックがないけれども(あるいはその
逆である)「笑いの力」、異なった、その時「笑いの力」パラメータの設定に従
って個別のサンプルを選んでいる「はしゃぎの度」において笑いサンプルのセッ
トを集めることによってパラメータが組み立てられるかもしれない。典型的に、
このテクニックは上に記述された任意の選択と一緒にされる。 音モデリングパラメータ構造 行動の特徴が分析された、そしてサンプルが得られる途端に、ユーザーパラメ
ータ、すなわち、音響効果をコントロールするためにモデルのユーザーにとって
入手可能であるようにするはずであるパラメータを選択することは必要である。
パラメータは設計された音を作り出すために制御されている必要がある種々の要
素を表す。パラメータが音響効果をもたらす多くの方法で構造化され得るけれど
も、現在の発明の望ましい具体化のために、図5で例証されるように、パラメー
タ構造を見ることは有用、ナある。
A second reason for collecting large numbers of samples is that by collecting points along the spectrum, a continuous spectrum can often be disguised. For example, there is no well-known integration or sound processing technique for changing a quiet giggle in heartfelt laughter (or vice versa), but the "power of laughter" differs, The parameters may be constructed by collecting a set of laughter samples in a "roaring degree" choosing individual samples according to the setting of the "force" parameter. Typically,
This technique is combined with any of the options described above. Sound modeling parameter structure Select the user parameters, i.e. the parameters that should be made available to the user of the model to control the sound effects, once the behavioral features have been analyzed and samples are obtained It is necessary to do.
The parameters represent the various factors that need to be controlled to produce the designed sound. Although the parameters can be structured in many ways to provide a sound effect, it is useful to look at the parameter structure, as illustrated in FIG. 5, for a preferred embodiment of the present invention.

【0084】 図5に言及することにおいて、一番上のレイヤはユーザーと音響効果の間にイ
ンタフェースであるユーザーパラメータから成り立つ「システムである」。真ん
中のレイヤはSFXエンジンによって雇用されて、あるいはただ「エンジンパラ
メータである」と述べられてパラメータから成り立つ。底層は現在の音あるいは
音楽シンセサイザーのどれででも見いだされるよく知られているパラメータであ
るシンセサイザーパラメータから成り立つ。
Referring to FIG. 5, the top layer is “system”, consisting of user parameters that are the interface between the user and the sound effects. The middle layer consists of parameters employed by the SFX engine, or just stated to be "engine parameters". The bottom layer consists of synthesizer parameters, which are well-known parameters found in either current sound or music synthesizers.

【0085】 矢が示すように、一般に、ユーザーパラメータのそれぞれが、より単純なケー
スで、ユーザーパラメータがただただシンセサイザーパラメータあるいはエンジ
ンパラメータだけをコントロールするだけであるかもしれないけれども、エンジ
ンパラメータとシンセサイザーパラメータのコンビネーションに影響を与える。
エンジンとシンセサイザーパラメータのコンビネーションが理論的に可能である
;しかしながら、それらが結合される方法はどのように、下に詳細で説明される
べきであるように、ユーザーパラメータが特定の現象の行動の特徴を考慮に入れ
て定義されるかによるであろう。
As indicated by the arrows, in general, each of the user parameters may, in the simpler case, control only a synthesizer parameter or only an engine parameter, but the engine parameter and the synthesizer parameter Affects the combination.
A combination of engine and synthesizer parameters is theoretically possible; however, the way in which they are combined, as should be explained in detail below, the user parameters are characteristic of the behavior of a particular phenomenon Will be taken into account.

【0086】 ユーザーパラメータは望ましい音響効果に関して定義される。例えば、足跡の
ケースで、ユーザーパラメータは場所、歩くスピード、ぐったりしたスタイル、
重量、過酷さ、表面タイプなどであり得る。これらのパラメータが事実上方法で
定義されることができるけれども、もしそれらが直接(そのために)音響効果が
作り出されている現象と目的の行動の特徴を反映するなら、しばしば最も有用で
ある。多くの場合、それらは素人が、例えば表面タイプのようなユーザーパラメ
ータが現象足跡のために有用なパラメータであるかもしれないのに対して、音を
記述するために使うかもしれない明白な、容易に理解されたパラメータである、
表面タイプが地という環境で恐らく意味を持っていないとすれば、それは恐らく
地震のような現象に役立たないであろう。
[0086] User parameters are defined with respect to the desired sound effect. For example, in the case of footprints, user parameters include location, walking speed, sluggish style,
It can be weight, severity, surface type, and the like. Although these parameters can be defined in virtually any way, they are often most useful if they directly (and therefore) reflect the phenomena in which the sound effects are being created and the characteristics of the desired behavior. In many cases, they are obvious, easy-to-use laypersons may use to describe sounds, whereas user parameters such as surface type may be useful parameters for phenomenon footprints Are the parameters understood by
If the surface type probably doesn't make sense in a terrestrial environment, it probably won't help for phenomena like earthquakes.

【0087】 ユーザーパラメータはユーザーにコントロールアクセスを与えるように多くの
方法で規定されることができる。しかしながら、望ましい具体化で、それは写実
的なユーザ・インタフェース(GUI)、図3の上に「スライダー」のかたちで
表される、そしてそこでユーザーは効果の蛯オさ制御にスライダーバーを滑らせ
ることができる。例えば、スピードスライダーのために現象足跡のために、スラ
イダーが右に動かされ、歩くスピードは増やされる。ぐったりしたスライダーの
ために、スライダーが動かされるとき、散歩でのひきずる量は増やされる。効果
を結合するために、いくつかのユーザーパラメータがすぐに訴えられることがで
き、例えば、スピードスライダーとぐったりしたスライダー両方を願うことによ
って、ひきずるスピードのどんなコンビネーションでも達成することができる。
若干のコンビネーションが明らかに望ましくなくて、けれども可能であるかもし
れない。例えば、1人は恐らく表面タイプ「金属」を「大理石」と一緒にしない
であろう。それと対照的に、「休暇」がごみの上に葉に対する足跡の効果を達成
するために「ごみ」と一緒にされる可能性が高い。
The user parameters can be defined in many ways to give the user control access. However, in a preferred embodiment, it is represented in the form of a "slider" on the graphical user interface (GUI), FIG. 3, where the user slides the slider bar to effect control. Can be. For example, because of the phenomenon footprint for the speed slider, the slider is moved to the right and the walking speed is increased. Because of the loose slider, the amount of drag on the walk is increased when the slider is moved. To combine the effects, some user parameters can be quickly appealed, for example, by wishing for both a speed slider and a loose slider, any combination of dragging speeds can be achieved.
Some combinations are clearly undesirable, but may be possible. For example, one would probably not combine the surface type "metal" with "marble". In contrast, "vacation" is more likely to be combined with "garbage" to achieve a footprint effect on the leaves on the garbage.

【0088】 ユーザーパラメータによって定義されるように、中間的なレイヤパラメータ、
あるいはエンジンパラメータと底レイヤパラメータ、あるいはシンセサイザーパ
ラメータ、は音響効果を作り出すために結合でうまくいく。底層パラメータはボ
リューム制御のような音扱いテクニックを含むことができる、パン、ピッチ、フ
ィルター打ち切り、芸術で熟練した人たちによく知られている多くの他のものを
フィルターする。
[0088] Intermediate layer parameters, as defined by user parameters
Alternatively, engine parameters and bottom layer parameters, or synthesizer parameters, work well in combination to create a sound effect. Bottom layer parameters can include sound handling techniques such as volume control, filter pan, pitch, filter truncation, and many others familiar to those skilled in the art.

【0089】 いつか、そしてどのように中央と底層パラメータが結合されるかが特定の現象
の行動の特徴を考慮に入れるSFXエンジンによってコントロールされる。本質
的に、真ん中のレイヤは基本的な音扱いパラメータを使っている音が底のそばに
提供した「モデル」が重ねるレイヤだと見なされることができる。中間的な層パ
ラメータの役割が複雑であるけれども、パラメータは概括的に選択している、そ
して模造しているタイミングとして分類されることができる。これらのパラメー
タがここで別で、そして別であると定義づけられるけれどもそれはそうするべき
である芸術で熟練した人たちによってこれらのパラメータ主張がモデリング令状
を例証する概念的なツールあるいは、SFXエンジンによって使用されたテクニ
ックであって、そして現在の音響効果システムで別の、そして別のコンポーネン
トとして必ず存在する必要がないことを理解する。
When and how the median and bottom parameters are combined are controlled by the SFX engine that takes into account the behavioral characteristics of the particular phenomenon. In essence, the middle layer can be considered as the layer over which the "model" sound provided using the basic sound handling parameters provided near the bottom. Although the role of the intermediate layer parameters is complex, the parameters can be broadly categorized as selecting and simulating timing. These parameters are defined here separately and are different, but it should be by conceptual art tools that illustrate the modeling warrant by those skilled in the art or by the SFX engine. Understand the techniques used and do not have to exist as separate and separate components in current sound effects systems.

【0090】 今個々にパラメータのそれぞれのクラスの役割を記述することにおいて、シン
セサイザーに送られた他のコマンドの間に特定の音響効果と時間隔の内に数片の
音を引き起こし、ト、そして止める間に、タイミングパラメータが基本的に時間
隔の長さをコントロールする。サンプルが選択されるオーダーを含んで、音サン
プルが所定の瞬間選択されるパラメータがコントロールする選択すること。模造
しているパラメータはこれらの要因の間の関係をコントロールする。シンセサイ
ザーパラメータと共に適切にエンジンパラメータのこれらの3つのクラス、ダ調
整することによって、音響効果の大きいセットが生産されることができる。役割
とこれらのパラメータのそれぞれの効果は下に供給されるように例でいっそう明
確、ノなるであろう。
In describing the role of each class of parameters individually now, cause a few pieces of sound within a particular sound effect and time interval during other commands sent to the synthesizer, and During the pause, the timing parameter basically controls the length of the interval. Selecting the parameters at which the sound samples are selected at a given moment, including the order in which the samples are selected. The simulating parameters control the relationship between these factors. By properly adjusting these three classes of engine parameters, along with the synthesizer parameters, a large set of sound effects can be produced. The role and the effect of each of these parameters will be more clear in the example as provided below.

【0091】 スピードと関係を持った足跡の行動の特徴あって、上に記述されて、もう1度
足跡例に言及する。スピードとしてのそれがかかとと足指の間に、時間隔と同様
、もう1つの減少に1つのかかと足指行動の間に、時間隔、増加すると説明され
た。ここで、ユーザーパラメータ(トップ層)はスピードである。ユーザーがス
ピードスライダがスピードを増やすように調節するとき、時パラメータはかかと
と足指の間に、時間隔と同様、もう1つに1つのかかと足指行動の間に時間隔減
少させられる。上に記述されるように、このタイミングは同じく「スタイル」パ
ラメータによって影響を与えられる。しかしながら、スピードとスタイルが変え
られるとき、足跡のパターンあるいは行動が変化しない。かかと音が常に足指音
などによって後に続かれる。
The characteristics of footprint behavior related to speed are described above, and reference is made once again to footprint examples. It has been described that as a speed increases the interval between the heel and toe, as well as another decrease in one heel to toe interval, as well as the interval. Here, the user parameter (top layer) is speed. When the user adjusts the speed slider to increase the speed, the hour parameter is reduced between the heel and toe, as well as the interval between one other heel and toe action. As described above, this timing is also affected by the "style" parameter. However, when speed and style are changed, the footprint pattern or behavior does not change. The heel sound is always followed by a toe sound or the like.

【0092】 もし、しかしながら、音響効果が動いている馬のそれであったなら、行動の特
徴はいっそう複雑である。そしてそれ故、追加のパラメータが伴われる必要があ
る。例えば、馬のひづめの音に関してユーザーパラメータ「スピード」を考えな
さい。スピード増加として、イベントの間の時間隔の平均がより短くなるように
、タイミングパラメータが、平均してより短くて所定の表面へのひづめに影響を
与えることの間の間隔を反映して調節される必要がある。けれども、加えるに、
歩いて、速足で行って、軽く走って、そしてギャロップする間に、模造すること
とイベントの注文は馬スイッチとして変化する。正確なパターンは、もちろん、
実際の馬の行動の特徴を使って経験的に決定される必要がある。
If, however, the sound effect was that of a moving horse, the behavioral features would be more complex. And therefore, additional parameters need to be accompanied. For example, consider the user parameter "speed" with respect to horse hooves. Timing parameters are adjusted to reflect the interval between shorter on average and affecting hooves on a given surface, so that the average of the time intervals between events is shorter as the speed increases. Need to be done. But to add
While walking, going fast, running lightly and galloping, the imitations and ordering of events change as horse switches. The exact pattern, of course,
It must be determined empirically using the characteristics of actual horse behavior.

【0093】 最後の例として、もし足跡現象のために、ユーザーパラメータが表面タイプで
あったなら、タイミングと局面を模造することが変化しないので、唯一の影響を
与えられたエンジンパラメータのクラスは選択を持っている関係している人たち
である。ここで、何の表面あるいは表面のコンビネーションがサンプルの選ばれ
た異なったセットであるかによることは選択されるであろう。しかしタイミング
と模造することは変化しない。
As a final example, if the user parameters were surface type due to footprint phenomena, the only affected engine parameter class would be selected, since the imitation of timing and aspects does not change. The people who are involved. Here, it will be chosen which surface or combination of surfaces is a selected different set of samples. But timing and imitation do not change.

【0094】 これらの例の若干のために、シンセサイザーパラメータが孤立してあるいはエ
ンジンパラメータと共に訴えられなければならないであろう例があるかもしれな
い。例えば、また足跡例を使って、典型的により重い人が、(これが常に現実で
は本当でないかもしれないけれども)、調子にもっと没頭していて、よりうるさ
い足跡などを作り出すときから、シンセサイザーパラメータ、調子、ボリューム
など、はユーザーパラメータ、重量(足跡を作っている人について)に応じて制
御される必要がある。
For some of these examples, there may be examples where synthesizer parameters would have to be sued alone or with engine parameters. For example, and also using the footprint example, from the time when typically heavier people are more immersed in the tone (although this may not always be true in reality) and produce louder footprints, etc., the synthesizer parameters, tone , Volume, etc. need to be controlled according to user parameters, weight (for the person making the footprint).

【0095】 一般に、行動特徴が使われるシンセサイザーパラメータの選択で若干の態度を
持つであろうけれども、どのようにこれらのパラメータが選択されるべきである
かについて難しい。そして速い規則がない。音が幾分人間の理解力によって定義
されるから、そして同じく多くの微妙な相違があるから、現象の行動の特徴の勉
強はどのようにシンセサイザーパラメータが所定の状態のために使われるべきで
あるか決定するために常に十分なインフォメーションを明らかにしないかもしれ
ない。例えば、馬のひづめのために最も良い調査の効果を作り出すために、それ
がスピードとしての調子の品質が増やす助けになる変化であることが見いだされ
た。調子とスピードの間の関係は必ずしも明白ではない。それ故、若干の経験的
な実験が行われる必要があるかもしれない。
In general, although the behavioral features will have some attitude in selecting the synthesizer parameters to be used, it is difficult to see how these parameters should be selected. And there are no fast rules. Since the sound is defined somewhat by human comprehension, and also with many subtle differences, studying the behavioral characteristics of phenomena should be how synthesizer parameters should be used for a given state May not always reveal enough information to decide. For example, it has been found that it is a change that helps to increase the quality of the tune as speed, in order to produce the best survey effect for horse hooves. The relationship between tone and speed is not always obvious. Therefore, some empirical experiments may need to be performed.

【0096】 さらに上に提供された原則を例証するために、FIG、6乃至14が若干の実
際の音ファイルのために使われた種々のパラメータを記したテーブルである。図
6でテーブルを説明的な例であると思って、最初のコラムは(「任意の変動」の
ために記述のために上に見なさい)「任意の変動」を足したユーザーパラメータ
をリストする。次のコラムはエンジンとシンセサイザーパラメータ、ユーザーパ
ラメータコラムの後に最初の3つのコラムを含んでいるエンジンパラメータを示
して頂上において見出しを持っている。箱の中の「X」はそのコラムの中のパラ
メータがその特定の列で見いだされたユーザーパラメータのために音モデリング
のために使われたことを示す。
To further illustrate the principles provided above, FIGS. 6-14 are tables listing the various parameters used for some actual sound files. Considering the table in FIG. 6 as an illustrative example, the first column lists the user parameters plus "any variation" (see above for description for "any variation") . The next column has a heading at the top showing the engine and synthesizer parameters, the engine parameters including the first three columns after the user parameters column. An "X" in the box indicates that the parameter in that column was used for sound modeling for the user parameter found in that particular row.

【0097】 これらのテーブルはどのようにユーザーパラメータの変更がa)イベント模造
することとb)異なったシンセサイザーパラメータの局面に影響を与えるか示す
。同じく(それぞれのテーブルの最初のローの上に)それらはいずれのパラメー
タが、ユーザーパラメータに変更がないところでさえ、音響効果で自然らしさと
多種多様さを供給するために紹介される小さい任意の変動によって影響を与えら
れる、示す。
These tables show how user parameter changes affect a) event mimicry and b) aspects of different synthesizer parameters. Also (on the first row of each table) they are small random variations introduced to provide naturalness and great variety in sound effects, even where there are no changes to user parameters Influenced by, indicate.

【0098】 図8で、ユーザーパラメータ、ブレーキ、クラッチとガスペダル、は2つの「
内部」変数、自動車スピードとエンジンスピードをコントロールする。2つの内
部の変数はペダル設定をインプットとして2−Dの差動ギア方程式によって支配
される。自動車スピードとエンジンスピードは順番にシンセサイザーイベント世
代をコントロールする。エンジンスピードはピストンの点火をコントロールする
、それぞれの点火が別に引き起こされたイベント(秒毎の何百も)である。
In FIG. 8, the user parameters, brake, clutch and gas pedal are two “
Controls "internal" variables, car speed and engine speed. The two internal variables are governed by the 2-D differential gear equation with the pedal settings as input. Car speed and engine speed in turn control the synthesizer event generation. Engine speed is the event (hundreds per second) in which each ignition controls the ignition of the piston separately.

【0099】 自動車スピードは道路に沿ってゆっくり走る自動車の「とどろき」をコントロ
ールする。 図14で、風音モデルは非常に小さい数のイベントから成り立つ。ユーザーパ
ラメータ(そして任意の変動)が25影響を与える大部分パラメータ、すなわち
、ボリューム、が売り込む統合の同じセット、漏れなさい、など、けれど、焉彼
・それ)らは異なった方法でそれらに影響を与える。例えば、「力」がパラメー
タ(もっと強い風がより高いボリューム、調子、フィルターQなどを持っている
)の平均価値をコントロールする。「変化の幅」は(同じパラメータについて)
平均からの逸脱をコントロールする、そして「突風」がパラメータの変化のレー
トをコントロールする。「風力」が音で同じく層の数(例えば、「ホイッスル」
の数)をコントロールする。 開発環境 アプリケーションの中に音モデルを埋め込むことに対して、開発環境は記録さ
れた音がある伝統的な人がCDから選択して、環境の中に積んで、プレーして、
そしてストップしたより豊かである必要がある。音選択が以上トラックを選択す
ることを伴うが、どちらかと言うとパラメータを調整することを伴うから、これ
は部分的にである。それで目標アプリケーションから独立している相互作用の環
境によってプレーされる重要な役割がある。
The speed of a car controls the “roaring” of a car running slowly along the road. In FIG. 14, the wind noise model consists of a very small number of events. Most parameters where user parameters (and any fluctuations) affect 25, ie volume, the same set of integrations to sell, leak, etc., but they affect them in different ways. give. For example, "power" controls the average value of a parameter (stronger winds have higher volume, tone, filter Q, etc.). "Width of change" (for the same parameters)
Controls the deviation from the average, and "gusts" control the rate of change of the parameter. "Wind" is also the number of layers in the sound (eg "whistle"
Number). Development Environment For embedding the sound model in the application, the development environment is a traditional person with recorded sound, select from CD, load in the environment, play,
And we need to be richer than we stopped. This is partly because sound selection involves selecting a track, but rather involves adjusting parameters. So there is an important role played by the interaction environment that is independent of the target application.

【0100】 デベロッパーツールは2つのパーツから成り立つ:図3のGUI,SFXエン
ジン。GUIを使って、デベロッパーは音モデルのデータベースをチェックして
、アプリケーションで使われるであろう音モデルを選択して、そして、リアルタ
イムで音を聞く間に、音パラメータを調整する。コードコンパイルリッスン(c
ode−compile−listen)サイクルがない;音が耳によって選択
されて、そして調整される。パラメータとそれらの名前は直観的で、そして密接
に設計されている実世界音の行動の特徴と関係があってレベルが高い(例えば、
「AM放送深さと規則的」よりどちらかと言うと、「荒さ」)。音が選択された
途端に、そしてパラメータ化されている、デベロッパーはカスタマイズされた音
モデル(すなわち、デベロッパーによってユーザーパラメータを使わせられるよ
うに)がストアされるであろうファイル名を作る。それからプレーして、そして
アプリケーションの中から音モデルをコントロールするために、下に記述された
API要求は使われる。 アプリケーションプログラマーインタフェース(API) 機能が音声のエンジンを初期化して、音をロードして、プレーして、そして音
を止めて、アプリケーション変数と音パラメータの間にマッパーを作って、そし
てユーザーパラメータと音へのメッセージを送るアプリケーションに提供される
The developer tool consists of two parts: the GUI, SFX engine of FIG. Using the GUI, the developer checks a database of sound models, selects the sound model that will be used in the application, and adjusts the sound parameters while listening to the sound in real time. Code compilation listen (c
There is no mode-compile-listen cycle; the sound is selected and adjusted by ear. The parameters and their names are intuitive and closely related to the behavioral characteristics of the real world sounds that are designed at a high level (for example,
Rather than "AM broadcast depth and regularity,""roughness." As soon as the sound is selected and parameterized, the developer creates a file name where the customized sound model (ie, so that the user parameters can be used by the developer) will be stored. The API requirements described below are then used to play and control the sound model from within the application. Application programmer interface (API) functions initialize the audio engine, load, play and stop sound, create a mapper between application variables and sound parameters, and user and sound parameters Provided to applications that send messages to

【0101】 音が必要とされるようにロードされて、そしてそらで降ろされることができる
。プレーする要求、FIG.4A、コンピュータ音システムとストップする要求
、FIG.4Dの上に音をプレーすることを始めるであろう。プレーして音を終
わらせるであろう。音が止められた後、アンロードの要求がされなかったなら、
それは再びプレーされることができる、その場合音モデルはメモリから取り去ら
れる。
Sounds can be loaded as needed and unrolled off. Request to play, FIG. 4A, request to stop with computer sound system, FIG. Will start playing sound over 4D. Will play and end the sound. If the unload was not requested after the sound was stopped,
It can be played again, in which case the sound model is removed from memory.

【0102】 もし音の対話型のコントロールが切望されないなら、プレイとストップは呼び
出される必要がある唯一のルーチンである。それで、正確にデジタルのオーディ
オファイルが常にアプリケーションによって使われたとき、音モデルが使われる
ことができる。デベロッパーがそれらに音がプレーされるよりむしろファイルか
らリアルタイムでアルゴリズム的に生成されているという事実を扱うことを強い
る何にも直面させられない、それ以外にそれらは、それらがプレーされるたびに
、同一でないから、音が(一般に)いっそう自然で、そして楽しいことに気付く
かもしれない。
If interactive control of sound is not desired, play and stop are the only routines that need to be called. So, when exactly digital audio files are always used by the application, the sound model can be used. Developers are not faced with anything that forces them to deal with the fact that the sounds are generated algorithmically in real time from the file rather than played, otherwise they are each time they are played You may notice that the sounds are (generally) more natural and fun because they are not the same.

【0103】 もし音モデルパラメータの対話型のコントロールが切望されるなら、API機
能への電話がセットパラム(SetParam)(FIG.4C)を呼んだ仕事
を達成する。若干のユーザーパラメータがすべての音(例えば音emitter
と聞き手の相対的な場所)に共通で、そして他のものが特定の音に特有であるけ
れども、すべてのユーザーパラメータは同じベース音クラス機能を通して更新さ
れる。音がAPIによって受け入れる種々のパラメータIDのがGUIでスライ
ダーとともに表示される名前と比べて同じであるという点で、GUIはここでさ
らに音ドキュメンテーション役割を演ずる。
If interactive control of the sound model parameters is desired, the call to the API function accomplishes the task called SetParam (FIG. 4C). Some user parameters can be set for all sounds (eg sound
All user parameters are updated through the same bass note class function, though common to both (and relative location of the listener) and others are specific to a particular note. The GUI now plays a further sound documentation role in that the various parameter IDs that the sound accepts by the API are the same as compared to the name displayed with the slider in the GUI.

【0104】 典型的に、アプリケーションはアプリケーションにおけるその役割によって決
定された広範囲の可能な値を持っているアプリケーション変数を使って音をコン
トロールするであろう。他方、音モデルユーザーパラメータはユーザーパラメー
タが音オブジェクトの中で使されることによって決定された可能な値のそれ自身
の限界を持っている。アプリケーション変数の距離はセットパラムマップ(Se
tParamMap)と呼ばれる機能へのコールでユーザーパラメータの限界の
上に自動的に地図に表わさることができる。このコールはただかつてそれの後に
セットパラムへのどんな呼び出しでも自動的に適切な地図作成を行うであろう所
定のユーザーパラメータのためにされる必要があるだけである。音の場所が同様
に音エミッターと受話器の場所をアップデートするためにユニットと「セット」
が作用することを確立するための「マッピング」機能へのひとつのコールによっ
てコントロールされる。
Typically, an application will control sounds using application variables that have a wide range of possible values determined by their role in the application. On the other hand, sound model user parameters have their own limits of possible values determined by the user parameters used in the sound object. The distance of the application variable is set param map (Se
A call to a function called tParamMap) can be automatically mapped on user parameter limits. This call only needs to be made once for any given user parameter after which any call to the set parameter will automatically perform the appropriate mapping. Sound location also "sets" with unit to update sound emitter and handset locations
Is controlled by a single call to the "mapping" function to establish that

【0105】 最終的に、FIG.4Fの若干の音がアプリケーションから送られることがで
きるトリガーメッセージをとる。再び音が受け入れるメッセージがユニークであ
るのに対して、すべては(特定の音が処理するわけではないメッセージに応えて
ただ何もしない)同じベース音方法を呼び出す。これらのメッセージは通常、蒸
気列車音が演奏されているとき、すぐに音の、列車ホイッスルのようないずれか
の要素を引き起こす効果を持つ。このメッセージ交換方法は同じく(それによっ
て)「イベントによってのイベント」が実行される手段である(例えば、引き起
こしている個別の足跡)、そしてパラメータがあらかじめセットする方法は取り
替えられる。 実行の細部 実行細部を例証するために、FIG.4AはGUIを通してプレーがユーザー
に応えて、同様、始められるとき、起きることがゲームあるいは他のアプリケー
ションプログラムから到着する、あるいはメッセージを相互作用しているのを示
す。多くの初期設定仕事の後に、必要なシンセサイザー経路の要請を含めて、シ
ステムはユーザーパラメータの現在の設定を拾う。それはそれからシンセサイザ
ーに送られるMIDIメッセージのようなコマンドのセットを生成する。それは
未来の中に短い方法でこれらを生成する。システムでの遅れが決して音声の生産
でギャップをもたらさないであろうことを保証するのに十分長いが、ユーザーパ
ラメータの変更がユーザーによってほとんど即刻であると認知される結果を起こ
すほど十分短い時〔X+安全マージン〕である。システムはそれから(そうする
ためのすなわち帰りの制御)に時Xの後のSFXエンジンをコールバックするシ
ステムタイマーを始める。その間コンピュータはSFXエンジンがそれの中に埋
め込みであるかもしれないゲームのような他のプログラムを処理することが自由
である。時Xが典型的に10−100ミリセカンドのオーダーである。そして安
全マージンは典型的に5−10ミリセカンドのオーダーである。
Finally, FIG. Some sounds of 4F take a trigger message that can be sent from the application. Again, the messages that sound accepts are unique, while all invoke the same bass note method (just do nothing in response to messages that a particular sound does not process). These messages usually have the effect of immediately causing any element of the sound, such as a train whistle, when a steam train sound is being played. This message exchange method is also the means by which “event by event” is performed (eg, the individual footprint causing), and the method by which the parameters are preset is replaced. Execution Details To illustrate the execution details, FIG. 4A shows that what happens is arriving from a game or other application program or interacting message when play is initiated in response to the user, as well as through the GUI. After many initialization tasks, the system picks up the current settings of the user parameters, including requests for the necessary synthesizer paths. It then generates a set of commands such as MIDI messages sent to the synthesizer. It produces these in a short way in the future. When the delay in the system is long enough to ensure that there will never be a gap in speech production, but short enough to cause a change in the user parameters to produce a result that is perceived by the user to be almost immediate [ X + safety margin]. The system then starts a system timer that calls back the SFX engine after time X (ie, to return control to do so). Meanwhile, the computer is free to process other programs, such as games, in which the SFX engine may be embedded therein. Time X is typically on the order of 10-100 milliseconds. And the safety margin is typically on the order of 5-10 milliseconds.

【0106】 FIG.4Bは、時Xの後に何が起きるか示す。この時点で、上に記述される
ように、生成されたシンセサイザーコマンドのバッファーに入れられたストリー
ムはほとんどからである(それがアンダーランする前に、マージンが残される安
全性と等しい時間の量に対応しているコマンド)。これらのラストコールがユー
ザーパラメータのどれも変更の内部の結果を含むかもしれないときから、システ
ムは最初にパラメータのどんな変更でも処理して、そして(若干のモデルで)時
間の進歩のために変化する。これに引き続いて、音で敏感な変動を紹介するため
に、これが自然か、あるいは楽しい効果のために必要とされることはある特定の
内部のパラメータの小さい任意の変更をする。それはそれからもう1つの次の時
間Xのためのコマンドの流れを生成して、そしてその・梃繧もう1つのcall
backの手配をする。システムが止められるまで、このジェネレートコールバ
ック(generate−callback)サイクルは継続するであろう。
FIG. 4B shows what happens after hour X. At this point, as described above, most of the buffered stream of generated synthesizer commands is (before it underruns, the amount of time equal to the safety margin left) Supported commands). Since these last calls may include the internal consequences of any of the user parameters, the system will first process any changes in the parameters and change (in some models) due to time advances. I do. This is followed by a small arbitrary change in certain internal parameters that may be needed for natural or fun effects to introduce sound-sensitive fluctuations. It then generates a command stream for another next time X, and leverages another call
Arrange back. This generate-callback cycle will continue until the system is shut down.

【0107】 FIG.4Cは、ユーザーパラメータの1つが変えられるとき、何が起きるか
示す。上に記述されるように、システムはユーザーパラメータの変更がモデルの
内部のパラメータのどんな数でも変更を起こすことができる精巧な地図作成案を
含む。(これはユーザーパラメータが上手に設計されている現象の行動の特徴と
一致する方法で振る舞うことを保証するために必要とされる)この地図作成案は
同じく両方ともにユーザーパラメータ価値の長さの、そして非線形の変換を提供
する。そしてこれらの変換はモデルの内部のパラメータにユーザーパラメータの
できるだけ多くの地図作成のそれぞれのために別であるかもしれない。地図作成
の後に、パラメータ変更は同じく即刻に1つあるいはそれ以上のシンセサイザー
コマンドを送ることをもたらすかもしれない。他のケースでこれらのパラメータ
変更は(上記参照)次のコールバックにおいて行動を起こされる。 FIG.4
Dはゲームあるいは他のアプリケーションプログラムから到着してGUI、ある
いはメッセージを通して相互作用してユーザーに、閉鎖音メッセージが同様、応
答で、受け取られるとき、起きることを示す。システムは最初に差し迫っている
コールバックを中止する。音に望ましい終末を作り出すように要求されるように
、それは未来の中にそれからシンセサイザーコマンドを生成する(若干の音のた
めにはこれは突然の停止であるかもしれない。それが(そのために)いっそう優
しくなくてはならない人たちには自然か、あるいは楽しい効果である;ある場合
には、それはシンセサイザーパラメータの修正を巻き込むかもしれない)。最終
的にそれは、音が始められたとき、応じられたシンセサイザーチャネルをリリー
スして、そして多くの他の清掃機能を実行する。次のプレーメッセージによって
例えばシンセサイザー経路と再利用のために準備ができているシステムの変数を
リセットする。
FIG. 4C shows what happens when one of the user parameters is changed. As described above, the system includes an elaborate mapping scheme in which a change in a user parameter can cause a change in any number of parameters inside the model. (This is needed to ensure that the user parameters behave in a manner that is consistent with the well-designed behavioral characteristics of the phenomenon.) And provide a non-linear transformation. And these transformations may be separate for each of as many mappings of user parameters as possible to parameters internal to the model. After mapping, a parameter change may also result in sending one or more synthesizer commands immediately. In other cases, these parameter changes (see above) are triggered on the next callback. FIG. 4
D arrives from the game or other application program and interacts through a GUI or message to indicate to the user what happens when a stop sound message is received in response as well. The system aborts the impending callback first. It then generates a synthesizer command in the future, as required to produce the desired end to the sound (for some sounds this may be a sudden stop. It is a natural or fun effect for those who need to be more gentle; in some cases, it may involve modifying the synthesizer parameters). Eventually it releases the corresponding synthesizer channel when the sound is started, and performs many other cleaning functions. The next play message resets, for example, the synthesizer path and system variables ready for reuse.

【0108】 フローチャート4Eが、引き金メッセージがユーザーに応えて、同様、受け取
られるとき、起きることがゲームあるいは他のアプリケーションプログラムから
到着してGUI、あるいはメッセージを通して相互作用しているのを示す。引き
金メッセージが生産するよう意図される開始の後にそれら自身の協定について止
まる有限の長さ(典型的に数秒、あるいはさらに少なく)の音響効果(あるいは
音響効果の一部)を生成する。それでそれらは自動的な停止でプレーのように基
本的に行動をし、そしてこのフローチャートは上に記述を考慮に入れて自明であ
るべきである。 プロセスマネージメント TSCPが導入したプロセスマネージメントが1つの機能である。上記の、そ
して図2に示された。それはシンセサイザーのになる運命の指令とプロセスのコ
ールバック要請両方を調停する。システムタイマーが生み出す割り込みのために
、それらテストサイクルを減少させて、そしてテストする。それらを高価なリソ
ースにする。もし多分多くの同時の音プロセスのそれぞれが直接システムからコ
ールバックを求めていたなら、割り込みにサービスを提供することは際立ってパ
フォーマンスを下げることができた。その代わりに、コールバックを待ち受けて
いるプロセスの時の分類された列がプロセスマネージャーによって維持される。
そしてシステムタイマーが使用中であるけれども、結局次の音処理が走るに過ぎ
ない。
[0108] Flowchart 4E illustrates that when the trigger message is received in response to the user, as well as being received, what happens is arriving from the game or other application program and interacting through a GUI or message. Generates a finite length (typically a few seconds, or even less) sound effect (or part of a sound effect) that stops on its own agreement after the trigger message is intended to produce. So they act basically like playing with automatic stops, and this flowchart should be self-explanatory taking into account the description above. Process management Process management introduced by TSCP is one function. As described above and in FIG. It arbitrates both the fate order to become a synthesizer and the callback request of the process. Reduce and test those test cycles for interrupts generated by the system timer. Make them expensive resources. Servicing interrupts could significantly reduce performance if maybe each of many simultaneous sound processes were calling for callbacks directly from the system. Instead, a sorted queue of processes waiting for callbacks is maintained by the process manager.
And although the system timer is in use, the next sound processing only runs.

【0109】 類似のメカニズムがシンセサイザーにアウトプットのためにタイムスタンプを
押されてプロセスマネージャーに行かせられたコマンドのために使われる。それ
ぞれの音プロセスが年代順のオーダーでコマンドを生成するけれども、多くの処
理が同時に走っているとき、プロセスマネージャーはコマンドをソートさせ、待
ち行列に挿入して、そしてタイマーを外に出るように予定されている次の人だけ
のために設ける。
A similar mechanism is used for commands that are time-stamped for output to the synthesizer and sent to the process manager. Although each sound process generates commands in chronological order, when many processes are running at the same time, the process manager schedules the commands to sort, queue, and exit the timer. Provide only for the next person who has been.

【0110】 対話型のコントローラーメッセージのような、若干のコマンドが待ち行列に入
れられ、むしろすぐにサービスを提供される。バックエンドシンセサイザーはプ
ロセスマネージャーが、たとえイベントが「フラッシュスルー」コントローラー
の更新の前に待ち行列に入れられたとしても、送るどんな新しいイベントにでも
影響を与えるこれらのコマンドを使う。それで、ユーザーパラメータが音プロセ
スのためにコールバック期間と比べて同じぐらい大きくあり得る潜伏期を持つ。
しかし統合をコントロールするパラメータがより短い制御レート潜伏期を持つ。
Some commands, such as interactive controller messages, are queued, and rather serviced immediately. The backend synthesizer uses these commands to affect any new events that the process manager sends, even if the events are queued prior to the "flash-through" controller update. So, the user parameters have an incubation period that can be as large as compared to the callback period for the sound process.
However, the parameters controlling integration have shorter control rate latencies.

【0111】 プロセスマネージャーは同じく音プロセスにシンセサイザーリソースを割り当
てて、けして特定のバックエンドシンセサイザーAPIとインタフェースするこ
とに責任がある。 精神あるいはその不可欠な特徴から外れないで、現在の発明は他の特定の形式
で具体化されるかもしれない。現在発表された具体化は、従って、あらゆる点で
説明的で、そして制約が多くないと考えられるはずである。付加されたクレーム
によって示されている発明の機会と意味とクレームの同等の限界の中で来るすべ
ての変更は、従って、その中に受け入れられるはずである。
The process manager is also responsible for allocating synthesizer resources to sound processes and interfacing with specific backend synthesizer APIs. Without departing from the spirit or its essential features, the present invention may be embodied in other specific forms. The currently published embodiment should therefore be considered in all respects illustrative and open-ended. All changes that come within the scope and meaning of the invention as indicated by the appended claims and the equivalent limits of the claims should therefore be accepted therein.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本システムの好ましい実施例を示すブロックダイアグラムである。FIG. 1 is a block diagram illustrating a preferred embodiment of the present system.

【図2】 本システムの論理的な構造を示す機能的なブロックダイアグラムである。FIG. 2 is a functional block diagram showing the logical structure of the system.

【図3】 ユーザーパラメータがグラフィカルスライダのかたちで表される足音の音響効
果のためのユーザパラメータを示すグラフィックユーザインターフェースを示す
FIG. 3 shows a graphical user interface showing user parameters for a footstep sound effect in which the user parameters are represented in the form of a graphical slider.

【図4Aから4E】 本システムが種々のコマンドに対してしたがう種々のステップを示すフローチ
ャートである。
4A to 4E are flowcharts illustrating the various steps that the system follows for various commands.

【図5】 本システムの好ましい実施例で採用されたパラメータ構造を示す。FIG. 5 shows a parameter structure employed in a preferred embodiment of the present system.

【図6から図14】 図6から14は実際の音モデルのために使われたパラメータを図示するテーブ
ルである。
6 to 14 are tables illustrating the parameters used for the actual sound model.

【手続補正書】[Procedure amendment]

【提出日】平成12年4月6日(2000.4.6)[Submission Date] April 6, 2000 (200.4.6)

【手続補正2】[Procedure amendment 2]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図1[Correction target item name] Fig. 1

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図1】 FIG.

【手続補正3】[Procedure amendment 3]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図2[Correction target item name] Figure 2

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図2】 FIG. 2

【手続補正4】[Procedure amendment 4]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図4A[Correction target item name] FIG. 4A

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図4A】 FIG. 4A

【手続補正5】[Procedure amendment 5]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図4B[Correction target item name] FIG. 4B

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図4B】 FIG. 4B

【手続補正6】[Procedure amendment 6]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図4C[Correction target item name] Fig. 4C

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図4C】 FIG. 4C

【手続補正7】[Procedure amendment 7]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図4D[Correction target item name] FIG. 4D

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図4D】 FIG. 4D

【手続補正8】[Procedure amendment 8]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図4E[Correction target item name] Fig. 4E

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図4E】 FIG. 4E

【手続補正9】[Procedure amendment 9]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図5[Correction target item name] Fig. 5

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図5】 FIG. 5

【手続補正10】[Procedure amendment 10]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図6[Correction target item name] Fig. 6

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図6】 FIG. 6

【手続補正11】[Procedure amendment 11]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図7[Correction target item name] Fig. 7

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図7】 FIG. 7

【手続補正12】[Procedure amendment 12]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図8[Correction target item name] Fig. 8

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図8】 FIG. 8

【手続補正13】[Procedure amendment 13]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図9[Correction target item name] Fig. 9

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図9】 FIG. 9

【手続補正14】[Procedure amendment 14]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図10[Correction target item name] FIG.

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図10】 FIG. 10

【手続補正15】[Procedure amendment 15]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図11[Correction target item name] FIG.

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図11】 FIG. 11

【手続補正16】[Procedure amendment 16]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図12[Correction target item name] FIG.

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図12】 FIG.

【手続補正17】[Procedure amendment 17]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図13[Correction target item name] FIG.

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図13】 FIG. 13

【手続補正18】[Procedure amendment 18]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図14[Correction target item name] FIG.

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図14】 FIG. 14

【手続補正19】[Procedure amendment 19]

【補正対象書類名】要約書[Document name to be amended] Abstract

【補正対象項目名】全文[Correction target item name] Full text

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【要約】 音響効果システムであって、行動の特徴のセットを持っている、当該の現象が
含んでシステムの音を生成する現象をモデルにして作られた、音響効果を作り出
すための音響効果システムで、合成が、音を合成することに対して、意味し、当
該の統合が当該の計算装置によってコントロールされて意味する音響効果のそれ
ぞれのためのモデルを処理するための計算装置、中央処理装置を含めての当該の
計算装置、メモリとインプット装置、音響効果モデル、当該のモデル本質に対応
する音を生成する現象の行動の特徴を有し、 音響効果を出力するためのアウトプット手段と、当該の音代表から得られた、
シンセサイザーコマンドのストリームを生成するための伝達されているコマンド
を言った1コマンド世代が当該の音統合が当該の音を生ずる現象で、音イベント
とシンセサイザーパラメータをコントロールするコマンドを始めて、そして終え
るコマンドを含めての当該のシンセサイザーコマンドの行動の特徴にとって代表
的な音声のアウトプットを引き起こすことを意味する統合がそんなものを意味す
ると言った:そしてそれによって当該のシステムが効率的な方法で広範囲の現実
な音響効果とそれらの相違を引き起こす当該の音を生成する現象の当該の行動の
特徴に関連している方法でそれによって当該の音声の生産が変えられるかもしれ
ないユーザーパラメータをコントロールするための手段を具備する音響効果シス
テムである。
A sound effect system for generating sound effects, the sound effect system having a set of behavioral characteristics, the sound effect system being modeled on a phenomenon in which the phenomenon is included to generate a sound of the system. A synthesis unit for processing a model for each of the sound effects, the synthesis meaning for synthesizing sound, and the integration being controlled by the calculation unit, a central processing unit Said computing device, including a memory and input device, a sound effect model, an output means for outputting a sound effect, having characteristics of a behavior of a phenomenon that generates a sound corresponding to the model essence, Obtained from the relevant sound representative,
One command generation, said transmitted command to generate a stream of synthesizer commands, is a phenomenon in which the sound integration produces the sound, initiates and terminates commands that control sound events and synthesizer parameters. Said synthesizing, which means to cause a typical audio output for the behavioral characteristics of the synthesizer command in question, including such means: and so that the system in question covers a wide range of realities in an efficient way Means for controlling user parameters by which the production of the sound may be altered in a manner related to the behavioral characteristics of the sound effect and the phenomenon of generating the sound causing the difference It is a sound effect system provided with.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 ケロック,ピーター ローワン シンガポール国,シンガポール 129793, ブロック ディー ケント ベール,クレ メンティ ロード 113 #09−06 Fターム(参考) 5D378 BB15 BB22 XX07 XX16 XX26 【要約の続き】 的な方法で広範囲の現実な音響効果とそれらの相違を引 き起こす当該の音を生成する現象の当該の行動の特徴に 関連している方法でそれによって当該の音声の生産が変 えられるかもしれないユーザーパラメータをコントロー ルするための手段を具備する音響効果システムである──────────────────────────────────────────────────続 き Continuation of front page (72) Inventor Kerok, Peter Rowan Singapore, Singapore 129793, Blok Dee Kent Vale, Clementi Road 113 # 09-06 F-term (reference) 5D378 BB15 BB22 XX07 XX16 XX26 The sound production is altered in a way that is related to the behavioral characteristics of the sound-producing phenomena that cause the wide range of realistic sound effects and their differences in a specific way Sound effects system with means to control user parameters that may

Claims (38)

【特許請求の範囲】[Claims] 【請求項1】 音響効果システムであって、行動的特徴のセットを持ってお
り、当該の現象を含むシステムの音を生成する現象をモデルにして作られた、音
響効果を作り出すための音響効果システムであって、合成が、音を合成すること
に対して、当該の統合が当該の計算装置によってコントロールされて意味する音
響効果のそれぞれのためのモデルを処理するための計算装置、中央処理装置を含
めての当該の計算装置、メモリとインプット装置、音響効果モデル、当該のモデ
ル本質に対応する音を生成する現象の行動的特徴を有し、 音響効果を出力するためのアウトプット手段と、当該の音代表から得られた、
シンセサイザーコマンドのストリームを生成するための伝達されているコマンド
の1コマンド世代が当該の音統合が当該の音を生ずる現象で、音イベントとシン
セサイザーパラメータをコントロールするコマンドを始めて、そして終えるコマ
ンドを含めての当該のシンセサイザーコマンドの行動的特徴にとって代表的な音
声のアウトプットを引き起こすことを意味する統合がそんなものを意味し、そし
てそれによって当該のシステムが効率的な方法で広範囲の現実な音響効果とそれ
らの相違を引き起こす当該の音を生成する現象の当該の行動的特徴に関連してい
る方法でそれによって当該の音声の生産が変えられるかもしれないユーザーパラ
メータをコントロールするための手段を具備する音響効果システム。
1. A sound effect system having a set of behavioral characteristics, the sound effect being created by modeling a sound-producing phenomenon of the system including the phenomenon. A system for processing a model for each of the sound effects, wherein the synthesis implies that the synthesis is controlled by the relevant computing device for synthesizing sound, a central processing unit. Said computing device, including a memory and input device, a sound effect model, having a behavioral characteristic of a phenomenon that generates a sound corresponding to the model essence, output means for outputting a sound effect, Obtained from the relevant sound representative,
One command generation of the transmitted command to generate a stream of synthesizer commands is a phenomenon in which the sound synthesis produces the sound, including commands to start and end sound events and commands to control the synthesizer parameters. The integration, which means that the behavioral characteristics of the synthesizer command of interest cause a typical audio output, means that such a system allows for a wide range of realistic sound effects and Sound comprising means for controlling a user parameter by which the production of the sound may be altered in a manner related to the behavioral characteristic of the sound-generating phenomenon causing the difference Effect system.
【請求項2】 音響効果システムであって、グラフィカル・ユーザインタフ
ェース、ユーザーに当該の音響効果をコントロールすることを許している当該の
グラフィカル・ユーザインタフェースを具備する請求項1の音響効果システム。
2. The sound effects system according to claim 1, comprising a graphical user interface, said graphical user interface allowing a user to control said sound effects.
【請求項3】 アプリケーションプログラマーインタフェース、タスクある
いは処理の計算装置の上に実行しているプロセスに当該の音響効果をコントロー
ルすることを許している当該のアプリケーションプログラマーインタフェースを
含める請求項1の音響効果システム。
3. The sound effects system of claim 1 including an application programmer interface, said application programmer interface allowing a process executing on a task or processing computing device to control said sound effects. .
【請求項4】 異なった音を生成する現象に対応している音響効果が普通の
ラフィカル・ユーザインタフェースによってコントロールされる請求項2の音響
効果システム。
4. The sound effects system according to claim 2, wherein the sound effects corresponding to the different sound-producing phenomena are controlled by an ordinary graphical user interface.
【請求項5】 異なった音を生成する現象に対応している音響効果がそこに
ある同じ請求項3の、システムが普通のアプリケーションプログラマーに、謔て
コントロールした音響効果は相互に作用する請求項3の音響効果システム。
5. The sound effect according to claim 3, wherein the sound effects corresponding to different sound producing phenomena are present therein, wherein the sound effects controlled by the system to ordinary application programmers interact. 3 sound effect system.
【請求項6】 同じぐらい当該のインプット装置がある請求項1の音響効果
システムはキーボード、コンピュータのポインティングデバイス、トラックボー
ル、制御装置、ボタン、ノブ、スライダとコミュニケーションポートから成り立
っているグループから選択した請求項1の音響効果システム。
6. The sound effects system of claim 1, wherein there are as many such input devices selected from the group consisting of keyboards, computer pointing devices, trackballs, controls, buttons, knobs, sliders and communication ports. The sound effect system according to claim 1.
【請求項7】 当該の音イベントがそこにある同じ請求項1、システムが再
生している部分から生じた音響効果は音声のデータを記録した請求項1の音響効
果システム。
7. The sound effects system according to claim 1, wherein said sound event is present therein, wherein the sound effects resulting from the part being played by the system recorded audio data.
【請求項8】 当該の音イベントがそこにある同じ請求項1の、システムが
音声のデータの手続き上の生成から得た請求項1の音響効果システム。
8. The sound effects system of claim 1, wherein the sound event is there, wherein the system obtained from the procedural generation of audio data.
【請求項9】 そこに統合が意味する当該の音が周辺機器通信可能性である
同じ請求項1の音響効果システム。
9. The sound effects system of claim 1, wherein said sound implying integration is peripheral device communicability.
【請求項10】 計算装置の中央処理装置の上にそこに統合が意味する当該
の音がプロセスである請求項1の音響効果システム。
10. The sound effects system according to claim 1, wherein said sound means integration on the central processing unit of the computing device is a process.
【請求項11】 請求項1の音響効果システムであって、その中に当該の音
と音の変動を導入するためのメカニズムが出力したモデル組み込みをもたらし、
それによって十分に変動を行い模倣し、それで音アウトプットをいっそう現実的
にする非合成物の音で起こっている変動を含む請求項1の音響効果システム。
11. The sound effects system of claim 1, wherein a mechanism for introducing the sound and sound fluctuations therein provides output model incorporation,
2. The sound effects system of claim 1 including fluctuations occurring in non-synthetic sounds thereby effecting and mimicking fluctuations, thereby making the sound output more realistic.
【請求項12】 当該のメカニズムが音イベントを始めて、そして終了させ
るコマンドとシンセサイザーパラメータをコントロールするコマンドを含めてシ
ンセサイザーコマンドのタイミングを変えるための手段を含む請求項11の音響
効果システム。
12. The sound effects system of claim 11, wherein the mechanism includes means for changing the timing of the synthesizer command, including a command to start and end a sound event and a command to control synthesizer parameters.
【請求項13】 類似であるが、同一でない音イベントのコレクションから
そこに当該のメカニズムがランダムに音イベントを選択するための手段を含む請
求項11の音響効果システム。
13. The sound effects system of claim 11, wherein the mechanism comprises means for randomly selecting sound events from a collection of similar, but non-identical sound events.
【請求項14】 請求項11の音響効果システムであり、メカニズムがシン
セサイザーパラメータの値を変えるための手段を含む請求項1の音響効果システ
ム。
14. The sound effects system of claim 11, wherein the mechanism includes means for changing a value of the synthesizer parameter.
【請求項15】 音響効果システムの請求項1のそれ以上を含み:類似であ
るが、同一でない音の複数性を取り決めるための手段であって、順序、特性の力
によって決定されている順序でのイベントについて、音響の特性を含めて特性を
言う手段と、選択的に当該の音イベントを始めて、そして終えるための手段とを
そなえ、 当該のユーザーパラメータの価値と当該の特性の当該の力の間の関係によれば
、それによって当該のユーザーパラメータが十分にスペクトルに沿って音響効果
の行動の特徴をコントロールしている効果をもつ請求項1の音響効果システム。
15. A sound effect system further comprising claim 1: means for negotiating a plurality of similar, but not identical, sounds, in an order determined by the power of the order, the characteristic. Means for characterizing the event, including the acoustic properties, and means for selectively initiating and ending the sound event, the value of the user parameter and the power of the property. The sound effects system of claim 1, wherein the relationship between the user parameters has the effect that the user parameters are sufficiently controlling the behavioral characteristics of the sound effects along the spectrum.
【請求項16】 請求項1の音響効果システムであって、当該のシンセサイ
ザーコマンドが前もって決定された時間隔までに現在の時より先に発生されて、
そして間隔、当該のコマンドが生成される間に、遅延を埋め合わせるのに十分長
い、しかし当該のシステムが十分に感知できない遅れの後に当該のユーザーパラ
メータの変更に反応するほど十分短くて、それらが統合がそこに時間を前もって
ことを意味し当該の音に行かせるまで、バッファで持たれる請求項1の音響効果
システム。
16. The sound effects system of claim 1, wherein the synthesizer command is generated earlier than a current time by a predetermined time interval;
And the interval, long enough to make up for the delay while the command is generated, but short enough so that the system reacts to the change of the user parameter after a delay that is not fully perceived, 2. The sound effects system of claim 1 wherein the sound effect is held in a buffer until it means that the sound has to go ahead in time.
【請求項17】 当該の音響効果がモデルをする同じ請求項1の音響効果シ
ステムはモデルがレベルの階層で取り決めた他の音響効果の複数性を含む請求項
1の音響効果システム。
17. The sound effects system of claim 1 wherein the sound effects model the same sound effects system of claim 1 wherein the model includes a plurality of other sound effects arranged in a hierarchy of levels.
【請求項18】 請求項1の音響効果システムであり、シンセサイザーパラ
メータが、次のグループのボリュームから、選択されるフィルター打ち切り、フ
ィルターQ、振幅エンベロープをパン(pan)して、売り込む請求項1の音響
効果システム。
18. The sound effect system of claim 1, wherein the synthesizer parameters pan and market selected filter truncation, filter Q, and amplitude envelope from the next group of volumes. Sound effects system.
【請求項19】 シンセサイザーコマンドの当該のストリームがプロセスに
よって生成される同じ請求項1のシステムがエンジンによって支配した音響効果
におけるパラメータ、支配的な当該のエンジンパラメータの音響効果システムで
あって、制御装置シンセサイザーパラメータで音イベントとコマンドを始めて、
そして終結するコマンドを含めてのシンセサイザーコマンドの選択コマンドを含
めてのシンセサイザーコマンドについていずれの入会者か時間を測り、そしてシ
ンセサイザーパラメータをコントロールする音イベントとコマンドを終える;そ
して音イベントを始めて、そして終了させるコマンドとシンセサイザーパラメー
タをコントロールするコマンドを含めてのシンセサイザーコマンドを模造とする
請求項1の音響効果システム。
19. The system of claim 1, wherein said stream of synthesizer commands is generated by a process, wherein said system is an engine-dominated sound effect parameter, said dominant engine parameter sound effect system comprising: Start sound events and commands with synthesizer parameters,
Select any synthesizer command, including the command to terminate, time any subscriber or synthesizer command, including the command, and end the sound event and command to control the synthesizer parameters; and start and end the sound event 2. The sound effect system according to claim 1, wherein the synthesizer command includes a command to be executed and a command to control a synthesizer parameter.
【請求項20】 当該の2番目のパラメータ、ユーザーパラメータとエンジ
ンパラメータから成り立っているグループから選ばれている当該の最初のパラメ
ータ、ユーザーパラメータを含んでいるグループから選ばれている当該の2番目
のパラメータ、エンジンパラメータとシンセサイザーパラメータについてそこに
、当該の最初のパラメータの1つのどんな値での変化でも当該のパラメータの値
で変化を起こし、当該の最初のパラメータが値で変化を起こすであろうように、
最初のパラメータが2番目のパラメータにマップされる請求項19の音響効果シ
ステム。
20. The first parameter selected from the group consisting of the second parameter, the user parameter and the engine parameter, the second parameter selected from the group including the user parameter. For parameters, engine parameters and synthesizer parameters, then any change in the value of one of the first parameters in question will cause a change in the value of the parameter in question and that first parameter in the synthesizer will change in value. To
20. The sound effects system of claim 19, wherein the first parameter is mapped to the second parameter.
【請求項21】 請求項20の音響効果システムであって、そこにか地図作
成パラメータと2番目のパラメータが含む最初の間の関係を線形の転換を含んで
いるグループから選択された転換とそして非線形の変換を含む請求項20の音響
効果システム。
21. The sound effects system of claim 20, wherein a transformation selected from a group comprising a linear transformation includes a relation between a mapping parameter and a first parameter included in a second parameter. 21. The sound effects system of claim 20, including a non-linear transformation.
【請求項22】 請求項20の音響効果システムであって、地図作成の関係
がレベルの複数性において存在し、1秒のパラメータにおいて1つのレベルが次
のより低いレベルにおいて同じく最初のパラメータである請求項20の音響効果
システム。
22. The sound effects system of claim 20, wherein the cartographic relationship exists in a plurality of levels, with one level at one second parameters also the first parameter at the next lower level. The sound effect system according to claim 20.
【請求項23】 請求項20の音響効果システムであって、パラメータと対
応する2番目のパラメータが属し異なった音モデルの請求項20の音響効果シス
テム。
23. The sound effect system according to claim 20, wherein the second parameter corresponding to the parameter belongs to a different sound model.
【請求項24】 請求項1の音響効果システムであって、音響効果があるオ
ペレーションの様式がそれぞれの時間を始めた特定の刺激が当該のシステムによ
ってそして当該の特定の刺激を受けることについての分に感知できない回の中で
受けられる、統合が意味する当該の音へのシンセサイザーコメントについて時間
を測定されたストリームの連絡によって作り出されている、当該、音響効果が情
報源から生じている特定の刺激が当該の計算装置と外部のコンピュータ・プログ
ラムの当該のインプット装置を構成している、グループから選んだそれによって
当該の音響効果が中に存在してイベントに同期させられるかもしれない外部の媒
体、動きビデオ、アニメーション、を含めての当該の外部の媒体音楽、音作品、
コンピュータゲーム、写実的なコンピュータプレゼンテーション、マルチメディ
ア作品、劇場の照明作品、作品と相互作用の身体の環境を含む請求項1の音響効
果システム。
24. The sound effects system of claim 1, wherein the mode of operation in which the sound effects are performed at each time begins when a particular stimulus is received by the system and received by the particular stimulus. The particular stimulus whose sound effect originates from the source, produced by the communication of the timed stream about the synthesizer comment on the sound implied by the integration, which is received in an unperceivable time Comprising said computing device and said input device of an external computer program, an external medium selected from the group by which said sound effects may be present and synchronized with the event, Such external media music, sound works, including motion videos, animations,
2. The sound effects system of claim 1, including computer games, graphic computer presentations, multimedia works, theater lighting works, and physical environments interacting with the works.
【請求項25】 同じぐらい記録を含めてさらに請求項1のシステムであっ
て、あるいはそれ以上のパラメータ軌道を記録することに対して、意味し、そし
て、生録音がリプレイのために意味する音響効果は後の時においてのパラメータ
軌跡が当該の使われたパラメータの値の時間を測定された連続を構成しているパ
ラメータ軌道を示し請求項1の音響効果システム。
25. The system of claim 1, further including recording as well as recording the parameter trajectory or more, and sound recording the live recording means for replay. 2. The sound effects system of claim 1, wherein the effect indicates a parameter trajectory at a later time where the parameter trajectory comprises a timed continuation of the value of the used parameter.
【請求項26】 請求項1又はそれ以上の含む音響効果システムであって、
音響効果が当該の一般的な音響効果の行動の特徴を制限するために行動のオプシ
ョン、複数性から設計するノーブランドの行動のオプションを選ぶ当該のシステ
ムの言われたユーザーを許すための手段が特定の音を生成する現象の行動の特徴
に設計するセレクション;順調な一般的な音響効果モデルの前もって決定された
変数に値を割り当てる当該のシステムのユーザーに音響効果が設計する当該のノ
ーブランドの行動の特徴を特定の音を生成している現象の行動の特徴に制限する
ことを許す可変的な設定の手段と、後のリコールのために当該のオプションと当
該の変数の値を蓄えるための貯蔵手段と、それによって当該のシステムのユーザ
ーが当該の一般的な音響効果モデルから特定の音響効果をモデルによって得られ
ているように創造する音響効果システム。
26. A sound effects system according to claim 1 or more,
Means for allowing said user of the system to select the options of behavior, the options of unbranded behavior to design from the plurality, the options of behavior to limit the characteristics of behavior of the general sound effects of the general sound effect. A selection to design the behavioral characteristics of a particular sound-generating phenomenon; assigning values to predetermined variables in a well-known general sound effects model; Means for variably setting the behavioral characteristics to be restricted to the behavioral characteristics of the particular sound-producing phenomenon, and for storing the values of the options and the variables for later recalls Storage means, whereby the user of the system creates a specific sound effect from the general sound effect model as if it had been obtained by the model. Sound effect system.
【請求項27】 請求項1の音響効果システムであって、当該の音統合を供
給する当該のシステムのユーザーのための手段が追加の音声のデータで意味する
音声のデータ読み込みを進める音響効果システムであり、そしてセーブするため
の手段が後にそのために音声のデータを示した音声のデータ記憶装置を再呼出し
する、それによって当該のシステムのユーザーが当該、一般的な音響効果の行動
を結合する特定の音響効果モデルを代わりの音声のデータを持っているモデルに
列してもよいようになっている音響効果システム。
27. The sound effects system of claim 1, wherein the means for providing a sound integration means for a user of the system proceeds with reading data of the sound implied by the additional sound data. And means for saving later recalls the audio data storage for which the audio data was indicated, thereby identifying the user of the system combining the general sound effects behavior A sound effect system, wherein the sound effect model of the sound effect model may be arranged in the model having the data of the substitute sound.
【請求項28】 そこに当該の音を生成している現象の1つが足跡である請
求項1の音響効果システム。
28. The sound effect system according to claim 1, wherein one of the phenomena generating the sound is a footprint.
【請求項29】 そこに当該の音を生成している現象の1つがガンの発射で
ある請求項1の音響効果システム。
29. The sound effects system of claim 1, wherein one of the phenomena producing the sound is gun firing.
【請求項30】 そこに当該の音を生成している現象の1つが動作している
である請求項1の音響効果システム。
30. The sound effects system of claim 1, wherein one of the phenomena producing the sound is operating.
【請求項31】 そこに当該の音を生成している現象の1つが拍手喝采であ
る請求項1の音響効果システム。
31. The sound effect system of claim 1, wherein one of the phenomena producing the sound is applause.
【請求項32】 そこに当該の音を生成している現象の1つが小川の少しず
つ流すことである請求項1の音響効果システム。
32. The sound effect system of claim 1, wherein one of the phenomena producing the sound there is flowing little by little in a stream.
【請求項33】 当該の音を生成している現象の1つが機械について単調に
話し続ける請求項1の音響効果システム。
33. The sound effects system of claim 1, wherein one of said sound producing phenomena continues to talk monotonically about the machine.
【請求項34】 そこに当該の音を生成している現象の1つが笑いである請
求項1の音響効果システム。
34. The sound effect system according to claim 1, wherein one of the phenomena generating the sound is laughter.
【請求項35】 そこに当該の音を生成する現象の1つが声援する群衆であ
る請求項1の音響効果システム。
35. The sound effects system of claim 1, wherein one of the phenomena producing the sound is a cheering crowd.
【請求項36】 そこに当該の音を生成する現象の1つが風である請求項1
の音響効果システム。
36. One of the phenomena that produces the sound there is wind.
Sound effect system.
【請求項37】 そこに当該の音を生成する現象の1つが非実世界の現象で
ある請求項1の音響効果システム。
37. The sound effects system of claim 1, wherein one of the phenomena that produces the sound is a non-real world phenomenon.
【請求項38】 行動的特徴のセットを持っている、当該の現象が含んでシ
ステムを言った音を生成する現象をモデルにして作られた、音響効果を作り出す
ことについての方法であって、当該の音を生成する現象のために行動の特徴のセ
ットを識別し、対応する音を生成する現象の行動の特徴の代表であって音響効果
モデル、当該のモデルを組み立て、当該のモデルを通信可能な計算装置にしまっ
ておくことは音シンセサイザーに接続し、シンセサンザーコマンドのストリーム
を生成することは当該の音主張から生れて、当該のシンセサイザーが当該の音を
生成する現象の行動の特徴にとって代表的な声の生産を生産するように、当該の
シンサセイザーに伝達されてコマンドを言って、制御に音イベントを始めて、そ
して終了させるコマンドとコマンドを含めてのシンセサイザーコマンドを言った
シンセサイザーパラメータと、少なくとも1つのユーザーパラメータ、当該のユ
ーザーパラメータをモデルに提供することは、当該の音を生成する現象について
;行動の特徴に対応し、音の相違を作り出すために当該のユーザーパラメータを
操ることは当該の様式、文通することをもたらす音響効果モデルの作成方法。
38. A method for producing a sound effect, comprising a set of behavioral features, modeled on a phenomenon that produces a sound, said phenomenon including said system. Identify a set of behavioral features for the sound-generating phenomena, represent the behavioral features of the corresponding sound-generating phenomena, build a sound effects model, model the model, and communicate the model. Keeping in a possible computing device connects to a sound synthesizer, and generating a stream of synth synthesizer commands results from the sound assertion, and the behavioral characteristics of the phenomenon in which the synthesizer generates the sound. Commands that are transmitted to the synthesizer concerned, say commands, and start and end sound events to control, so as to produce a typical voice production for the Providing the model with at least one user parameter, the user parameter, and the synthesizer parameter that said the command including the synthesizer command is related to the sound-generating phenomenon; Manipulating the user parameters to create the difference is the style, the method of creating the sound effect model that brings correspondence.
JP2000513267A 1997-09-23 1998-09-22 Sound effect system Pending JP2001517814A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
SG1997003500A SG73470A1 (en) 1997-09-23 1997-09-23 Interactive sound effects system and method of producing model-based sound effects
SG9703500-0 1997-09-23
PCT/SG1998/000074 WO1999016049A1 (en) 1997-09-23 1998-09-22 Interactive sound effects system and method of producing model-based sound effects

Publications (1)

Publication Number Publication Date
JP2001517814A true JP2001517814A (en) 2001-10-09

Family

ID=20429738

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000513267A Pending JP2001517814A (en) 1997-09-23 1998-09-22 Sound effect system

Country Status (5)

Country Link
EP (1) EP1019901A1 (en)
JP (1) JP2001517814A (en)
AU (1) AU9292498A (en)
SG (1) SG73470A1 (en)
WO (1) WO1999016049A1 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001009152A (en) * 1999-06-30 2001-01-16 Konami Co Ltd Game system and storage medium readable by computer
WO2001033543A1 (en) * 1999-11-02 2001-05-10 Laurent Clairon Methods for producing and using a sound effects library representing the sound characteristics of a motor vehicle, devices therefor
JP4304845B2 (en) * 2000-08-03 2009-07-29 ソニー株式会社 Audio signal processing method and audio signal processing apparatus
CA2386446A1 (en) * 2001-05-15 2002-11-15 James Phillipsen Parameterized interactive control of multiple wave table sound generation for video games and other applications
US20090088246A1 (en) * 2007-09-28 2009-04-02 Ati Technologies Ulc Interactive sound synthesis
GB2475096A (en) * 2009-11-06 2011-05-11 Sony Comp Entertainment Europe Generating a sound synthesis model for use in a virtual environment
GB2486663A (en) * 2010-12-21 2012-06-27 Sony Comp Entertainment Europe Audio data generation using parametric description of features of sounds
US10453434B1 (en) 2017-05-16 2019-10-22 John William Byrd System for synthesizing sounds from prototypes
GB201719854D0 (en) * 2017-11-29 2018-01-10 Univ London Queen Mary Sound effect synthesis
US11620100B2 (en) * 2019-12-27 2023-04-04 Harman International Industries, Incorporated Systems and methods for adjusting activity control parameters

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5146833A (en) * 1987-04-30 1992-09-15 Lui Philip Y F Computerized music data system and input/out devices using related rhythm coding
US5267318A (en) * 1990-09-26 1993-11-30 Severson Frederick E Model railroad cattle car sound effects
IT1273051B (en) * 1993-11-24 1997-07-01 Paolo Podesta MULTIMEDIA SYSTEM FOR THE CONTROL AND GENERATION OF TWO-DIMENSIONAL AND THREE-DIMENSIONAL MUSIC AND ANIMATION IN REAL TIME PILOTED BY MOTION DETECTORS.
US6025552A (en) * 1995-09-20 2000-02-15 Yamaha Corporation Computerized music apparatus processing waveform to create sound effect, a method of operating such an apparatus, and a machine-readable media

Also Published As

Publication number Publication date
SG73470A1 (en) 2000-06-20
AU9292498A (en) 1999-04-12
EP1019901A1 (en) 2000-07-19
WO1999016049A1 (en) 1999-04-01

Similar Documents

Publication Publication Date Title
US6822153B2 (en) Method and apparatus for interactive real time music composition
Rocchesso et al. Sounding objects
Emmerson et al. Electro-acoustic music
JP5624255B2 (en) System and method for portable speech synthesis
KR20200003022A (en) Role play simulation method and terminal device in VR scenario
JPH09500747A (en) Computer controlled virtual environment with acoustic control
Franinović et al. The experience of sonic interaction
JP2001517814A (en) Sound effect system
Back et al. Micro-narratives in sound design: Context, character, and caricature in waveform manipulation
Pressing Some perspectives on performed sound and music in virtual environments
CN104822095A (en) Composite beat special effect system and composite beat special effect processing method
Goodwin Beep to boom: the development of advanced runtime sound systems for games and extended reality
WO2021246104A1 (en) Control method and control system
GB2532034A (en) A 3D visual-audio data comprehension method
Filimowicz Foundations in Sound Design for Linear Media: A Multidisciplinary Approach
Puckette Four surprises of electronic music
CN113318432B (en) Music control method in game, nonvolatile storage medium and electronic device
Plans Composer in Your Pocket: Procedural Music in Mobile Devices
JP2002536680A (en) How to label sound or its display
Garner Cinematic sound design for players
Kokoras Strategies for the creation of spatial audio in electroacoustic music
Walker et al. Musique Concrète Choir: An Interactive Performance Environment for Any Number of People
Winkler Strategies for interaction: Computer music, performance, and multimedia
Enns Understanding Game Scoring: Software Programming, Aleatoric Composition and Mimetic Music Technology
Greuel et al. Sculpting 3D worlds with music: advanced texturing techniques