JP2023062930A - Method for synthesizing musical sound signal, musical sound signal synthesis device, and program - Google Patents

Method for synthesizing musical sound signal, musical sound signal synthesis device, and program Download PDF

Info

Publication number
JP2023062930A
JP2023062930A JP2021173119A JP2021173119A JP2023062930A JP 2023062930 A JP2023062930 A JP 2023062930A JP 2021173119 A JP2021173119 A JP 2021173119A JP 2021173119 A JP2021173119 A JP 2021173119A JP 2023062930 A JP2023062930 A JP 2023062930A
Authority
JP
Japan
Prior art keywords
complex
coupled system
information
musical
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021173119A
Other languages
Japanese (ja)
Inventor
英嗣 富永
Hidetsugu Tominaga
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2021173119A priority Critical patent/JP2023062930A/en
Publication of JP2023062930A publication Critical patent/JP2023062930A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

To synthesize a high-quality and real musical sound signal of a wind instrument, with a lower calculation cost.SOLUTION: A method for synthesizing a musical sound signal includes: an instrument movement calculation process (112) of calculating, according to performance information, first information showing a pressure exerted to a voice generation source by a mouth, second information showing a displacement of the voice generation source, third information showing a flow rate exerted to a liner coupled system made of air and a body by the voice generation source, and fourth information showing a pressure exerted to the voice generation source by the linear coupled system; and a musical sound signal calculation process (113) of calculating a sound pressure at an observation point on the basis of the third information. The linear coupled system is expressed by a general viscosity attenuation model. A complex eigenvalue and a complex unique mode as modal parameters of the general viscosity attenuation model are identified with a frequency response of the linear coupled system or the inverse Fourier transform of the frequency response as a reference. The fourth information is calculated by using the complex eigenvalue and the complex unique mode.SELECTED DRAWING: Figure 3

Description

本開示は、楽音信号合成方法、楽音信号合成装置およびプログラムに関する。 The present disclosure relates to a musical sound signal synthesizing method, a musical sound signal synthesizing device, and a program.

自然楽器の発音メカニズムを物理法則に基づいてモデル化し、シミュレートすることで、リアルな楽音を疑似的(仮想的)に合成する方法が知られている。例えば管楽器を例にとれば、非特許文献1には、発音源(唇あるいはリード)と管体内の空気との連成をシミュレートすることで楽音信号を合成する方法が記載されている。 2. Description of the Related Art There is known a method of artificially (virtually) synthesizing realistic musical tones by modeling and simulating the sounding mechanism of a natural musical instrument based on physical laws. Taking a wind instrument as an example, Non-Patent Document 1 describes a method of synthesizing a musical tone signal by simulating the interaction between a sound source (lips or reeds) and the air inside the tube.

MoReeSC: A Framework for the Simulation and Analysis of Sound Production in Reed and Brass Instruments, ACTA ACOUSTICA UNITED WITH ACOUSTICA,Vol.100 (2014) p126-138MoReeSC: A Framework for the Simulation and Analysis of Sound Production in Reed and Brass Instruments, ACTA ACOUSTICA UNITED WITH ACOUSTICA, Vol.100 (2014) p126-138

しかしながら、非特許文献1に記載された技術は、モデルが単純であるがゆえに、本体(管楽器の管体)やリードの詳細な設計仕様に応じたリアルな楽音信号を合成することができない、という課題がある。 However, the technique described in Non-Patent Document 1 cannot synthesize a realistic musical tone signal according to the detailed design specifications of the main body (the body of a wind instrument) and reeds, because the model is simple. I have a problem.

本開示の一態様に係る楽音信号合成方法は、発音源と空気とが相互に作用し、前記空気と本体とが相互に作用する場合に、コンピューターが、演奏情報に応じて、空気中における任意の観測点での音圧を示す楽音信号を合成する楽音信号合成方法であって、前記コンピューターが、前記演奏情報に応じて、口腔が前記発音源に及ぼす圧力を示す第1情報と、前記発音源の変位を示す第2情報と、前記発音源が前記空気と前記本体とから成る線形連成系に及ぼす流量を示す第3情報と、前記線形連成系が前記発音源に及ぼす圧力を示す第4情報と、を算出する楽器運動算出過程と、前記コンピューターが、前記第3情報に基づいて前記観測点における音圧を算出する楽音信号算出過程と、を含み、前記線形連成系は、一般粘性減衰系モデルで表現され、当該一般粘性減衰系モデルのモーダルパラメータである複素固有値および複素固有モードは、前記線形連成系の周波数応答あるいは周波数応答の逆フーリエ変換をリファレンスとして同定され、前記第4情報は、前記複素固有値および前記複素固有モードを用いて算出される。 In a musical sound signal synthesizing method according to an aspect of the present disclosure, when a sound generating source interacts with air, and the air interacts with a main body, a computer generates an arbitrary sound in the air according to performance information. a musical sound signal synthesizing method for synthesizing a musical sound signal indicating a sound pressure at an observation point, wherein the computer generates first information indicating the pressure exerted by the oral cavity on the sound generating source according to the performance information; second information indicative of the displacement of the source; third information indicative of the flow rate exerted by the source on the linearly coupled system of the air and the body; and the pressure exerted by the linearly coupled system on the source. and a musical sound signal calculation process in which the computer calculates the sound pressure at the observation point based on the third information, wherein the linear coupled system comprises: Complex eigenvalues and complex eigenmodes, which are modal parameters of the general viscous damping system model and are represented by the general viscous damping system model, are identified with reference to the frequency response of the linear coupled system or the inverse Fourier transform of the frequency response, and Fourth information is calculated using the complex eigenvalues and the complex eigenmodes.

物理モデルを説明するための図である。FIG. 4 is a diagram for explaining a physical model; 楽音合成を生成するコンピューターの構成を示す図である。FIG. 4 is a diagram showing the configuration of a computer that generates synthesized musical tones; コンピューターにおける機能的な構成を示すブロック図である。3 is a block diagram showing the functional configuration of a computer; FIG. 楽音信号合成処理の動作を示すフローチャートである。4 is a flowchart showing the operation of tone signal synthesizing processing; 楽音信号合成処理におけるモーダルパラメータの同定処理を示すフローチャートである。4 is a flow chart showing modal parameter identification processing in tone signal synthesizing processing; 参照FRとモード合成によるFRとがほぼ一致していることを示す図である。FIG. 10 is a diagram showing that the reference FR and the FR by mode synthesis are almost the same; 参照FRとモード合成によるFRとがほぼ一致していることを示す図である。FIG. 10 is a diagram showing that the reference FR and the FR by mode synthesis are almost the same; 参照FRとモード合成によるFRとがほぼ一致していることを示す図である。FIG. 10 is a diagram showing that the reference FR and the FR by mode synthesis are almost the same; 参照FRとモード合成によるIRとがほぼ一致していることを示す図である。FIG. 10 is a diagram showing that the reference FR and the IR by mode synthesis are almost the same; 参照FRとモード合成によるIRとがほぼ一致していることを示す図である。FIG. 10 is a diagram showing that the reference FR and the IR by mode synthesis are almost the same; 参照FRとモード合成によるIRとがほぼ一致していることを示す図である。FIG. 10 is a diagram showing that the reference FR and the IR by mode synthesis are almost the same;

以下、本開示の実施形態に係る楽音信号合成方法について図面を参照して説明する。
なお、各図において、各部の寸法および縮尺は、実際のものと適宜に異ならせてある。また、以下に述べる実施の形態は、好適な具体例であるから、技術的に好ましい種々の限定が付されているが、本発明の範囲は、以下の説明において特に本発明を限定する旨の記載がない限り、これらの形態に限られるものではない。
A musical tone signal synthesizing method according to an embodiment of the present disclosure will be described below with reference to the drawings.
In each drawing, the dimensions and scale of each part are appropriately different from the actual ones. Further, since the embodiments described below are preferred specific examples, they are subject to various technically preferable limitations. It is not limited to these forms unless otherwise stated.

まず、実際形態に係る楽音信号合成方法の原理について説明する。
管楽器が金管楽器(トランペット、トロンボーン、ホルンなど)であれば、当該金管楽器において楽音は、楽器本体の入口側に取り付けられたマウスピースに、演奏者が唇をつけて、自身の口腔内の貯め込んだ空気を放出して、唇を振動させることで発生する。
同様に、管楽器が木管楽器(クラリネット、サクソフォン、オーボエなど)であれば、当該木管楽器において楽音は、楽器本体の入口側に取り付けられたマウスピースを演奏者が口でくわえて、自身の口腔内の貯め込んだ空気を放出し、リードを振動させることで発生する。
このような発音メカニズムを模倣するため、本実施形態では、次のような物理モデルを用いる。
First, the principle of the tone signal synthesizing method according to the actual embodiment will be explained.
If the wind instrument is a brass instrument (trumpet, trombone, horn, etc.), the musical tone of the brass instrument is produced by putting the player's lips on the mouthpiece attached to the entrance side of the instrument body, in the mouth of the player. It is generated by releasing the stored air and vibrating the lips.
Similarly, if the wind instrument is a woodwind instrument (such as a clarinet, saxophone, oboe, etc.), the musical sound of the woodwind instrument is produced by the player holding a mouthpiece attached to the inlet side of the instrument body with his/her mouth, It is generated by releasing the trapped air and vibrating the reed.
In order to imitate such a pronunciation mechanism, the following physical model is used in this embodiment.

図1は、実施形態に係る楽音信号合成方法の前提となる各物理モデルと、これらの各物理モデル同士の連成を説明するための図である。物理モデルとは、管楽器の発音メカニズムをモデル化したものであり、本実施形態において、物理モデルは、発音源(唇またはリード)Lpと、空気Arと、本体Bdとに大別される。各物理モデル同士の連成とは、2つの物理モデルが、相互に影響を及ぼし合うことを意味する。 FIG. 1 is a diagram for explaining each physical model that is a premise of the musical tone signal synthesizing method according to the embodiment, and the coupling between each of these physical models. A physical model is a model of the sounding mechanism of a wind instrument. In this embodiment, the physical model is roughly divided into a sounding source (lips or reeds) Lp, air Ar, and main body Bd. Coupling between physical models means that two physical models influence each other.

物理モデルのうち、発音源Lpは、発音源(金管楽器であれば演奏者の唇、木管楽器であればリード)の運動を模倣するモデルである。本体Bdとは、管楽器の管体の運動を模倣するモデルである。空気Arは、発音源Lpと本体Bdの周辺に存在する空気の運動を模倣する。 Of the physical models, the sound source Lp is a model that imitates the movement of the sound source (a player's lips in the case of a brass instrument, and a reed in the case of a woodwind instrument). The main body Bd is a model that imitates the movement of the tube of a wind instrument. The air Ar imitates the motion of the air existing around the source Lp and the body Bd.

このような物理モデルでは、口腔Ocが、発音源Lpに圧力(1)を与えることで当該発音源Lpに振動変位(2)が生じると同時に空気に流量(3)を与え、当該空気は当該発音源Lpに圧力(4)を与える。
なお、本実施形態では、口腔内圧力(1)が第1情報で示され、変位(2)が第2情報で示され、流量(3)が第3情報で示され、圧力(4)が第4情報で示される。
In such a physical model, the oral cavity Oc applies a pressure (1) to the sound source Lp, thereby generating a vibration displacement (2) in the sound source Lp and simultaneously giving a flow rate (3) to the air. A pressure (4) is applied to the sound source Lp.
In this embodiment, the oral pressure (1) is indicated by the first information, the displacement (2) is indicated by the second information, the flow rate (3) is indicated by the third information, and the pressure (4) is indicated by It is indicated by the fourth information.

マイクMcは、管楽器における物理モデルではないが、生成する楽音信号の観測位置を仮想的に示すために記載してある。換言すれば、本実施形態では、マイクMcが設けられる位置で観測される音圧の楽音信号を合成(生成)する。マイクMcは、本体Bdが存在する空気中であれば、任意の位置に設けることが可能である。 The microphone Mc is not a physical model of the wind instrument, but is shown to virtually show the observation position of the musical tone signal to be generated. In other words, in this embodiment, a musical tone signal of the sound pressure observed at the position where the microphone Mc is provided is synthesized (generated). The microphone Mc can be provided at any position in the air where the main body Bd exists.

上記非特許文献1に記載された技術は単純なモデルである、と説明したが、ここでいう単純な、とは、次の3点である。詳細には、発音源(唇またはリード)の空間的分布を無視している第1の点、発音源(唇またはリード)と空気が1点で結合されている第2の点、および、複雑な3次元形状を有する管体と空気との連成を無視している第3の点である。 Although the technology described in Non-Patent Document 1 has been described as a simple model, the simple here means the following three points. Specifically, a first point ignoring the spatial distribution of the source (lips or reeds), a second point where the source (lips or reeds) and air are joined at one point, and a complex The third point is that the interaction between the tubular body having a three-dimensional shape and the air is ignored.

そこで、本実施形態に係る楽音信号合成方法では、第1に、空気Arと本体Bdとの連成系を一般粘性減衰系モデルで表現することにした。詳細には、発音源と上記連成系との界面における応答圧力を「複素固有モードの重ね合わせ」として、より具体的には、「複素数のフィルタ係数を有する一次IIRフィルタの重ね合わせ」として表現することにした。
なお、本説明では、空気Arと本体Bdとの連成系を特に「線形連成系Lc」と呼ぶことにし、口腔Ocと発音源Lpとからなる「非線形連成系」、さらにはそれら全てを包含した「非線形連成系」と区別することにする。
Therefore, in the musical tone signal synthesizing method according to the present embodiment, firstly, the coupled system between the air Ar and the main body Bd is represented by a general viscous damping system model. Specifically, the response pressure at the interface between the source and the coupled system is expressed as "superposition of complex eigenmodes," more specifically, as "superposition of first-order IIR filters with complex filter coefficients." decided to
In this description, the coupled system between the air Ar and the main body Bd is particularly referred to as the "linear coupled system Lc", and the "nonlinear coupled system" consisting of the oral cavity Oc and the sound source Lp, and all of them We distinguish it from the "nonlinear coupled system" including

本体Bdと空気Arとから成る線形連成系Lc、即ち、音響構造連成系を一般粘性減衰系モデルで表現できることの理論的根拠は、構造変位と空気速度ポテンシャルを「時間および空間に依存する変数」とした場合の有限要素法による音響構造連成運動方程式が、形式的に実対称の質量行列、減衰行列、剛性行列によって書き表せることにある。この3つの実対称行列から構成される運動方程式の形は、(比例粘性減衰ではない)一般的な粘性減衰を有する構造物のモデル、即ち一般粘性減衰系モデルの有限要素法による運動方程式の形と数学的に同じである。
なお、音響構造連成系を一般粘性減衰系モデルで表現することの利点は、このモデルの固有モードが広義の直交性を有することにある。このとき、モード合成法を用いた高速な時間領域シミュレーションが可能になるのである。
The theoretical basis for the fact that the linear coupled system Lc consisting of the body Bd and the air Ar, that is, the acoustic structure coupled system can be represented by the general viscous damping system model is that the structural displacement and the air velocity potential depend on time and space. The acoustic structure interaction equation by the finite element method in the case of "variables" can be formally expressed by a real symmetrical mass matrix, damping matrix, and stiffness matrix. The form of the equation of motion composed of these three real symmetric matrices is a model of a structure with general viscous damping (not proportional viscous damping). is mathematically the same as
The advantage of expressing the acoustic-structure interaction system with a general viscous damping system model is that the eigenmodes of this model have orthogonality in a broad sense. At this time, high-speed time-domain simulation using the mode synthesis method becomes possible.

一般粘性減衰系モデルにおけるインパルス応答(Impulse Response)は、次式(1)のように示される。

Figure 2023062930000002
また、一般粘性減衰系モデルにおける周波数応答(Frequency Response)は、次式(2)のように示される。
インパルス応答と周波数応答との間には、インパルス応答のフーリエ変換が周波数応答であり、周波数応答の逆フーリエ変換がインパルス応答であるという関係がある。
Figure 2023062930000003
An impulse response in the general viscous damping system model is expressed as in the following equation (1).
Figure 2023062930000002
Also, the frequency response in the general viscous damping system model is expressed as in the following equation (2).
There is a relationship between the impulse response and the frequency response that the Fourier transform of the impulse response is the frequency response and the inverse Fourier transform of the frequency response is the impulse response.
Figure 2023062930000003

式(1)または式(2)において、jは虚数単位であり、*は複素共役であり、rはモード次数である。iは加振点のインデクッスであり、lは応答点のインデックスである。
λは複素固有値であり、λ=-σ+jωdrで示される。
σはモード減衰率であり、ωdrは減衰固有角振動数である。
In equation (1) or (2), j is the imaginary unit, * is the complex conjugate, and r is the modal order. i is the index of the excitation point and l is the index of the response point.
λ r is the complex eigenvalue and is denoted by λ r =−σ r +jω dr .
σ r is the modal damping rate and ω dr is the damped natural angular frequency.

rilはモード留数であり、次式(3)で示される。

Figure 2023062930000004
なお、式(3)において、
riは、加振点iにおける複素固有モードの実部であり、
riは、加振点iにおける複素固有モードの虚部である。 R ril is a modal residue and is represented by the following equation (3).
Figure 2023062930000004
In addition, in formula (3),
x ri is the real part of the complex eigenmode at excitation point i,
y ri is the imaginary part of the complex eigenmode at excitation point i.

線形連成系Lcを一般粘性減衰系モデルで表現する場合に重要となる点は、当該一般粘性減衰系モデルのモーダルパラメータをいかに精度よく決定することができるか、という点にある。
このため、本実施形態では、第2に「例えば高速多重極境界要素法を用いて多点加振多点参照(MIMO:Multi-Input Multi-Output)方式で算出した線形連成系の周波数応答」をリファレンス(参照)として、一般粘性減衰系モデルにフィットするようにモーダルパラメータである複素固有値と複素固有モードを同定することにした。
An important point in expressing the linear coupled system Lc with a general viscous damping system model is how accurately the modal parameters of the general viscous damping system model can be determined.
For this reason, in the present embodiment, secondly, the frequency response of a linear coupled system calculated by a multi-point excitation multi-reference (MIMO: Multi-Input Multi-Output) method using, for example, a fast multipole boundary element method ” as a reference, we decided to identify the complex eigenvalues and complex eigenmodes, which are modal parameters, so as to fit the general viscous damping model.

図2は、本実施形態に係る楽音信号合成方法を実行するコンピューター10のブロック図である。本実施形態に係る楽音信号合成方法は、コンピューターとソフトウェアとの協働により実現される。
コンピューター10は、制御装置11と記憶装置12と演奏情報出力装置13と放音装置14とを含む。
FIG. 2 is a block diagram of the computer 10 that executes the musical tone signal synthesizing method according to this embodiment. The musical tone signal synthesizing method according to this embodiment is realized by cooperation between a computer and software.
The computer 10 includes a control device 11 , a storage device 12 , a performance information output device 13 and a sound emitting device 14 .

制御装置11は、例えばCPU(Central Processing Unit)等の単数または複数の処理回路で構成され、コンピューター10の各要素を統括的に制御する。なお、制御装置11は、CPUのほか、DSP(Digital Signal Processor)やASIC(Application Specific Integrated Circuit)等の回路によって構成されてもよい。 The control device 11 is composed of one or more processing circuits such as a CPU (Central Processing Unit), and controls each element of the computer 10 in an integrated manner. Note that the control device 11 may be configured by a circuit such as a DSP (Digital Signal Processor) or an ASIC (Application Specific Integrated Circuit) in addition to the CPU.

記憶装置12は、例えば磁気記録媒体または半導体記録媒体等の公知の記録媒体で構成された単数または複数のメモリーであり、制御装置11が実行するプログラムと制御装置11が使用する各種のデータとを記憶する。なお、複数種の記録媒体の組合せにより記憶装置12を構成してもよい。また、コンピューター10に対して着脱可能な可搬型の記録媒体、または、コンピューター10が通信網を介して通信可能な外部記録媒体(例えばオンラインストレージ)を、記憶装置12として利用してもよい。 The storage device 12 is, for example, one or more memories configured with known recording media such as magnetic recording media or semiconductor recording media, and stores programs executed by the control device 11 and various data used by the control device 11. Remember. Note that the storage device 12 may be configured by combining multiple types of recording media. Alternatively, a portable recording medium detachable from the computer 10 or an external recording medium (for example, online storage) with which the computer 10 can communicate via a communication network may be used as the storage device 12 .

演奏情報出力装置13は、楽音信号の生成に必要な演奏情報を出力する。必要な演奏情報とは、例えば楽音信号の生成開始から生成終了までを指定する情報、生成する楽音信号の音高を示す情報、生成する楽音信号の大きさ(音量)を示す情報などである。このような演奏情報を出力するために、演奏情報出力装置13は、鍵盤装置130を含む。
鍵盤装置130は、電子ピアノなどの鍵盤に相当し、複数の鍵(黒鍵131b、白鍵131w)が並べられた鍵盤を有する。また、鍵盤装置130における鍵131b、131wには、各鍵が押し込まれると、その鍵の押込量を表す情報を出力する鍵位置センサー132a、および、押鍵速度を表す情報を出力する鍵速度センサー132bが設けられる。
The performance information output device 13 outputs performance information necessary for generating musical tone signals. The necessary performance information includes, for example, information specifying the generation start to end of the musical tone signal, information indicating the pitch of the musical tone signal to be generated, information indicating the magnitude (volume) of the musical tone signal to be generated, and the like. The performance information output device 13 includes a keyboard device 130 for outputting such performance information.
The keyboard device 130 corresponds to a keyboard of an electronic piano or the like, and has a keyboard on which a plurality of keys (black keys 131b and white keys 131w) are arranged. Keys 131b and 131w in the keyboard device 130 also include a key position sensor 132a that outputs information representing the amount of depression of each key when each key is pressed, and a key speed sensor 132a that outputs information representing the key pressing speed. 132b is provided.

鍵盤装置130は、鍵の押込量、押鍵速度、および、押し込まれた鍵を示す情報(例えば鍵番号)を、デジタル形式でバスBを介して制御装置11にサンプリング周期で定期的に出力する。
なお、口腔Ocが発音源Lpに及ぼす圧力は、制御装置11において、鍵盤装置130から出力される鍵の押込量を示す情報または押鍵速度を示す情報に基づいて算出される。なお、押鍵速度については、鍵の押込量を微分演算すれば、鍵速度センサー132bを設けなくて済む。また、押鍵速度については、鍵の押込量を微分演算すれば、鍵速度センサー132bを設けなくて済む。鍵盤装置130から出力される情報には、押鍵の加速度を示す情報が含まれていてもよい。
The keyboard device 130 periodically outputs the amount of key depression, key depression speed, and information indicating the depressed key (for example, the key number) to the control device 11 via the bus B in a digital format at sampling intervals. .
The pressure exerted by the oral cavity Oc on the sound source Lp is calculated in the control device 11 based on the information indicating the amount of key depression or the information indicating the key depression speed output from the keyboard device 130 . As for the key depression speed, the key speed sensor 132b can be dispensed with by differentiating the key depression amount. Further, with respect to the key depression speed, if the key depression amount is differentiated, the key speed sensor 132b can be dispensed with. The information output from the keyboard device 130 may include information indicating the acceleration of key depression.

楽音の発生は、押鍵によって生じるので、楽音信号の生成開始を指定する情報は、押鍵速度の情報および鍵の押込量を示す情報から求めることができる。楽音の終了は、離鍵によって生じるので、楽音信号の生成終了を指定する情報は、離鍵時の押込量を示す情報から求めることができる。
生成する楽音信号の音高を示す情報は、押し込まれた鍵を示す情報であり、また、生成する楽音信号の大きさを示す情報は、口腔Ocが発音源Lpに及ぼす圧力を示す情報である。
Since musical tones are generated by key depression, the information specifying the start of generation of musical tone signals can be obtained from the key depression speed information and the key depression amount information. Since the end of the musical tone is caused by releasing the key, the information designating the end of the generation of the musical tone signal can be obtained from the information indicating the pressing amount at the time of releasing the key.
The information indicating the pitch of the musical sound signal to be generated is information indicating the pressed key, and the information indicating the magnitude of the musical sound signal to be generated is information indicating the pressure exerted by the oral cavity Oc on the sound source Lp. .

このように鍵盤装置130から出力される情報と、当該情報に演算を施した情報とに基づいて、楽音信号の生成に必要な演奏情報を得ることができる。 Based on the information output from the keyboard device 130 and the information obtained by performing calculations on the information in this way, it is possible to obtain performance information necessary for generating musical tone signals.

放音装置14は、制御装置11からの指示に応じた音響を再生する。例えばスピーカまたはヘッドホンが放音装置14の典型例である。
なお、コンピューター10としては、他に表示装置や操作パネル装置などが設けられるが、本件では重要ではないので、省略される。
The sound emitting device 14 reproduces sound according to instructions from the control device 11 . For example, speakers or headphones are typical examples of the sound emitting device 14 .
A display device, an operation panel device, and the like are also provided as the computer 10, but they are omitted because they are not important in this case.

図3は、制御装置11の機能的な構成を例示するブロック図である。制御装置11は、記憶装置12に記憶されたプログラムを実行することで、楽音信号を合成するための複数の要素(処理制御部110、前処理部111、楽器運動算出部112および楽音信号算出部)として機能する。
なお、制御装置11における機能の一部を他の装置、例えばネットワークを介して接続されたサーバ装置に負担させる構成としてもよい。
FIG. 3 is a block diagram illustrating the functional configuration of the control device 11. As shown in FIG. The control device 11 executes a program stored in the storage device 12 to control a plurality of elements (processing control section 110, preprocessing section 111, musical instrument motion calculation section 112, and musical sound signal calculation section) for synthesizing a musical tone signal. ).
Note that a part of the functions of the control device 11 may be borne by another device, for example, a server device connected via a network.

次に、コンピューター10において楽音信号を合成するまでの手順について説明する。
図4は、楽音信号合成処理の手順を例示するフローチャートである。
Next, the procedure up to synthesizing the musical tone signal in the computer 10 will be explained.
FIG. 4 is a flow chart illustrating the procedure of tone signal synthesizing processing.

コンピューター10における処理制御部110は、前処理部111に対して次のステップS11からステップS14までの処理を実行させて、線形連成系Lcを表す一般粘性減衰系モデルのモーダルパラメータを決定する。なお、ステップS11からステップS14までの処理は、演奏情報に応じて楽音信号を算出する前に実行されるので、前処理と表現される。 The processing control unit 110 in the computer 10 causes the preprocessing unit 111 to execute the processing from step S11 to step S14 to determine the modal parameters of the general viscous damping system model representing the linear coupled system Lc. Note that the processing from step S11 to step S14 is referred to as preprocessing because it is executed before the musical tone signal is calculated according to the performance information.

まず、前処理部111は、本体Bdを構成する材料についての弾性係数およびヒステリシス減衰係数の三次元直交異方性を考慮した上で、本体Bdの三次元有限要素モデルを作成し、当該モデルの質量行列、減衰行列および剛性行列を算出する(ステップS11)。
前処理部111は、ステップS11により算出された質量行列および剛性行列をインプットとして、本体Bdの三次元有限要素モデルが真空中に存在する場合の、即ち空気が存在しない場合の、当該三次元有限要素モデルの実固有値および実固有モードを固有値解析により算出する(ステップS12)。
前処理部111は、ステップS11で算出した減衰行列およびステップS12で算出した実固有モードをインプットとして、当該本体Bdの三次元有限要素モデルが真空中に存在する場合のモード減衰行列を算出する(ステップS13)。
First, the preprocessing unit 111 creates a three-dimensional finite element model of the main body Bd after considering the three-dimensional orthogonal anisotropy of the elastic modulus and the hysteresis damping coefficient of the material constituting the main body Bd. A mass matrix, damping matrix and stiffness matrix are calculated (step S11).
The preprocessing unit 111 uses the mass matrix and the stiffness matrix calculated in step S11 as inputs to perform the three-dimensional finite element model of the main body Bd when the three-dimensional finite element model exists in a vacuum, that is, when air does not exist. Real eigenvalues and real eigenmodes of the element model are calculated by eigenvalue analysis (step S12).
The preprocessing unit 111 receives as input the damping matrix calculated in step S11 and the real eigenmode calculated in step S12, and calculates the modal damping matrix when the three-dimensional finite element model of the main body Bd exists in a vacuum ( step S13).

次に、前処理部111は、線形連成系Lcを一般粘性減衰系モデルとしてモデル化し、ステップS12で算出した実固有値および実固有モードと、ステップS13で算出したモード減衰行列とをインプットとして、当該一般粘性減衰系モデルのモーダルパラメータ(複素固有値および複素固有モード)を次のようにして同定する(ステップS14)。 Next, the preprocessing unit 111 models the linear coupled system Lc as a general viscous damping system model, inputs the real eigenvalues and real eigenmodes calculated in step S12, and the modal damping matrix calculated in step S13, Modal parameters (complex eigenvalues and complex eigenmodes) of the general viscous damping system model are identified as follows (step S14).

図5は、図4におけるステップS14の手順を詳細に例示するフローチャートである。
前処理部111は、ステップS13までの処理で算出した真空中本体の実固有値、実固有モード、モード減衰行列をインプットとして、当該線形連成系Lcの周波数応答を、例えば高速多重境界法(Fast Multipole Boundary Element Method)または有限要素法を用いて算出する(ステップS141)。
この解析で算出される周波数応答は、次の2種類であり、この2種類を区別する意味で周波数応答(a)および周波数応答(b)と表記する。2種類のうち、1つ目の周波数応答(a)は、入力、即ち「発音源Lpと線形連成系Lcとの界面における流量」のフーリエ変換で、出力、即ち「発音源Lpと線形連成系Lcとの界面における圧力」のフーリエ変換を割ったものである。
FIG. 5 is a flowchart illustrating in detail the procedure of step S14 in FIG.
The preprocessing unit 111 receives as inputs the real eigenvalues, real eigenmodes, and modal damping matrix of the body in vacuum calculated in the processes up to step S13, and calculates the frequency response of the linear coupled system Lc by, for example, a fast multiple boundary method (Fast Multipole Boundary Element Method) or the finite element method (step S141).
The frequency responses calculated in this analysis are of the following two types, and are denoted as frequency response (a) and frequency response (b) in the sense of distinguishing between the two types. Of the two types, the first frequency response (a) is the Fourier transform of the input, that is, the flow rate at the interface between the source Lp and the linear coupled system Lc, and the output, that is, the source Lp and the linear coupled system Lc. It is obtained by dividing the Fourier transform of "the pressure at the interface with the synthetic system Lc".

ここでは、加振点iの総数をm個、応答点lの総数をn個とする。応答点lの集合は、加振点iの集合を含んでいるものとする。
2種類の周波数応答のうち、2つ目の周波数応答(b)は、入力、即ち「発音源Lpと線形連成系Lcとの界面における流量」のフーリエ変換で、出力、即ち「空気中の任意観測点における音圧」のフーリエ変換を割ったものである。
Here, let the total number of excitation points i be m and the total number of response points 1 be n. Assume that the set of response points l includes the set of excitation points i.
Of the two types of frequency responses, the second frequency response (b) is the Fourier transform of the input, that is, the "flow rate at the interface between the source Lp and the linearly coupled system Lc", and the output, that is, the "flow in the air It is obtained by dividing the Fourier transform of "sound pressure at an arbitrary observation point".

前処理部111は、算出した周波数応答(a)の逆高速フーリエ変換(Inverse Fast Fourier Transform)をリファレンスとして、線形連成系Lcにおける複素固有値λ(=-σ+jωdr)を例えばESPRIT(Estimation of Signal Parameters via Rotational Invariance Techniques)により同定する(ステップS142)。なお、複素固有値の同定に際し、例えば上記m点における自己インパルス応答が参照される。また、複素固有値の同定についてはProny法を用いてもよいが、ESPRITに比べ同定精度が劣る傾向がある。 The preprocessing unit 111 calculates the complex eigenvalue λ r (=−σ r +jω dr ) in the linear coupled system Lc by using the calculated inverse fast Fourier transform of the frequency response (a) as a reference, for example, ESPRIT ( (Estimation of Signal Parameters via Rotational Invariance Techniques) (step S142). In identifying the complex eigenvalue, for example, the self-impulse response at the point m is referred to. For identification of complex eigenvalues, the Prony method may be used, but the identification accuracy tends to be inferior to that of ESPRIT.

前処理部111は、周波数応答(a)をリファレンスとして、線形連成系Lcの加振点iにおける複素固有モードを、非線形最適化法を用いて同定する(ステップS143)。非線形最適化法の例としては、BFGSアルゴリズム(Broyden Fletcher Goldfarb Shanno algorithm)を用いた(直線探索法を伴う)準ニュートン法、または、信頼領域法を伴う修正ガウスニュートン法(Levenberg-Marquardt法とも呼ばれる)が挙げられる。加振点iにおける複素固有モードの実部および虚部は、具体的には、後述する式(5)の右辺第1項におけるxriおよびyriで表される。なお、加振点iにおける複素固有モードの同定に際し、例えばm・(m+1)/2点における自己および相互周波数応答が参照される。 The preprocessing unit 111 uses the frequency response (a) as a reference to identify the complex eigenmode at the excitation point i of the linear coupled system Lc using the nonlinear optimization method (step S143). Examples of non-linear optimization methods are the quasi-Newton method (with line search method) using the BFGS algorithm (Broyden Fletcher Goldfarb Shanno algorithm), or the modified Gauss-Newton method with trust region method (also called Levenberg-Marquardt method). ). Specifically, the real part and imaginary part of the complex eigenmode at the excitation point i are represented by x ri and y ri in the first term on the right side of Equation (5) described later. In identifying the complex eigenmode at the excitation point i, the self and mutual frequency responses at, for example, m·(m+1)/2 points are referred to.

前処理部111は、周波数応答(a)をリファレンスとして、線形連成系Lcにおいて加振点i以外の応答点lにおける複素固有モードを、線形最適化法を用いて同定する(ステップS144)。線形最適化法の例としては、QR分解法、または、特異値分解法が挙げられる。応答点lにおける複素固有モードの実部および虚部は、具体的には、後述する式(5)の右辺第1項におけるxrlおよびyrlで表される。なお、応答点lにおける複素固有モードの同定に際し、例えばm・(n-m)点における相互周波数応答が参照される。
なお、線形連成系Lcの規模がそれほど大きくない場合、あるいは、固有モードを出力したい点がそれほど多くない場合は、ステップS141における周波数応答解析の計算コストがそれほど大きくならないため、n=mとしてもよい。この場合、ステップS144はスキップされる。
The preprocessing unit 111 uses the frequency response (a) as a reference to identify the complex eigenmode at the response point l other than the excitation point i in the linear coupled system Lc using the linear optimization method (step S144). Examples of linear optimization methods include the QR decomposition method or the singular value decomposition method. Specifically, the real part and imaginary part of the complex eigenmode at the response point l are represented by x rl and y rl in the first term on the right side of Equation (5) described later. In identifying the complex eigenmode at the response point l, for example, the mutual frequency response at the m·(nm) point is referred to.
Note that if the scale of the linear coupled system Lc is not so large, or if there are not so many points at which the eigenmodes are desired to be output, the calculation cost of the frequency response analysis in step S141 will not be so large. good. In this case, step S144 is skipped.

ステップS141~S144によって線形連成系を示す一般粘性減衰系モデルのモーダルパラメータ(複素固有値および複素固有モード)が同定されて、一次IIRのフィルタ係数が求められる。 Modal parameters (complex eigenvalues and complex eigenmodes) of a general viscous damping system model representing a linear coupled system are identified through steps S141 to S144, and first-order IIR filter coefficients are obtained.

同定について、次の式(4)および式(5)を参照して説明する。

Figure 2023062930000005
Figure 2023062930000006
Identification will be described with reference to the following equations (4) and (5).
Figure 2023062930000005
Figure 2023062930000006

同定とは、式(5)において左辺を、右辺第1項の 「モデルを用いて再合成した周波数応答」から右辺第2項の「リファレンスの周波数応答」を減じた残差、として表した場合に、式(4)の右辺で示されるように、当該残差の二乗和を最小とする値(実部、虚部)を求めることをいう。 Identification means that the left side of equation (5) is expressed as a residual obtained by subtracting the second term of the right side, the “frequency response of the reference”, from the first term of the right side, the “frequency response resynthesized using the model”. Secondly, as shown in the right side of the equation (4), the value (real part, imaginary part) that minimizes the sum of squares of the residuals is obtained.

前処理部111によって一般粘性減衰系モデルのモーダルパラメータが同定されると、演奏情報に応じて楽音信号を合成する準備が整ったことになる。このため、処理制御部110は、演奏情報出力装置13から演奏情報が出力されたとき、楽器運動算出部112に対してステップS15の処理を実行させ、この後、楽器運動算出部112に対してステップS16の処理を実行させる。 Once the modal parameters of the general viscous damping system model have been identified by the preprocessing unit 111, preparations for synthesizing tone signals according to performance information are complete. Therefore, when the performance information is output from the performance information output device 13, the processing control section 110 causes the musical instrument movement calculation section 112 to execute the processing of step S15, and then causes the musical instrument movement calculation section 112 to perform the processing of step S15. The process of step S16 is executed.

楽器運動算出部112は、演奏情報出力装置13から出力される演奏情報に基づいて、口腔内圧力(1)を示す第1情報、変位(2)を示す第2情報、流量(3)を示す第3情、および、圧力(4)を示す第4情報を算出する(ステップS15)。
なお、ステップS15における楽器運動算出のインプットとしては、「物理パラメータ」と「演奏情報」とがある。このうち、「物理パラメータ」は、「線形連成系Lcのモーダルパラメータ(複素固有値、複素固有モード)」を含んでいる。「物理パラメータ」にはこれ以外に、「唇(またはリード)の物理パラメータ」などがあるが、図4では省略する。
「演奏情報」は「鍵盤のセンシング」から得られるリアルタイムデータでも良いし、記録済みのMIDIデータでも良い。なお、MIDIデータとは、MIDI(Musical Instrument Digital Interface)規格に準拠して演奏情報をデータ化したものである。
また、口腔内圧力(1)を示す第1情報、変位(2)を示す第2情報、流量(3)を示す第3情、および、圧力(4)を示す第4情報の算出には、流体力学におけるエネルギー保存則、即ちベルヌイの定理を考慮した上で、特許文献1に記載された技術を用いることができる。具体的には、楽器運動算出部112は、発音源の変位と線形連成系におけるモード座標上の圧力を未知数とする連立非線形代数方程式を離散時間軸上で逐次、数値的に解くことによって求める。
Based on the performance information output from the performance information output device 13, the musical instrument motion calculator 112 provides first information indicating oral pressure (1), second information indicating displacement (2), and flow rate (3). The third information and the fourth information indicating the pressure (4) are calculated (step S15).
It should be noted that there are "physical parameters" and "performance information" as inputs for musical instrument movement calculation in step S15. Among these, the "physical parameters" include "modal parameters (complex eigenvalues, complex eigenmodes) of the linear coupled system Lc". "Physical parameters" include "physical parameters of lips (or reeds)" and the like, but they are omitted in FIG.
The 'performance information' may be real-time data obtained from 'keyboard sensing', or may be recorded MIDI data. Note that the MIDI data is data of performance information conforming to the MIDI (Musical Instrument Digital Interface) standard.
Further, in calculating the first information indicating the intraoral pressure (1), the second information indicating the displacement (2), the third information indicating the flow rate (3), and the fourth information indicating the pressure (4), The technique described in Patent Literature 1 can be used in consideration of the law of conservation of energy in fluid dynamics, that is, Bernoulli's theorem. Specifically, the musical instrument motion calculation unit 112 sequentially and numerically solves simultaneous nonlinear algebraic equations on the discrete time axis in which the displacement of the sound source and the pressure on the mode coordinates in the linear coupled system are unknown. .

楽音信号算出部113は、ステップS15で算出された流量(3)を示す第3情報と周波数応答(b)との高速畳み込み演算によって楽音信号を算出する(ステップS16)。 The musical tone signal calculator 113 calculates a musical tone signal by high-speed convolution of the third information indicating the flow rate (3) calculated in step S15 and the frequency response (b) (step S16).

本実施形態では、ステップS14において、一般粘性減衰系モデルのモーダルパラメータが同定されると、圧力(4)を示す第4情報の算出に必要な一次IIRの複素数のフィルタ係数が決定する。この係数を用いることで、ステップS15が、低コストで、精度良く、逐次、計算されるので、次のステップS16において必要な流量(3)を示す第3情報も、低コストで、精度良く、逐次、算出することができることになる。
したがって、本実施形態では、計算コストを低く抑えて、高品質でリアルな楽音信号を合成することが可能になる。
In this embodiment, when the modal parameters of the general viscous damping system model are identified in step S14, the complex number filter coefficients of the first-order IIR necessary for calculating the fourth information indicating the pressure (4) are determined. By using this coefficient, step S15 can be calculated sequentially at low cost and with high accuracy. It can be calculated sequentially.
Therefore, in the present embodiment, it is possible to synthesize high-quality and realistic musical tone signals while keeping the calculation cost low.

次に、本実施形態において一般粘性減衰系モデルにおいて同定されたモーダルパラメータが、どの程度までリファレンスに近づくか、について説明する。 Next, the extent to which the modal parameters identified in the general viscous damping system model in this embodiment approach the reference will be described.

図6乃至図8は、異なる3点(point 1~3)において、リファレンスとした周波数応答(実線)に対して、モード合成による周波数応答(○印)を示す図である。図6乃至図8では、周波数に対する位相および振幅の特性が左欄に、周波数に対する実部および虚部の特性が右欄に、それぞれ示される。
図6乃至図8に示されるように、リファレンスとした周波数応答に対して、モード合成による周波数応答が、ほぼ一致しており、高い精度で同定が成立していることが判る。
6 to 8 are diagrams showing frequency responses (marked with circles) by mode synthesis with respect to frequency responses (solid lines) used as a reference at three different points (points 1 to 3). 6 to 8, the phase and amplitude versus frequency characteristics are shown in the left column, and the real and imaginary part versus frequency characteristics are shown in the right column, respectively.
As shown in FIGS. 6 to 8, the frequency response obtained by mode synthesis almost matches the reference frequency response, and it can be seen that the identification is established with high accuracy.

図9乃至図11は、上記3点(point 1~3)において、リファレンスとした周波数応答のIFFTとしてのインパルス応答(実線)に対して、モード合成によるインパルス応答(○印)を示す図である。
図9乃至図11に示されるように、リファレンスとしたインパルス応答に対して、モード合成によるインパルス応答が、ほぼ一致しており、高い精度で同定が成立していることが判る。
9 to 11 are diagrams showing the impulse responses (marked with circles) by mode synthesis with respect to the impulse responses (solid lines) as IFFT of the reference frequency responses at the above three points (points 1 to 3). .
As shown in FIGS. 9 to 11, the impulse response obtained by mode synthesis almost matches the reference impulse response, and it can be seen that the identification is established with high accuracy.

<変形例>
以上に例示した実施形態は多様に変形され得る。実施形態に適用され得る具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を、相互に矛盾しない範囲で併合してもよい。
<Modification>
The embodiments illustrated above can be variously modified. Specific modification aspects that can be applied to the embodiments are exemplified below. Two or more aspects arbitrarily selected from the following examples may be combined as long as they do not contradict each other.

楽音信号を合成するコンピューター10の機能は、上述した通り、制御装置11を構成する単数または複数のプロセッサと、記憶装置12に記憶されたプログラムとの協働により実現される。
このプログラムは、コンピューター10が読取可能な記録媒体に格納された形態で提供されてコンピューターにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体または磁気記録媒体等の公知の任意の形式の記録媒体も包含される。なお、非一過性の記録媒体とは、一過性の伝搬信号(transitory, propagating signal)を除く任意の記録媒体を含み、揮発性の記録媒体も除外されない。また、配信装置が通信網を介してプログラムを配信する構成では、当該配信装置においてプログラムを記憶する記憶装置12が、前述の非一過性の記録媒体に相当する。
The function of the computer 10 for synthesizing musical tone signals is realized by cooperation between one or more processors constituting the control device 11 and programs stored in the storage device 12, as described above.
This program can be provided in a form stored in a recording medium readable by the computer 10 and installed in the computer. The recording medium is, for example, a non-transitory recording medium, and a good example is an optical recording medium (optical disc) such as a CD-ROM. Also included are recording media in the form of It should be noted that the non-transitory recording medium includes any recording medium other than transitory, propagating signals, and does not exclude volatile recording media. In addition, in a configuration in which a distribution device distributes a program via a communication network, the storage device 12 that stores the program in the distribution device corresponds to the above-described non-transitory recording medium.

上述したコンピューター10では、楽音信号を演奏情報出力装置13への演奏操作に応じてリアルタイムで合成したが、楽音信号の合成については非リアルタイムで合成する構成としてもよい。具体的には、実施形態のように物理モデルで合成した楽音信号をPCM(Pulse Code Modulation)でサンプリングして録音し、当該録音した信号を、演奏情報に応じて再生することで、楽音信号を合成する構成としてもよい。
従来のサンプリング録音では、アコースティック楽器の演奏やマイクの設置等のように多くの作業/工数が必要であったが、物理モデルで合成した楽音信号をPCMでサンプリングして録音する構成では、当該サンプリング録音の作業がコンピューター10での計算で済むので、作業の手間を大幅に削減することが可能になる。
また、従来のサンプリングでは、不要なノイズ(メカノイズ)も楽音とともに録音されてしまうので、後工程においてそれらのノイズを除去する必要になる。これに対して、物理モデルで合成した楽音信号をPCMでサンプリングして録音する構成では、不要なノイズを含まない楽音を録音することが可能になる。
In the computer 10 described above, musical tone signals are synthesized in real time according to the performance operation to the performance information output device 13, but the musical tone signals may be synthesized in non-real time. Specifically, as in the embodiment, a musical tone signal synthesized by a physical model is sampled and recorded by PCM (Pulse Code Modulation), and the recorded signal is played back according to performance information to reproduce the musical tone signal. It is good also as composition composition.
Conventional sampling recording requires a lot of work and man-hours, such as playing acoustic instruments and setting up microphones. Since the work of recording can be done by calculation on the computer 10, it is possible to greatly reduce the labor of the work.
Also, with conventional sampling, unnecessary noise (mechanical noise) is recorded along with the musical sound, so it is necessary to remove these noises in the post-processing. On the other hand, in a configuration in which musical tone signals synthesized by a physical model are sampled by PCM and recorded, it is possible to record musical tones that do not contain unnecessary noise.

楽音信号を合成する実質的な主体である制御装置11を、演奏情報を出力する演奏情報出力装置13や放音装置14とは別にして、クラウドに配置する構成としてもよい。詳細には、利用者が望む楽音の仕様を、クラウドに配置された制御装置11を含むコンピューターに送信し、当該コンピューターが上記仕様を満たす精緻な物理モデルを用いたシミュレーションにより楽音信号を合成し、当該利用者に提供する構成としてもよい。物理モデルを用いたシミュレーションにより楽音信号を合成する場合、マイクM(スピーカー)の位置が任意であることから、サービスの提供を受ける利用者の再生装置に合わせた楽音信号を合成することができる。例えば16チャンネルのスピーカ再生装置のような特殊な再生装置であっても、当該特殊な再生装置に合わせて楽音信号を合成することができる。
このように、利用者が望む仕様の楽音信号を、クラウドに配置されたコンピューターが合成する構成によれば、当該利用者の要求に応じてカスタマイズされや高音質の楽音信号を利用者に提供することが可能になる。
The control device 11, which is the substantial main body for synthesizing musical tone signals, may be arranged in a cloud separately from the performance information output device 13 and the sound emitting device 14, which output performance information. Specifically, the specifications of the musical tone desired by the user are transmitted to a computer including the control device 11 located in the cloud, and the computer synthesizes the musical tone signal by simulation using an elaborate physical model that satisfies the above specifications, It may be configured to be provided to the user. When synthesizing a musical tone signal by simulation using a physical model, since the position of the microphone M (speaker) is arbitrary, it is possible to synthesize a musical tone signal that matches the playback device of the user receiving the service. For example, even with a special reproduction device such as a 16-channel speaker reproduction device, it is possible to synthesize musical tone signals in accordance with the special reproduction device.
In this way, according to the configuration in which the computer arranged in the cloud synthesizes the musical tone signal of the specification desired by the user, the musical tone signal customized according to the user's request is provided to the user. becomes possible.

物理モデルを用いたシミュレーションによる楽音信号の合成を、アコースティック楽器の設計支援に用いてもよい。具体的には、物理モデルの設計を変更し、変更した物理モデルを用いて楽音信号を合成することにより、試作前の楽器の楽音をシミュレーションにより聴くことができる。したがって、例えば新規な楽器を効率良く開発することができる。 このように、物理モデルを用いたシミュレーションにより楽音信号を合成すれば、アコースティック楽器の仕様(原因)と発生楽音(結果)との因果関係が明確化されるので、楽器の設計効率を向上させることが可能になる。
また、アコースティック楽器の製造時には、材料や製造のバラツキなど、様々な誤差因子が含まれ得る。これに対して、物理モデルを用いたシミュレーションでは、上記誤差因子を排除することができる。
Synthesis of musical sound signals by simulation using a physical model may be used to support the design of acoustic musical instruments. Specifically, by changing the design of the physical model and synthesizing the musical sound signal using the changed physical model, the musical sound of the pre-prototype musical instrument can be listened to through simulation. Therefore, for example, new musical instruments can be efficiently developed. Synthesizing a musical sound signal by simulation using a physical model in this way clarifies the causal relationship between the specifications (cause) of the acoustic musical instrument and the generated musical sound (result), thereby improving the design efficiency of the musical instrument. becomes possible.
Also, various error factors can be involved in manufacturing an acoustic instrument, such as variations in materials and manufacturing. On the other hand, a simulation using a physical model can eliminate the above error factors.

<付記>
以上の記載から、例えば以下のように本発明の好適な態様が把握される。なお、各態様の理解を容易にするために、以下では、図面の符号を便宜的に括弧書で併記するが、本発明を図示の態様に限定する趣旨ではない。
<Appendix>
From the above description, for example, the following preferred embodiments of the present invention are understood. In order to facilitate understanding of each aspect, hereinafter, reference numerals in the drawings are written together in parentheses for the sake of convenience, but this is not intended to limit the present invention to the illustrated aspects.

本開示のひとつの態様(態様1)に係る楽音信号合成方法は、発音源(Lp)と空気(Ar)とが相互に作用し、空気(Ar)と本体(Bd)とが相互に作用する場合に、コンピューター(10)が、演奏情報に応じて、空気(Ar)中における任意の観測点(Mc)での音圧を示す楽音信号を合成する楽音信号合成方法であって、コンピューター(10)が、演奏情報に応じて、口腔(Oc)が発音源(Lp)に及ぼす圧力を示す第1情報と、発音源(Lp)の変位を示す第2情報と、発音源(Lp)が空気(Ar)と本体(Bd)とから成る線形連成系(Lc)に及ぼす流量を示す第3情報と、線形連成系(Lc)が発音源(Lp)に及ぼす圧力を示す第4情報と、を算出する楽器運動算出過程(ステップS15)と、コンピューター(10)が、第3情報に基づいて観測点(Mc)における音圧を算出する楽音信号算出過程(ステップS16)と、を含み、線形連成系(Lc)は、一般粘性減衰系モデルで表現され、当該一般粘性減衰系モデルのモーダルパラメータである複素固有値および複素固有モードは、線形連成系(Lc)の周波数応答あるいは周波数応答の逆フーリエ変換をリファレンスとして同定され、第4情報は、複素固有値および複素固有モードを用いて算出される。
この態様1によれば、線形連成系(Lc)の時間領域シミュレーションにモード合成法を適用できるため、高品質でリアルな楽音信号を、計算コストを低く抑えて合成することができる。
In the musical sound signal synthesizing method according to one aspect (aspect 1) of the present disclosure, the sound source (Lp) and the air (Ar) interact, and the air (Ar) and the main body (Bd) interact. a musical sound signal synthesizing method in which a computer (10) synthesizes a musical sound signal indicating a sound pressure at an arbitrary observation point (Mc) in air (Ar) according to performance information, the computer (10 ) according to the performance information, the first information indicating the pressure exerted by the oral cavity (Oc) on the sound source (Lp), the second information indicating the displacement of the sound source (Lp), and the sound source (Lp) being air Third information indicating the flow rate acting on the linear coupled system (Lc) consisting of (Ar) and the body (Bd), and fourth information indicating the pressure exerted by the linear coupled system (Lc) on the source (Lp) and a musical sound signal calculation process (step S16) in which the computer (10) calculates the sound pressure at the observation point (Mc) based on the third information, The linear coupled system (Lc) is represented by a general viscous damping system model, and the complex eigenvalues and complex eigenmodes, which are the modal parameters of the general viscous damping system model, are the frequency response or frequency response of the linear coupled system (Lc). is identified as a reference, and the fourth information is calculated using the complex eigenvalues and complex eigenmodes.
According to this aspect 1, since the mode synthesis method can be applied to the time domain simulation of the linear coupled system (Lc), it is possible to synthesize high-quality and realistic musical tone signals while keeping the calculation cost low.

態様1の具体例(態様2)において、変位(2)を、当該変位の時間に関する導関数で置き換えたものとする。この態様2おいても、高品質でリアルな楽音信号を、計算コストを低く抑えて合成することができる。 In the specific example of aspect 1 (aspect 2), the displacement (2) should be replaced by the derivative of the displacement with respect to time. Also in mode 2, high-quality and realistic musical tone signals can be synthesized at a low calculation cost.

態様1または態様2の具体例(態様3)において、モーダルパラメータの同定は、コンピューター(10)が演算の前処理として実行する。この態様3によれば、楽音信号算出過程(ステップS16)を実行する際の計算コストを低く抑えることができる。 In a specific example of Aspect 1 or Aspect 2 (Aspect 3), the identification of modal parameters is performed by the computer (10) as preprocessing for calculation. According to mode 3, it is possible to keep the calculation cost low when executing the musical tone signal calculation process (step S16).

態様1乃至3のいずれの具体例(態様4)において、モーダルパラメータの同定は、コンピューター(10)が、線形連成系(Lc)の周波数応答を算出する第1過程と、コンピューター(10)が、周波数応答の逆フーリエ変換をリファレンスとして、複素固有値を同定する第2過程と、コンピューター(10)が、周波数応答をリファレンスとして、線形連成系(Lc)における加振点の複素固有モードを同定する第3過程と、を含む。
この態様4によれば、複素固有値の同定と複素固有モードの同定とが同時ではなく、分離して実行される。したがって、加振点を多数として、本体と空気との連成系への適用が容易となる。
In any specific example of Aspects 1 to 3 (Aspect 4), the identification of the modal parameters includes a first step in which the computer (10) calculates the frequency response of the linear coupled system (Lc), and a computer (10) , a second step of identifying complex eigenvalues using the inverse Fourier transform of the frequency response as a reference, and a computer (10) using the frequency response as a reference to identify the complex eigenmode of the excitation point in the linear coupled system (Lc) and a third step of performing.
According to aspect 4, the identification of complex eigenvalues and the identification of complex eigenmodes are performed separately rather than simultaneously. Therefore, it can be easily applied to a coupled system of the main body and air by increasing the number of excitation points.

態様4の具体例(態様5)において、第3過程の後に、コンピューター(10)が、周波数応答をリファレンスとして、線形連成系(Lc)における加振点とは異なる応答点の複素固有モードを同定する第4過程とを含む。
この態様5によれば、複素固有値の同定と複素固有モードの同定とが同時ではなく、分離して実行される。したがって、加振点および応答点を多数として、本体と空気との連成系への適用が容易となる。
In the specific example of aspect 4 (aspect 5), after the third process, the computer (10) uses the frequency response as a reference to generate a complex eigenmode of a response point different from the excitation point in the linear coupled system (Lc) and a fourth step of identifying.
According to aspect 5, the identification of complex eigenvalues and the identification of complex eigenmodes are performed separately rather than simultaneously. Therefore, it can be easily applied to a coupled system of the main body and air by providing a large number of excitation points and response points.

また、態様1に係る楽音信号合成方法は、次のようなプログラムとして把握することが可能である。すなわち、態様6に係るプログラムは、発音源(Lp)と空気(Ar)とが相互に作用し、空気(Ar)と本体(Bd)とが相互に作用する場合に、コンピューター(10)に、演奏情報に応じて、空気中における任意の観測点(Mc)での音圧を示す楽音信号を合成させるプログラムであって、コンピューター(10)に、演奏情報に応じて、口腔(Oc)が発音源(Lp)に及ぼす圧力を示す第1情報と、発音源(Lp)の変位を示す第2情報と、発音源(Lp)が空気(Ar)と本体(Bd)とから成る線形連成系(Lc)に及ぼす流量を示す第3情報と、線形連成系(Lc)が発音源(Lp)に及ぼす圧力を示す第4情報と、を算出する楽器運動算出部(112)、および、第3情報に基づいて観測点(Mc)における音圧を算出する楽音信号算出部(113)、として機能させ、線形連成系(Lc)は、一般粘性減衰系モデルで表現され、当該一般粘性減衰系モデルのモーダルパラメータである複素固有値および複素固有モードは、線形連成系(Lc)の周波数応答あるいは周波数応答の逆フーリエ変換をリファレンスとして同定され、第4情報は、複素固有値および複素固有モードを用いて算出される。 Also, the musical tone signal synthesizing method according to aspect 1 can be grasped as the following program. That is, the program according to aspect 6 causes the computer (10) to A program for synthesizing a musical sound signal indicating the sound pressure at an arbitrary observation point (Mc) in the air in accordance with performance information, wherein a computer (10) instructs a computer (10) to produce sound from an oral cavity (Oc) in accordance with performance information. A first information indicating the pressure exerted on the source (Lp), a second information indicating the displacement of the source (Lp), and a linearly coupled system in which the source (Lp) consists of air (Ar) and body (Bd). a musical instrument motion calculator (112) for calculating third information indicating the flow rate exerted on (Lc) and fourth information indicating the pressure exerted by the linear coupled system (Lc) on the sound source (Lp); 3 functions as a musical sound signal calculator (113) for calculating the sound pressure at the observation point (Mc) based on the information, and the linear coupled system (Lc) is represented by a general viscous damping system model, and the general viscous damping The complex eigenvalues and complex eigenmodes, which are the modal parameters of the system model, are identified with reference to the frequency response of the linear coupled system (Lc) or the inverse Fourier transform of the frequency response, and the fourth information is the complex eigenvalues and complex eigenmodes. calculated using

なお、態様1に係る楽音信号合成方法は、次のような楽音信号合成装置として把握することが可能である。すなわち、態様7に係る楽音信号合成装置は、発音源(Lp)と空気(Ar)とが相互に作用し、空気(Ar)と本体(Bd)とが相互に作用する場合に、コンピューター(10)が、演奏情報に応じて、空気中における任意の観測点(Mc)での音圧を示す楽音信号を合成する楽音信号合成装置であって、演奏情報に応じて、口腔
(Oc)が発音源(Lp)に及ぼす圧力を示す第1情報と、発音源(Lp)の変位を示す第2情報と、発音源(Lp)が空気(Ar)と本体(Bd)とから成る線形連成系(Lc)に及ぼす流量を示す第3情報と、線形連成系(Lc)が発音源(Lp)に及ぼす圧力を示す第4情報と、を算出する楽器運動算出部(112)と、コンピューター(10)が、第3情報に基づいて観測点(Mc)における音圧を算出する楽音信号算出部(113)と、を含み、線形連成系(Lc)は、一般粘性減衰系モデルで表現され、当該一般粘性減衰系モデルのモーダルパラメータである複素固有値および複素固有モードは、線形連成系(Lc)の周波数応答あるいは周波数応答の逆フーリエ変換をリファレンスとして同定され、第4情報は、複素固有値および複素固有モードを用いて算出される。
It should be noted that the musical tone signal synthesizing method according to aspect 1 can be understood as a musical tone signal synthesizing apparatus as follows. That is, in the musical sound signal synthesizer according to aspect 7, the computer (10 ) is a musical sound signal synthesizing device for synthesizing a musical sound signal indicating the sound pressure at an arbitrary observation point (Mc) in the air according to performance information, and the oral cavity (Oc) produces a sound according to the performance information. A first information indicating the pressure exerted on the source (Lp), a second information indicating the displacement of the source (Lp), and a linearly coupled system in which the source (Lp) consists of air (Ar) and body (Bd). (Lc) and the fourth information indicating the pressure exerted by the linear coupled system (Lc) on the sound source (Lp); a computer ( 10) includes a musical sound signal calculator (113) for calculating the sound pressure at the observation point (Mc) based on the third information, and the linear coupled system (Lc) is represented by a general viscous damping system model. , the complex eigenvalues and complex eigenmodes, which are the modal parameters of the general viscous damping system model, are identified with reference to the frequency response of the linear coupled system (Lc) or the inverse Fourier transform of the frequency response, and the fourth information is the complex eigenvalues and complex eigenmodes.

10…コンピューター、11…制御装置、12…記憶装置、13…演奏情報出力装置、14…放音装置、110…処理制御部、111…前処理部、112…楽器運動算出部、113…楽音信号算出部、Oc…口腔、Lp…発音源(唇またはリード)、Bd…本体、Ar…空気、Lc…線形連成系。 DESCRIPTION OF SYMBOLS 10... Computer 11... Control device 12... Storage device 13... Performance information output device 14... Sound emission device 110... Processing control part 111... Pre-processing part 112... Musical instrument motion calculation part 113... Musical sound signal Calculation part, Oc... oral cavity, Lp... source of sound (lip or reed), Bd... main body, Ar... air, Lc... linear coupled system.

Claims (7)

発音源と空気とが相互に作用し、前記空気と本体とが相互に作用する場合に、
コンピューターが、
演奏情報に応じて、前記空気中における任意の観測点での音圧を示す楽音信号を合成する楽音信号合成方法であって、
前記コンピューターが、前記演奏情報に応じて、
口腔が前記発音源に及ぼす圧力を示す第1情報と、
前記発音源の変位を示す第2情報と、
前記発音源が前記空気と前記本体とから成る線形連成系に及ぼす流量を示す第3情報と、
前記線形連成系が前記発音源に及ぼす圧力を示す第4情報と、
を算出する楽器運動算出過程と、
前記コンピューターが、前記第3情報に基づいて前記観測点における音圧を算出する楽音信号算出過程と、
を含み、
前記線形連成系は、一般粘性減衰系モデルで表現され、
当該一般粘性減衰系モデルのモーダルパラメータである複素固有値および複素固有モードは、前記線形連成系の周波数応答あるいは周波数応答の逆フーリエ変換をリファレンスとして同定され、
前記第4情報は、前記複素固有値および前記複素固有モードを用いて算出される
楽音信号合成方法。
When the source and the air interact, and the air and the body interact,
the computer
A musical sound signal synthesizing method for synthesizing a musical sound signal indicating a sound pressure at an arbitrary observation point in the air according to performance information,
According to the performance information, the computer
first information indicating the pressure exerted by the oral cavity on the sound source;
second information indicating the displacement of the sound source;
third information indicating the flow rate of the sound source to a linearly coupled system composed of the air and the body;
fourth information indicating the pressure exerted by the linear coupled system on the sound source;
a musical instrument motion calculation process for calculating
a musical sound signal calculation process in which the computer calculates the sound pressure at the observation point based on the third information;
including
The linear coupled system is represented by a general viscous damping system model,
The complex eigenvalues and complex eigenmodes, which are modal parameters of the general viscous damping system model, are identified with reference to the frequency response of the linear coupled system or the inverse Fourier transform of the frequency response,
The fourth information is calculated using the complex eigenvalue and the complex eigenmode.
前記変位を、当該変位の時間に関する導関数で置き換えた
請求項1に記載の楽音信号合成方法。
2. The method of synthesizing a musical tone signal according to claim 1, wherein said displacement is replaced by a derivative with respect to time of said displacement.
前記モーダルパラメータの同定は、
前記コンピューターが演算の前処理として実行する
請求項1または2に記載の楽音信号合成方法。
The identification of the modal parameters includes:
3. The method of synthesizing a musical tone signal according to claim 1, wherein said computer executes preprocessing for calculation.
前記モーダルパラメータの同定は、
前記コンピューターが、前記線形連成系の周波数応答を算出する第1過程と、
前記コンピューターが、前記周波数応答の逆フーリエ変換をリファレンスとして、前記複素固有値を同定する第2過程と、
前記コンピューターが、前記周波数応答をリファレンスとして、前記線形連成系における加振点の複素固有モードを同定する第3過程と、
を含む請求項1乃至3のいずれかに記載の楽音信号合成方法。
The identification of the modal parameters includes:
a first step in which the computer calculates a frequency response of the linear coupled system;
a second step in which the computer identifies the complex eigenvalues using the inverse Fourier transform of the frequency response as a reference;
a third step in which the computer identifies a complex eigenmode of the excitation point in the linearly coupled system using the frequency response as a reference;
4. The musical tone signal synthesizing method according to any one of claims 1 to 3, comprising:
前記第3過程の後に、
前記コンピューターが、前記周波数応答をリファレンスとして、前記線形連成系における前記加振点とは異なる応答点の複素固有モードを同定する第4過程と、
を含む請求項4に記載の楽音信号合成方法。
After the third step,
a fourth step in which the computer identifies a complex eigenmode at a response point different from the excitation point in the linear coupled system, using the frequency response as a reference;
5. The musical tone signal synthesizing method according to claim 4, comprising:
発音源と空気とが相互に作用し、前記空気と本体とが相互に作用する場合に、
コンピューターが、
演奏情報に応じて、前記空気中における任意の観測点での音圧を示す楽音信号を合成するプログラムであって、
前記コンピューターが、前記演奏情報に応じて、
口腔が前記発音源に及ぼす圧力を示す第1情報と、
前記発音源の変位を示す第2情報と、
前記発音源が前記空気と前記本体とから成る線形連成系に及ぼす流量を示す第3情報と、
前記線形連成系が前記発音源に及ぼす圧力を示す第4情報と、
を算出する楽器運動算出過程と、
前記コンピューターが、前記第3情報に基づいて前記観測点における音圧を算出する楽音信号算出過程と、
を含み、
前記線形連成系は、一般粘性減衰系モデルで表現され、
当該一般粘性減衰系モデルのモーダルパラメータである複素固有値および複素固有モードは、前記線形連成系の周波数応答あるいは周波数応答の逆フーリエ変換をリファレンスとして同定され、
前記第4情報は、前記複素固有値および前記複素固有モードを用いて算出される
プログラム。
When the source and the air interact, and the air and the body interact,
the computer
A program for synthesizing a musical sound signal indicating sound pressure at an arbitrary observation point in the air according to performance information,
According to the performance information, the computer
first information indicating the pressure exerted by the oral cavity on the sound source;
second information indicating the displacement of the sound source;
third information indicating the flow rate of the sound source to a linearly coupled system composed of the air and the body;
fourth information indicating the pressure exerted by the linear coupled system on the sound source;
a musical instrument motion calculation process for calculating
a musical sound signal calculation process in which the computer calculates the sound pressure at the observation point based on the third information;
including
The linear coupled system is represented by a general viscous damping system model,
The complex eigenvalues and complex eigenmodes, which are modal parameters of the general viscous damping system model, are identified with reference to the frequency response of the linear coupled system or the inverse Fourier transform of the frequency response,
The program, wherein the fourth information is calculated using the complex eigenvalue and the complex eigenmode.
発音源と空気とが相互に作用し、前記空気と本体とが相互に作用する場合に、
コンピューターが、
演奏情報に応じて、前記空気中における任意の観測点での音圧を示す楽音信号を合成する楽音信号合成装置であって、
前記コンピューターが、前記演奏情報に応じて、
口腔が前記発音源に及ぼす圧力を示す第1情報と、
前記発音源の変位を示す第2情報と、
前記発音源が前記空気と前記本体とから成る線形連成系に及ぼす流量を示す第3情報と、
前記線形連成系が前記発音源に及ぼす圧力を示す第4情報と、
を算出する楽器運動算出過程と、
前記コンピューターが、前記第3情報に基づいて前記観測点における音圧を算出する楽音信号算出過程と、
を含み、
前記線形連成系は、一般粘性減衰系モデルで表現され、
当該一般粘性減衰系モデルのモーダルパラメータである複素固有値および複素固有モードは、前記線形連成系の周波数応答あるいは周波数応答の逆フーリエ変換をリファレンスとして同定され、
前記第4情報は、前記複素固有値および前記複素固有モードを用いて算出される
楽音信号合成装置。
When the source and the air interact, and the air and the body interact,
the computer
A musical sound signal synthesizing device for synthesizing a musical sound signal indicating sound pressure at an arbitrary observation point in the air according to performance information,
According to the performance information, the computer
first information indicating the pressure exerted by the oral cavity on the sound source;
second information indicating the displacement of the sound source;
third information indicating the flow rate of the sound source to a linearly coupled system composed of the air and the body;
fourth information indicating the pressure exerted by the linear coupled system on the sound source;
a musical instrument motion calculation process for calculating
a musical sound signal calculation process in which the computer calculates the sound pressure at the observation point based on the third information;
including
The linear coupled system is represented by a general viscous damping system model,
The complex eigenvalues and complex eigenmodes, which are modal parameters of the general viscous damping system model, are identified with reference to the frequency response of the linear coupled system or the inverse Fourier transform of the frequency response,
The fourth information is calculated using the complex eigenvalue and the complex eigenmode. A musical sound signal synthesizing device.
JP2021173119A 2021-10-22 2021-10-22 Method for synthesizing musical sound signal, musical sound signal synthesis device, and program Pending JP2023062930A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021173119A JP2023062930A (en) 2021-10-22 2021-10-22 Method for synthesizing musical sound signal, musical sound signal synthesis device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021173119A JP2023062930A (en) 2021-10-22 2021-10-22 Method for synthesizing musical sound signal, musical sound signal synthesis device, and program

Publications (1)

Publication Number Publication Date
JP2023062930A true JP2023062930A (en) 2023-05-09

Family

ID=86270466

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021173119A Pending JP2023062930A (en) 2021-10-22 2021-10-22 Method for synthesizing musical sound signal, musical sound signal synthesis device, and program

Country Status (1)

Country Link
JP (1) JP2023062930A (en)

Similar Documents

Publication Publication Date Title
US8809663B2 (en) Synthetic simulation of a media recording
US6542857B1 (en) System and method for characterizing synthesizing and/or canceling out acoustic signals from inanimate sound sources
JP5261385B2 (en) A device for generating a signal representing the sound of a keyboard string instrument
EP2602787B1 (en) Signal processing device
JP2007193129A (en) Resonance sound image generation device and storage medium
JP5810574B2 (en) Music synthesizer
Bank et al. Model-based digital pianos: from physics to sound synthesis
Holm Virtual violin in the digital domain: physical modeling and model-based sound synthesis of violin and its interactive application in virtual environment
Smyth et al. Toward an estimation of the clarinet reed pulse from instrument performance
WO2020158891A1 (en) Sound signal synthesis method and neural network training method
Bensa et al. A hybrid resynthesis model for hammer-string interaction of piano tones
JP2023062930A (en) Method for synthesizing musical sound signal, musical sound signal synthesis device, and program
US7534953B2 (en) Method for simulation and digital synthesis of an oscillating phenomenon
JP2023140426A (en) Musical sound signal generation method, musical sound signal generation device and program
JP2023062914A (en) Method for synthesizing musical sound signal, musical sound signal synthesis device, and program
JP2023143837A (en) Musical sound signal synthesis method, musical sound signal synthesizer and program
JP5332296B2 (en) Music synthesizer and program
Scherrer Physically-informed indirect acquisition of instrumental gestures on the classical guitar: Extracting the angle of release
Penttinen Loudness and timbre issues in plucked stringed instruments: analysis, synthesis, and design
SHI Extending the Sound of the Guzheng
JP2841847B2 (en) Music synthesizer
Campbell et al. Shocks and Surprises: Refining the Elementary Model
JP2017032651A (en) Music signal processing device, music reproduction device, and electronic musical instrument
Buys Development and Evaluation of a Hybrid Wind Instrument
JP2824555B2 (en) Sound pressure estimation device