WO2019175977A1 - 評価装置 - Google Patents

評価装置 Download PDF

Info

Publication number
WO2019175977A1
WO2019175977A1 PCT/JP2018/009774 JP2018009774W WO2019175977A1 WO 2019175977 A1 WO2019175977 A1 WO 2019175977A1 JP 2018009774 W JP2018009774 W JP 2018009774W WO 2019175977 A1 WO2019175977 A1 WO 2019175977A1
Authority
WO
WIPO (PCT)
Prior art keywords
evaluation
time
sound
degree
interval
Prior art date
Application number
PCT/JP2018/009774
Other languages
English (en)
French (fr)
Inventor
松本 秀一
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Priority to PCT/JP2018/009774 priority Critical patent/WO2019175977A1/ja
Publication of WO2019175977A1 publication Critical patent/WO2019175977A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music

Definitions

  • the present invention relates to an evaluation apparatus and method for evaluating sound.
  • Patent Document 1 discloses a technique for calculating an evaluation result of an input sound by comparing a feature of a reference sound signal with a feature extracted from an input sound signal based on an actual performance sound. ing.
  • One of the objects of the present invention is to provide an evaluation apparatus and an evaluation method capable of evaluating a performance sound based on the degree of nonconsonance.
  • An evaluation apparatus includes a data acquisition unit that acquires control data indicating the content of pronunciation, a sound that is sounding at the time of evaluation based on the control data, and the sound that is sounding An evaluation unit that calculates a degree of nonconsonance at the time of the evaluation based on an interval between each other.
  • the evaluation unit may calculate the degree of dissonance based further on the volume of each of the sounds that are pronounced at the time of the evaluation.
  • the volume may be based on a velocity at the start of sound generation and an elapsed time from the start of sound generation to the evaluation time.
  • the evaluation unit may calculate the degree of dissonance based further on a pedal position from the sounding start time to the evaluation time.
  • the evaluation unit may increase the degree of dissonance when the pitch of the sounding sound is equal to or lower than a predetermined threshold value.
  • the evaluation apparatus may further include a display unit that displays the calculated degree of dissonance.
  • the sound evaluation method obtains control data indicating the content of pronunciation, specifies the sound that is sounding at the time of evaluation based on the control data, and Calculating a degree of dissonance at the time of the evaluation based on the interval.
  • the calculation of the degree of nonconsonance at the time of evaluation is based on the interval between the sounding sounds and the volume of each sounding sound at the time of evaluation. Calculating.
  • the volume may be based on a velocity at the start of sound generation and an elapsed time from the start of sound generation to the evaluation time.
  • a program acquires control data indicating the content of pronunciation in a computer, specifies a sound that is pronounced at the time of evaluation based on the control data, and Calculating the degree of nonconsonance at the time of the evaluation based on the interval.
  • FIG. 1 is a block diagram showing a hardware configuration of an evaluation apparatus according to an embodiment of the present invention.
  • the evaluation apparatus 10 is an apparatus including a computer that realizes an evaluation function by executing an application program.
  • the evaluation device 10 includes a control unit 11, a storage unit 13, an operation unit 15, a display unit 17, and a communication unit 19. These components are connected via a bus 21.
  • the control unit 11 includes an arithmetic processing circuit such as a CPU.
  • the control unit 11 causes the CPU to execute the control program 13a stored in the storage unit 13 and implements various functions in the evaluation apparatus 10.
  • Various functions include an evaluation function described below.
  • the storage unit 13 is a storage device such as a nonvolatile memory or a hard disk.
  • the storage unit 13 stores a control program 13a for realizing the evaluation function, interval non-cooperating degree data 13b indicating a non-cooperating degree between two predetermined sounds, and attenuation coefficient data 13c indicating an attenuation coefficient for each pitch.
  • the control program 13a, interval non-conformity data 13b, and attenuation coefficient data 13c are provided in a state of being stored in a computer-readable recording medium such as a magnetic recording medium, an optical recording medium, a magneto-optical recording medium, or a semiconductor memory.
  • the evaluation device 10 only needs to include a device that reads the recording medium.
  • the control program 13a, the interval nonconformity data 13b, and the attenuation coefficient data 13c may be executed by a computer and may be downloaded via a network.
  • the operation unit 15 is a device to which an operation by a user is input, such as a touch sensor, and outputs a signal corresponding to the input operation to the control unit 11.
  • the operation unit 15 can input various operations required for the evaluation function, such as selection of the type of musical instrument to be evaluated.
  • the display unit 17 is a display device such as a liquid crystal display or an organic EL display, and displays a screen based on control by the control unit 11.
  • the communication unit 19 is connected to a communication line such as the Internet and transmits / receives information to / from an external device.
  • the functions of the storage unit 13 described above may be realized by an external device that can communicate with the communication unit 19.
  • the communication unit 19 is connected to the electronic musical instrument 23.
  • the electronic musical instrument 23 is a musical instrument in which a sound source generates a sound signal in response to an operation on an operator, for example.
  • the electronic musical instrument 23 may be an electronic piano, for example. In the present embodiment, an example in which the electronic musical instrument 23 is an electronic piano will be described.
  • the electronic musical instrument 23, which is an electronic piano, provides control data indicating the content of pronunciation using a key (operator) to the control unit 11 via the communication unit 19.
  • evaluation function An evaluation function realized by the control unit 11 of the evaluation apparatus 10 executing the control program 13a will be described. A part or all of the configuration for realizing the evaluation function described below may be realized by hardware.
  • FIG. 2 is a block diagram showing the configuration of the evaluation function in one embodiment of the present invention.
  • FIG. 3 is a flowchart showing processing by the evaluation function 100.
  • the evaluation function 100 is realized by each configuration of the data acquisition unit 101 and the evaluation unit 103.
  • the data acquisition unit 101 acquires control data indicating the pronunciation content (S1).
  • This control data is data indicating the sound generation content of the electronic musical instrument 23 for each sound, which is transmitted from the electronic musical instrument 23 to the evaluation apparatus 10 via the communication unit 19.
  • the control data is MIDI format sequence data, and includes a note number, velocity, note-on signal, note-off signal, pedal operation information, and the like.
  • the data acquisition unit 101 outputs the acquired control data to the evaluation unit 103.
  • the evaluation unit 103 acquires control data from the data acquisition unit 101. Based on the acquired control data, the evaluation unit 103 identifies a sound that is pronounced at a certain time point (hereinafter referred to as an evaluation time point), and based on an interval (frequency) between sounds that are sounded at the evaluation time point.
  • the degree of dissonance at the time of the evaluation is calculated (S2).
  • the evaluation time point is a predetermined time point during performance using the electronic musical instrument 23.
  • the evaluation time points may be set in advance at predetermined intervals during the performance. Further, the evaluation time point may be set by the user of the evaluation device 10 via the operation unit 15.
  • a method for calculating the degree of nonconsonance at the time of evaluation by the evaluation unit 103 will be described in detail with reference to FIGS.
  • FIG. 4 is a flowchart showing a flow of processing for calculating the degree of nonconsonance at a predetermined evaluation time point executed by the evaluation unit 103.
  • the evaluation unit 103 Based on the control data, the evaluation unit 103 identifies a sound that is sounded at a predetermined evaluation time (S4-1). The evaluation unit 103 can specify a sound that is sounded at a predetermined evaluation point based on the note number and note-on signal included in the control data.
  • FIG. 5 is a diagram for explaining the sound that is pronounced during the performance.
  • note-on, note-off, and sound generation periods of each note included in the control data are shown in time series.
  • the evaluation unit 103 specifies the sound that is sounded at t1 based on the control data. More specifically, the evaluation unit 103 identifies the sound that is sounded at t1 based on the note-on signal and the note number included in the control data.
  • the notes that are sounded at t ⁇ b> 1 are note numbers 60 and 64.
  • the evaluation unit 103 calculates the degree of nonconsonance at a predetermined evaluation point. First, the evaluator 103 identifies the interval dissonance for each sound that is sounded at the predetermined time (S4-2). The interval non-cooperating degree indicates the non-cooperating degree determined based on the interval between sounds that are pronounced at the time of evaluation.
  • the evaluation unit determines the interval nonconsonance between the sounds produced at t1 with reference to the two or more sounds that are pronounced. Identify. That is, the evaluation unit 103 determines the interval dissonance of the sound corresponding to the note number 64 based on the sound corresponding to the note number 60 and the sound corresponding to the note number 60 based on the sound corresponding to the note number 64. Identify the interval disjointness.
  • the evaluation unit 103 refers to the interval non-consonance degree data 13b stored in the storage unit 13 and specifies the interval non-consonance degree between the sounds produced at t1.
  • the interval non-cooperating degree data 13b is data indicating the interval non-cooperating degree of other sounds with respect to the reference sound.
  • FIG. 6A is a diagram illustrating an example of the interval non-conformity.
  • FIG. 6A shows the interval dissonance of each sound with respect to C3 when C3 is used as a reference.
  • the evaluation unit 103 uses the interval non-cooperating degree data 13b indicating the interval non-cooperating degree of other sounds having C3 as a reference sound as shown in FIG.
  • the interval non-cooperating degree of E3 which is the sound corresponding to the note number 64 for is specified. Referring to FIG. 6A, the interval non-cooperating degree of E3 with respect to C3 is 1.
  • FIG. 6B is a diagram illustrating an example of the interval non-conformity.
  • FIG. 6B shows the interval dissonance of each sound with respect to E3 when E3 is used as a reference.
  • the evaluation unit 103 uses the interval non-cooperating degree data 13b indicating the interval non-cooperating degree of other sounds having E3 as the reference sound as shown in FIG.
  • the interval non-cooperating degree of C3 which is the sound corresponding to the note number 60 for is specified. Referring to FIG. 6B, the interval non-consonance of C3 with respect to E3 is 1.
  • the evaluation unit 103 weights the interval nonconsonance degree based on the volume of each sound sounded at t1, and calculates the interval nonconsonance degree at t1 for each sound (S4-3). .
  • the respective volumes of C3 and E3 sounded at t1 are based on the velocity at the time of sounding (key press speed) and the elapsed time from the start of sounding to t1.
  • the evaluation unit 103 calculates the sound volume at the start of sounding of C3 and E3 sounded at t1.
  • the evaluation unit 103 specifies the sound volume at the start of sounding of C3 and E3 based on the velocities of C3 and E3 at ta.
  • the volume of each sound produced at t1 can be calculated using an attenuation coefficient.
  • the attenuation coefficient is stored in the storage unit 13 as attenuation coefficient data 13c.
  • the attenuation coefficient varies depending on the pitch.
  • the storage unit 13 stores unique attenuation coefficient data 13c for each pitch. In general, the attenuation coefficient increases as the pitch increases.
  • the evaluation unit 103 refers to the attenuation coefficient data 13c corresponding to each of C3 and E3 sounded at t1, and calculates the volume of each of C3 and E3 at t1. That is, the volume of each sound generated at t1 depends on the elapsed time from ta to t1 at the start of sound generation and the pitch of each sound.
  • the evaluation unit 103 integrates the interval dissonance with respect to each sound and the volume of each sound at t1. In other words, the evaluation unit 103 calculates the interval non-cooperating degree of E3 with respect to C3 at t1 by integrating the interval non-cooperating degree of E3 with respect to C3 and the sound volume at t1 of E3. Similarly, the evaluation unit 103 integrates the C3 interval nonconformity with respect to E3 and the volume of C3 at t1 to calculate the C3 interval nonconformity with respect to E3 at t1.
  • the evaluation unit 103 calculates the final non-cooperating degree at t1 based on the calculated interval non-cooperating degree of E3 with respect to C3 at t1 and the interval non-cooperating degree of C3 with respect to E3 at t1. (S4-4). For example, the evaluation unit 103 adds the interval non-cooperating degree of E3 with respect to C3 at t1 and the interval non-cooperating degree of C3 with respect to E3 at t1 to calculate the final non-cooperating degree at t1.
  • the evaluation unit 103 calculates the sound corresponding to the note numbers 51, 62, and 69 that are pronounced at t3.
  • the interval non-cooperating degree at t3 is calculated, and the calculated interval non-cooperating degree at t3 of each sound is added to calculate the non-cooperating degree at t3.
  • the calculation of the interval non-cooperating degree at t3 of each sound is substantially the same as the method of calculating the interval non-cooperating degree of E3 with respect to C3 at the evaluation time t1, or the method of calculating the interval non-cooperating degree of C3 with respect to E3.
  • the evaluation unit 103 when calculating the interval dissonance at t3 with respect to D # 2 corresponding to the note number 51, the evaluation unit 103 indicates the interval dissonance of other sounds with D # 2 as the reference sound. Using the interval non-cooperating degree data 13b, the interval non-cooperating degree with respect to D # 2 of D3 corresponding to the note number 62 and A3 corresponding to the note number 69 is specified. Thereafter, the evaluation unit 103 calculates the interval non-consonance degree for D # 2 at t3 based on the volume of D3 and A3 at t3.
  • the volume of D3 and A3 at the sounding start time tb of D3 and A3 is specified, and D3 at t3 is determined based on the specified volume and the attenuation coefficient data 13c corresponding to each of D3 and A3.
  • the volume of each of A3 is calculated.
  • the calculated volume of D3 at t3 and the interval noncooperating degree with respect to D # 2 of D3 are integrated to calculate the interval noncooperating degree with respect to D # 2 of E3 at t3.
  • the calculated volume of A3 at t3 and the interval noncooperating degree with respect to D # 2 of A3 are integrated to calculate the interval noncooperating degree with respect to D # 2 of A3 at t3.
  • the evaluation unit 103 adds the calculated interval non-cooperating degree with respect to D # 2 of E3 at t3 and the interval non-cooperating degree with respect to D # 2 of A3 at t3 to thereby calculate D # 2 at t3. Calculate the degree of dissonance with respect to.
  • the evaluation unit 103 calculates a non-cooperating degree for D3 at t3 and a non-cooperating degree for A3 at t3. Finally, the evaluation unit adds all of the non-consonance degree with respect to D # 2, the non-consonance degree with respect to D3, and the non-consonance degree with respect to A3 at t3 to calculate the final non-consonance degree at t3.
  • the evaluation unit 103 calculates the interval non-consonance degree for each sound at the predetermined time point based on the volume of each sound that is sounded at the predetermined evaluation time point, and calculates each calculated interval non-consonance value. By adding the degree, the degree of dissonance at the predetermined evaluation time is calculated. The calculated degree of dissonance can be used as an evaluation value of the performance sound by the performer.
  • the above-described method for calculating the degree of non-consonance at the time of evaluation by the evaluation unit 103 is an example, and the present invention is not limited to this.
  • the evaluation unit 103 calculates an interval non-cooperating degree for each sound at the predetermined time point, and calculates the largest interval non-cooperating degree among the calculated interval non-cooperating values for each sound at the predetermined evaluation time point. It is good also as non-consonance degree.
  • the evaluation unit 103 may output the calculated non-cooperating degree at a predetermined evaluation time to the display unit 17.
  • the display unit 17 may sequentially display the degree of dissonance at a predetermined evaluation time acquired from the evaluation unit 103 on the screen.
  • the player of the electronic musical instrument 23 can visually confirm the degree of dissonance of the performance sound.
  • the evaluation device 10 evaluates the sound of the electronic piano.
  • the electronic musical instrument 23 connected to the evaluation device 10 is not limited to the electronic piano.
  • the evaluation unit 103 calculates the interval dissonance for each sound at the predetermined evaluation time based on the volume of each sound that is sounded at the predetermined evaluation time, and calculates each calculated By adding the interval non-cooperating degree, the non-cooperating degree at the predetermined evaluation time is calculated.
  • the evaluation unit 103 may calculate the interval nonconformity for each sound at a predetermined time point based on pedal operation information included in the control data.
  • FIG. 7 is a diagram for explaining the sounds that are pronounced during the performance.
  • a damper pedal (on / off) event is shown in time series.
  • the pedal event is based on pedal operation information included in the control data.
  • D # 2, D3, and A3 corresponding to the note numbers 51, 62, and 69 are turned on at tb and turned off at tc.
  • C3 and C4 corresponding to the note numbers 60 and 72 are turned on at td, and turned off at te.
  • the damper pedal is turned on, and at te, the damper pedal is turned off.
  • D # 2, D3, and A3, which are note-off at tc sound from tb, which is the sound generation start time, to te, when the damper pedal is turned off.
  • the evaluation unit 103 determines that D # 2, D3, and A3 are in a sounding state even after tc when D # 2, D3, and A3 are note-off. . Therefore, for example, when calculating the degree of dissonance at the evaluation time point t4, the evaluation unit 103 generates the sounding state for D # 2, D3, and A3 in addition to C3 and C4 corresponding to the note numbers 60 and 72 in the sounding state. And the interval non-cooperating degrees for C3, C4, D # 2, D3, and A3 at t4 are calculated, and the calculated interval non-cooperating degrees for C3, C4, D # 2, D3, and A3 are calculated. Based on the above, the degree of dissonance at t4 is calculated. Note that the evaluation unit 103 determines that te at which the damper pedal is in the off state is note-off of D # 2, D3, and A3.
  • FIG. 8A is a diagram showing the change over time in the volume of the sound while the damper pedal is on.
  • Each sound produced while the damper pedal is on is attenuated according to the attenuation coefficient specific to each sound while the damper pedal is on. Therefore, for example, when the evaluation unit 103 calculates the interval dissonance for each of C3, C4, D # 2, D3, and A3 at t4 shown in FIG. Based on the specific attenuation coefficient data 13c, the interval dissonance of each sound is calculated.
  • FIG. 8B is a diagram showing the change over time in the volume of the sound while the damper pedal is in the half state (time A in FIG. 8B) and becomes a half pedal, and the half pedal continues thereafter.
  • the evaluation unit 103 first calculates the volume of each sound at time A based on the attenuation coefficient data 13c unique to each sound.
  • the evaluation unit 103 calculates the volume of each sound at the evaluation time after the A time, using the calculated sound volume at the A time. At this time, the evaluation unit 103 uses the attenuation coefficient adjusted so that the attenuation rate of each sound after the time A is increased.
  • the evaluation unit 103 calculates the volume of each sound at the time of evaluation based on the adjusted attenuation coefficient and the volume of each sound at the time A.
  • the evaluation unit 103 adds the volume of each sound at the calculated evaluation time and the interval non-cooperating degree for each sound, calculates the interval non-cooperating degree for each sound at the evaluation time, and calculates the calculated evaluation Based on the interval non-cooperating degree for each sound at the time, the non-cooperating degree at the time of evaluation is calculated.
  • FIG. 8C is a diagram showing the change over time in the volume of the sound when the damper pedal is in the half-pedal state (time A in FIG. 8C) and then the damper pedal is turned off (time B in FIG. 8C). It is.
  • the evaluation unit 103 When calculating the degree of incoherence at the evaluation time after the time point B when the damper pedal is turned off, the evaluation unit 103 first calculates the volume of each sound at the time point A based on the attenuation coefficient data 13c unique to each sound. To do. Next, the evaluation unit 103 calculates the volume of each sound at time B using the calculated volume of each sound at time A. At this time, the evaluation unit 103 uses the attenuation coefficient adjusted so that the attenuation rate of each sound after the time A is increased.
  • the evaluation unit 103 calculates the volume of each sound at the evaluation time after the B time, using the calculated sound volume at the B time. At this time, the evaluation unit 103 uses an attenuation coefficient adjusted so that the attenuation rate of each sound after time B is further increased. The evaluation unit 103 calculates the volume of each sound at the time of evaluation based on the adjusted attenuation coefficient and the volume of each sound at the time B. The evaluation unit 103 adds the volume of each sound at the calculated evaluation time and the interval non-cooperating degree for each sound, calculates the interval non-cooperating degree for each sound at the evaluation time, and calculates the calculated evaluation Based on the interval non-cooperating degree for each sound at the time, the non-cooperating degree at the time of evaluation is calculated.
  • the above-mentioned calculation method of the non-consonance degree at the time of pedal operation relates to a sound that is note-on at the time of pedal operation and is note-off before the pedal operation is switched, that is, before the pedal position is changed.
  • the degree of dissonance is calculated based on the attenuation coefficient data 13c unique to each sound.
  • the degree of muddyness of the sound when the damper pedal is operated can be confirmed by obtaining the degree of dissonance when the damper pedal is operated.
  • the calculated degree of dissonance can be used as an evaluation value of the performance sound by the performer.
  • the evaluation device 10 calculates the non-cooperating degree only when the damper pedal is operated or during the period including and before and after the operation of the damper pedal, and uses the calculated non-cooperating degree as an evaluation value for the damper pedal operation. it can. For example, the non-cooperating degree during the period including and before and after the damper pedal operation is calculated, and the player's damper pedal operation is evaluated according to the length of the period when the non-cooperating degree is higher than a predetermined threshold. Also good.
  • FIG. 9 is an example of a graph showing the degree of nonconformity calculated by the evaluation unit 103 of the evaluation device 10 when the damper pedal is operated.
  • the evaluation device 10 determines the length of the period Pt in which the state where the non-cooperating degree is higher than the predetermined threshold continues. Based on this, the player's damper pedal operation may be evaluated.
  • the evaluation unit 103 may weight the sound so as to increase the degree of dissonance at the time of evaluation. For example, the evaluation unit 103 may weight the sound so as to increase the degree of dissonance at the time of evaluation when a sound in a low frequency range of B1 or less is generated at the time of evaluation.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

非協和度に基づいて演奏音の評価を行うことができる評価装置を提供する。位置実施形態に係る評価装置は、発音内容を示す制御データを取得するデータ取得部と、前記制御データに基づいて評価時点における発音している音を特定し、前記発音している音同士のインターバルに基づいて前記評価時点での非協和度を算出する評価部と、を備える。

Description

評価装置
 本発明は、音を評価する評価装置、及びその方法に関する。
 楽器による演奏音を評価するために、リファレンスデータと実際の演奏音に基づく音データとを比較する技術が知られている。例えば、特許文献1には、参考音信号の特徴と、実際の演奏音に基づく入力音信号から抽出された特徴とを比較することにより、入力音の評価結果を算出するための技術が開示されている。
特開2016-085309号公報
 特許文献1の技術では、手本であるリファレンス音に基づいて演奏音の評価を行う。したがって、リファレンス音が無ければ演奏音の評価を行うことができない。
 本発明の目的の一つは、非協和度に基づいて演奏音の評価を行うことができる評価装置及び評価方法を提供することにある。
 本発明の一実施形態に係る評価装置は、発音内容を示す制御データを取得するデータ取得部と、前記制御データに基づいて評価時点における発音している音を特定し、前記発音している音同士のインターバルに基づいて前記評価時点での非協和度を算出する評価部と、を備える。
 前記評価部は、前記評価時点で前記発音している音の各々の音量にさらに基づいて前記非協和度を算出してもよい。
 前記音量は、発音開始時点でのベロシティと、前記発音開始時点から前記評価時点までの経過時間に基づいていてもよい。
 前記評価部は、前記発音開始時点から前記評価時点までのペダルの位置にさらに基づいて前記非協和度を算出してもよい。
 前記評価部は、前記発音している音の音高が所定の閾値以下である場合、前記非協和度を増大させてもよい、
 評価装置は、算出された前記非協和度を表示する表示部をさらに備えてもよい。
 本発明の一実施形態に係る音の評価方法は、発音内容を示す制御データを取得し、前記制御データに基づいて評価時点における発音している音を特定し、前記発音している音同士のインターバルに基づいて前記評価時点での非協和度を算出すること、を含む。
 前記評価時点での非協和度を算出することは、前記発音している音同士のインターバル及び前記評価時点で前記発音している音の各々の音量に基づいて前記評価時点での非協和度を算出すること、を含んでもよい。
 前記音量は、発音開始時点でのベロシティと、前記発音開始時点から前記評価時点までの経過時間に基づいていてもよい。
 本発明の一実施形態に係るプログラムは、コンピュータに、発音内容を示す制御データを取得し、前記制御データに基づいて評価時点における発音している音を特定し、前記発音している音同士のインターバルに基づいて前記評価時点での非協和度を算出すること、を実行させる。
 本発明によれば、非協和度に基づいて演奏音の評価を行うことができる評価装置及び評価方法を提供することができる。
本発明の一実施形態における評価装置のハードウエア構成を示すブロック図である。 本発明の一実施形態における評価機能の構成を示すブロック図である。 評価機能による処理を示したフローチャートである。 所定の評価時点における非協和度を算出するための処理の流れを示すフローチャートである。 演奏中に発音される音を説明するための図である。 インターバル非協和度の一例を示した図である。 インターバル非協和度の一例を示した図である。 演奏中に発音される音を説明するための図である。 音の音量の経時変化を示す図である。 音の音量の経時変化を示す図である。 音の音量の経時変化を示す図である。 本発明の一実施形態における評価装置によって算出された非協和度を示すグラフの一例である。
 以下、本発明の一実施形態における評価装置について、図面を参照しながら詳細に説明する。以下に示す実施形態は本発明の実施形態の一例であって、本発明はこれらの実施形態に限定して解釈されるものではない。なお、本実施形態で参照する図面において、同一部分または同様な機能を有する部分には同一の符号または類似の符号(数字の後にA、B等を付しただけの符号)を付し、その繰り返しの説明は省略する場合がある。
[評価装置の構成]
 図1は、本発明の一実施形態における評価装置のハードウエア構成を示すブロック図である。評価装置10は、アプリケーションプログラムを実行することによって評価機能を実現するコンピュータを備える装置である。評価装置10は、制御部11、記憶部13、操作部15、表示部17、及び通信部19を含む。これらの各構成は、バス21を介して接続されている。
 制御部11は、CPUなどの演算処理回路を含む。制御部11は、記憶部13に記憶された制御プログラム13aをCPUにより実行して、各種機能を評価装置10において実現させる。各種機能には、以下に説明する評価機能が含まれる。
 記憶部13は、不揮発性メモリ、ハードディスク等の記憶装置である。記憶部13は、評価機能を実現するための制御プログラム13a、所定の2音間の非協和度を示すインターバル非協和度データ13b、及び音高毎の減衰係数を示す減衰係数データ13cを記憶する。制御プログラム13a、インターバル非協和度データ13b及び減衰係数データ13cは、磁気記録媒体、光記録媒体、光磁気記録媒体、半導体メモリなどのコンピュータ読み取り可能な記録媒体に記憶した状態で提供される。この場合、評価装置10は、記録媒体を読み取る装置を備えていればよい。また、制御プログラム13a、インターバル非協和度データ13b及び減衰係数データ13cは、コンピュータにより実行可能であればよく、ネットワーク経由でダウンロードされてもよい。
 操作部15は、タッチセンサ等、ユーザによる操作が入力される装置であり、入力された操作に応じた信号を制御部11に出力する。この操作部15によって、評価の対象となる楽器の種類の選択等、評価機能において必要とされる様々な操作を入力することができる。
 表示部17は、液晶ディスプレイ、有機ELディスプレイ等の表示装置であり、制御部11による制御に基づいた画面が表示される。通信部19は、制御部11の制御に基づいて、インターネットなどの通信回線と接続して、外部装置と情報の送受信を行う。上述した記憶部13の機能は、通信部19において通信可能な外部装置で実現されてもよい。尚、通信部19は、電子楽器23と接続される。
 電子楽器23は、例えば、操作子への操作に応じて音源が音信号を生成する楽器である。電子楽器23は、例えば、電子ピアノであってもよい。本実施形態では、電子楽器23が電子ピアノである例を説明する。電子ピアノである電子楽器23は、鍵(操作子)を用いた発音内容を示す制御データを、通信部19を介して制御部11に提供する。
[評価機能]
 評価装置10の制御部11が制御プログラム13aを実行することによって実現される評価機能について説明する。なお、以下に説明する評価機能を実現する構成の一部又は全部は、ハードウエアによって実現されてもよい。
 図2は、本発明の一実施形態における評価機能の構成を示すブロック図である。図3は、評価機能100による処理を示したフローチャートである。評価機能100は、データ取得部101及び評価部103の各構成によって実現される。
 データ取得部101は、発音内容を示す制御データを取得する(S1)。この制御データは、電子楽器23から通信部19を介して評価装置10に伝達される、電子楽器23の発音内容を音毎に示すデータである。本実施形態において、制御データは、MIDI形式のシーケンスデータであり、ノート番号、ベロシティ、ノートオン信号、ノートオフ信号、ペダル操作情報などを含む。データ取得部101は、取得した制御データを評価部103に出力する。
 評価部103は、データ取得部101から制御データを取得する。評価部103は、取得した制御データに基づいて、ある時点(以下、評価時点という)において発音されている音を特定し、該評価時点で発音している音同士のインターバル(度数)に基づいて該評価時点での非協和度を算出する(S2)。尚、評価時点は、電子楽器23を使用した演奏中の所定の一時点である。評価時点は、演奏中において予め所定間隔で設定されていてもよい。また、評価時点は、評価装置10の利用者によって操作部15を介して設定されてもよい。以下、評価部103による評価時点における非協和度の算出する方法について、図4~図6を参照して詳細に説明する。
 図4は、評価部103によって実行される所定の評価時点における非協和度を算出するための処理の流れを示すフローチャートである。評価部103は、制御データに基づいて、所定の評価時点で発音されている音を特定する(S4-1)。評価部103は、制御データに含まれるノート番号及びノートオン信号に基づいて、所定の評価時点で発音されている音を特定することができる。
 図5は、演奏中に発音される音を説明するための図である。図5では、制御データに含まれる、各ノートのノートオン、ノートオフ、及び発音期間を時系列に示している。例えば、評価時点t1で発音されている音について、インターバル非協和度を特定する場合、評価部103は、t1において発音されている音を制御データに基づいて特定する。より詳細には、評価部103は、制御データに含まれるノートオン信号及びノート番号に基づいて、t1において発音されている音を特定する。例えば、図5を参照すると、t1において発音されている音は、ノート番号60と64である。
 評価部103は、所定の評価時点での非協和度を算出する。まず、評価部103は、該所定の時点で発音している各音についてインターバル非協和度を特定する(S4-2)。インターバル非協和度とは、評価時点で発音している音同士のインターバルに基づいて定められている非協和度を示している。
 詳細には、評価部は、t1において2つ以上の音が発音されている場合、発音されている2つ以上の音をそれぞれ基準として、t1において発音されている音同士のインターバル非協和度を特定する。つまり、評価部103は、ノート番号60に対応する音を基準とするノート番号64に対応する音のインターバル非協和度、及びノート番号64に対応する音を基準とするノート番号60に対応する音のインターバル非協和度を特定する。評価部103は、記憶部13に記憶されているインターバル非協和度データ13bを参照してt1において発音されている音同士のインターバル非協和度を特定する。インターバル非協和度データ13bは、基準音に対する他の音のインターバル非協和度を示したデータである。
 ノート番号60に対応する音はC3である。図6Aは、インターバル非協和度の一例を示した図である。図6Aは、C3を基準にした場合のC3に対する各音のインターバル非協和度を示している。評価部103は、図6Aに示したような、C3を基準音とする他の音のインターバル非協和度を示したインターバル非協和度データ13bを用いて、ノート番号60に対応する音であるC3に対するノート番号64に対応する音であるE3のインターバル非協和度を特定する。図6Aを参照すると、C3に対するE3のインターバル非協和度は、1である。
 ノート番号64に対応する音はE3である。図6Bは、インターバル非協和度の一例を示した図である。図6Bは、E3を基準にした場合のE3に対する各音のインターバル非協和度を示している。評価部103は、図6Bに示したような、E3を基準音とする他の音のインターバル非協和度を示したインターバル非協和度データ13bを用いて、ノート番号64に対応する音であるE3に対するノート番号60に対応する音であるC3のインターバル非協和度を特定する。図6Bを参照すると、E3に対するC3のインターバル非協和度は、1である。
 次に、評価部103は、t1で発音されている各音のそれぞれの音量に基づいて、インターバル非協和度を重み付けし、各音についてt1でのインターバル非協和度を算出する(S4-3)。t1で発音されているC3及びE3のそれぞれの音量は、発音時のベロシティ(押鍵速度)と、発音開始時からt1までの経過時間とに基づく。評価部103は、まず、t1で発音されているC3及びE3のそれぞれの発音開始時の音量を算出する。
 図5を参照すると、C3及びE3それぞれのノートオン信号はtaで出力されている。よって、評価部103は、taでのC3及びE3のベロシティに基づいて、C3及びE3の発音開始時の音量を特定する。t1で発音されている各音の音量は、減衰係数を用いて算出することができる。減衰係数は、減衰係数データ13cとして記憶部13に記憶されている。減衰係数は、音高によって異なる。記憶部13は、各音高について、それぞれ固有の減衰係数データ13cを記憶している。一般的に、減衰係数は、音高が高いほど大きくなる。評価部103は、t1で発音されているC3及びE3のそれぞれに対応する減衰係数データ13cを参照して、t1でのC3及びE3それぞれの音量を算出する。つまり、t1で発音されている各音の音量は、発音開始時のtaからt1までの経過時間及び各音の音高に依存する。
 次に、評価部103は、各音に対するインターバル非協和度とt1での各音の音量を積算する。つまり、評価部103は、C3に対するE3のインターバル非協和度とE3のt1での音量とを積算して、t1でのC3に対するE3のインターバル非協和度を算出する。同様に、評価部103は、E3に対するC3のインターバル非協和度とC3のt1での音量とを積算して、t1でのE3に対するC3のインターバル非協和度を算出する。
 次に、評価部103は、算出された、t1でのC3に対するE3のインターバル非協和度、及びt1でのE3に対するC3のインターバル非協和度に基づいてt1での最終的な非協和度を算出する(S4-4)。例えば、評価部103は、t1でのC3に対するE3のインターバル非協和度、及びt1でのE3に対するC3のインターバル非協和度を加算して、t1での最終的な非協和度を算出する。
 同様に、図5に示されている評価時点t3での非協和度を算出する場合、評価部103は、t3で発音されている、ノート番号51、62、69に対応している各音のt3でのインターバル非協和度を算出して、算出された各音のt3でのインターバル非協和度を加算して、t3での非協和度を算出する。各音のt3でのインターバル非協和度を算出は、評価時点t1でのC3に対するE3のインターバル非協和度を算出方法又は、E3に対するC3のインターバル非協和度を算出方法と略同様である。
 一方、t3では、t1とは異なり、ノート番号51、62、69に対応している3つの音が同時に発音されている。例えば、ノート番号51に対応しているD♯2に対するt3でのインターバル非協和度を算出する場合、評価部103は、D♯2を基準音とする他の音のインターバル非協和度を示したインターバル非協和度データ13bを用いて、ノート番号62に対応しているD3、及びノート番号69に対応しているA3のD♯2に対するインターバル非協和度をそれぞれ特定する。その後、評価部103は、t3でのD3及びA3の音量に基づいて、t3でのD♯2に対するインターバル非協和度を算出する。具体的には、D3及びA3の発音開始時点tbでのD3及びA3の音量を特定し、特定した音量と、D3及びA3のそれぞれに対応する減衰係数データ13cとに基づいて、t3でのD3及びA3それぞれの音量を算出する。算出されたt3でのD3の音量と、D3のD♯2に対するインターバル非協和度とを積算して、t3でのE3のD♯2に対するインターバル非協和度を算出する。同様に、算出されたt3でのA3の音量と、A3のD♯2に対するインターバル非協和度とを積算して、t3でのA3のD♯2に対するインターバル非協和度を算出する。評価部103は、算出された、t3でのE3のD♯2に対するインターバル非協和度と、t3でのA3のD♯2に対するインターバル非協和度とを加算することにより、t3でのD♯2に対する非協和度を算出する。
 同様に、評価部103は、t3でのD3に対する非協和度、及びt3でのA3に対する非協和度を算出する。最後に、評価部は、t3での、D♯2に対する非協和度、D3に対する非協和度、及びA3に対する非協和度を全て加算して、t3での最終的な非協和度を算出する。
 以上のように、評価部103は、所定の評価時点で発音されている各音の音量に基づいて、該所定時点での各音に対するインターバル非協和度を算出し、算出された各インターバル非協和度を加算することにより、該所定の評価時点での非協和度を算出する。算出した非協和度を演奏者による演奏音の評価値として用いることができる。尚、以上に述べた、評価部103による、評価時点での非協和度の算出方法は一例であって、これに限定されるわけではない。例えば、評価部103は、該所定時点での各音に対するインターバル非協和度を算出し、算出された各音に対するインターバル非協和度の中で最も大きなインターバル非協和度を該所定の評価時点での非協和度としてもよい。
 評価部103は、算出された所定の評価時点での非協和度を表示部17に出力してもよい。表示部17は、評価部103から取得した所定の評価時点での非協和度を画面に順次表示してもよい。電子楽器23の演奏者は、演奏音の非協和度を視覚的に確認することができる。
 尚、以上に述べた本実施形態では、評価装置10が電子ピアノの音を評価する例を説明したが、評価装置10に接続される電子楽器23は電子ピアノに限定されるわけではない。
(変形例)
 以下では、以上に述べた本発明の一実施形態の変形例を説明する。
[変形例1]
 上述した実施形態では、評価部103は、所定の評価時点で発音されている各音の音量に基づいて、該所定の評価時点での各音に対するインターバル非協和度を算出し、算出された各インターバル非協和度を加算することにより、該所定の評価時点での非協和度を算出している。評価部103は、制御データに含まれるペダル操作情報に基づいて、所定時点での各音に対するインターバル非協和度を算出してもよい。
 図7は、演奏中に発音される音を説明するための図である。図7では、制御データに含まれる、各ノートのノートオン及びノートオフに加え、ダンパーペダル(オン/オフ)イベントを時系列に示している。ペダルイベントは、制御データに含まれるペダル操作情報に基づいている。例えば、図7では、ノート番号51、62、69に対応しているD♯2、D3、A3がtbでノートオンとなり、tcでノートオフとなる。また、ノート番号60、72に対応しているC3、C4がtdでノートオンとなり、teでノートオフとなる。さらに、tbでダンパーペダルがオン状態になり、teでダンパーペダルがオフ状態となる。したがって、tcでノートオフとなっているD♯2、D3、A3は、発音開始時点であるtbからダンパーペダルがオフ状態となるteまで発音している。
 ダンパーペダルがオン状態になっているこの場合、D♯2、D3、A3がノートオフするtc以降であっても、評価部103は、D♯2、D3、A3が発音状態であると判定する。そのため、例えば、評価時点t4での非協和度を算出する場合、評価部103は、発音状態のノート番号60、72に対応するC3及びC4に加え、D♯2、D3、A3についても発音状態と判定し、t4でのC3、C4、D♯2、D3、及びA3それぞれに対するインターバル非協和度を算出し、算出されたC3、C4、D♯2、D3、及びA3それぞれに対するインターバル非協和度に基づいて、t4での非協和度を算出する。尚、評価部103は、ダンパーペダルがオフ状態となるteをD♯2、D3、及びA3のノートオフと判定する。
 図8Aは、ダンパーペダルのオン状態が継続している間の音の音量の経時変化を示す図である。ダンパーペダルがオン状態である間に発音された各音は、ダンパーペダルのオン状態が継続している間、各音に固有の減衰係数に応じて減衰する。そのため、評価部103は、例えば、図7に示したt4でのC3、C4、D♯2、D3、及びA3それぞれに対するインターバル非協和度を算出する際、記憶部13に記憶された各音に固有の減衰係数データ13cに基づいて各音のインターバル非協和度を算出する。
 一方、ペダルの状態(ペダルの位置)が変化する場合も考えられる。図8Bは、ダンパーペダルのオン状態が途中(図8BにおけるA時点)でハーフペダルになり、その後ハーフペダルが継続している間の音の音量の経時変化を示す図である。A時点以降における評価時点での非協和度を算出する場合、まず評価部103は、A時点における各音の音量を各音に固有の減衰係数データ13cに基づいて算出する。次に、評価部103は、算出されたA時点での各音の音量を用いて、A時点以降における評価時点での各音の音量を算出する。この際、評価部103は、A時点以降の各音の減衰率が大きくなるように調整された減衰係数を用いる。評価部103は、このような調整された減衰係数と、A時点での各音の音量とに基づいて、評価時点での各音の音量を算出する。評価部103は、算出された評価時点での各音の音量と、各音に対するインターバル非協和度とを積算して、評価時点での各音に対するインターバル非協和度を算出し、算出された評価時点での各音に対するインターバル非協和度に基づいて、評価時点の非協和度を算出する。
 図8Cは、ダンパーペダルのオン状態が途中(図8CにおけるA時点)でハーフペダルになり、その後ダンパーペダルがオフになった(図8CにおけるB時点)場合の音の音量の経時変化を示す図である。ダンパーペダルがオフになったB時点以降における評価時点での非協和度を算出する場合、まず評価部103は、A時点における各音の音量を各音に固有の減衰係数データ13cに基づいて算出する。次に、評価部103は、算出されたA時点での各音の音量を用いて、B時点での各音の音量を算出する。この際、評価部103は、A時点以降の各音の減衰率が大きくなるように調整された減衰係数を用いる。次に、評価部103は、算出されたB時点での各音の音量を用いて、B時点以降の評価時点での各音の音量を算出する。この際、評価部103は、B時点以降の各音の減衰率がさらに大きくなるように調整された減衰係数を用いる。評価部103は、このような調整された減衰係数と、B時点での各音の音量とに基づいて、評価時点での各音の音量を算出する。評価部103は、算出された評価時点での各音の音量と、各音に対するインターバル非協和度とを積算して、評価時点での各音に対するインターバル非協和度を算出し、算出された評価時点での各音に対するインターバル非協和度に基づいて、評価時点の非協和度を算出する。
 以上に述べたペダル操作時における非協和度の算出方法は、ペダル操作時にノートオンされ、ペダル操作が切り替わる前に、即ち、ペダルの位置が変わる前にノートオフされた音に関するものである。ペダル操作が切り替わった後も押鍵状態が続いている場合は、非協和度は、各音に固有の減衰係数データ13cに基づいて算出される。
 ダンパーペダル操作時の非協和度を求めることにより、ダンパーペダル操作時の音の濁りの程度を確認することができる。算出した非協和度を演奏者による演奏音の評価値として用いることができる。尚、評価装置10は、ダンパーペダルの操作時のみ、又はダンパーペダル操作時とその前後を含む期間の非協和度を算出し、算出された非協和度をダンパーペダル操作の評価値として用いることができる。例えば、ダンパーペダル操作時とその前後を含む期間の非協和度を算出して、非協和度が所定の閾値よりも高くなる期間の長さに応じて、演奏者のダンパーペダル操作を評価してもよい。
 図9は、ダンパーペダル操作時に評価装置10の評価部103によって算出された非協和度を示すグラフの一例である。図9において、例えば、t1からt2の期間Ptにおける非協和度が所定の閾値よりも高い場合、評価装置10は、非協和度が所定の閾値よりも高い状態が連続している期間Ptの長さに基づいて、演奏者のダンパーペダル操作を評価してもよい。
[変形例2]
 評価部103は、評価時点で発音している音の音高が所定の閾値以下である場合、該評価時点での非協和度を増大させるよう重み付けしてもよい。例えば、評価部103は、評価時点でB1以下の低音域の音が発音している場合、該評価時点での非協和度を増大させるよう重み付けしてもよい。
10…評価装置、11…制御部、13…記憶部、13a…制御プログラム、13b…インターバル非協和度データ、13c…減衰係数データ、15…操作部、17…表示部、19…通信部、21…バス、23…電子楽器、100…評価機能、101…データ取得部、103…評価部

Claims (10)

  1.  発音内容を示す制御データを取得するデータ取得部と、
     前記制御データに基づいて評価時点における発音している音を特定し、前記発音している音同士のインターバルに基づいて前記評価時点での非協和度を算出する評価部と、
    を備える、評価装置。
  2.  前記評価部は、前記評価時点で前記発音している音の各々の音量にさらに基づいて前記非協和度を算出する、請求項1に記載の評価装置。
  3.  前記音量は、発音開始時点でのベロシティと、前記発音開始時点から前記評価時点までの経過時間に基づいている、請求項2に記載の評価装置。
  4.  前記評価部は、前記発音開始時点から前記評価時点までのペダルの位置にさらに基づいて前記非協和度を算出する、請求項3に記載の評価装置。
  5.  前記評価部は、前記発音している音の音高が所定の閾値以下である場合、前記非協和度を増大させる、請求項1に記載の評価装置。
  6.  算出された前記非協和度を表示する表示部をさらに備える、請求項1に記載の評価装置。
  7.  発音内容を示す制御データを取得し、
     前記制御データに基づいて評価時点における発音している音を特定し、
     前記発音している音同士のインターバルに基づいて前記評価時点での非協和度を算出すること、
     を含む、音の評価方法。
  8.  前記評価時点での非協和度を算出することは、
     前記発音している音同士のインターバル及び前記評価時点で前記発音している音の各々の音量に基づいて前記評価時点での非協和度を算出すること、を含む、請求項7に記載の音の評価方法。
  9.  前記音量は、発音開始時点でのベロシティと、前記発音開始時点から前記評価時点までの経過時間に基づいている、請求項8に記載の音の評価方法。
  10.  コンピュータに、
     発音内容を示す制御データを取得し、
     前記制御データに基づいて評価時点における発音している音を特定し、
     前記発音している音同士のインターバルに基づいて前記評価時点での非協和度を算出すること、
     を実行させるためのプログラム。
PCT/JP2018/009774 2018-03-13 2018-03-13 評価装置 WO2019175977A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/009774 WO2019175977A1 (ja) 2018-03-13 2018-03-13 評価装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/009774 WO2019175977A1 (ja) 2018-03-13 2018-03-13 評価装置

Publications (1)

Publication Number Publication Date
WO2019175977A1 true WO2019175977A1 (ja) 2019-09-19

Family

ID=67906544

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/009774 WO2019175977A1 (ja) 2018-03-13 2018-03-13 評価装置

Country Status (1)

Country Link
WO (1) WO2019175977A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001236064A (ja) * 2000-02-22 2001-08-31 Yamaha Corp 楽音発生装置
JP2007212490A (ja) * 2006-02-07 2007-08-23 Yamaha Corp 楽音の発音制御装置および発音制御プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001236064A (ja) * 2000-02-22 2001-08-31 Yamaha Corp 楽音発生装置
JP2007212490A (ja) * 2006-02-07 2007-08-23 Yamaha Corp 楽音の発音制御装置および発音制御プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
FUJISAWA ET AL.: "Music mood visualization based on quantitative model of chord progression", TRANS. OF THE INFORMATION PROC. SOC. OF JAPAN, 15 March 2009 (2009-03-15), pages 1133 - 1138 *

Similar Documents

Publication Publication Date Title
JP4716422B2 (ja) 共鳴音発生装置
JP4785053B2 (ja) 共鳴音発生装置
JPH0774958B2 (ja) 楽音合成装置
JPH11296168A (ja) 演奏情報評価装置、演奏情報評価方法及び記録媒体
WO2019175977A1 (ja) 評価装置
JPH0774955B2 (ja) 楽音合成装置
JP4853054B2 (ja) 演奏データ編集装置及びプログラム
JP2650509B2 (ja) 音像定位装置
JP2008139413A (ja) 共鳴音発生装置
JP4096952B2 (ja) 楽音発生装置
JP3024191B2 (ja) 楽音信号発生装置
JP2879504B2 (ja) 電子楽器
JPH0721717B2 (ja) 電子楽器
JP5318460B2 (ja) 共鳴音発生装置
JP5200368B2 (ja) アルペジオ生成装置およびアルペジオ生成方法を実現するためのプログラム
JP4186855B2 (ja) 楽音制御装置及びプログラム
JP4315116B2 (ja) 電子音楽装置
JP2782836B2 (ja) 楽音合成装置
JP2002333880A (ja) 電子楽器、発音処理方法及びプログラム
JP3085908B2 (ja) 楽音合成装置
WO2019092780A1 (ja) 評価装置およびプログラム
WO2018216423A1 (ja) 楽曲評価装置、楽曲評価方法およびプログラム
JPH03210599A (ja) 電子楽器
JP5816245B2 (ja) 共鳴音発生装置
JP3231896B2 (ja) 電子楽器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18909447

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18909447

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP