WO2019092780A1 - 評価装置およびプログラム - Google Patents

評価装置およびプログラム Download PDF

Info

Publication number
WO2019092780A1
WO2019092780A1 PCT/JP2017/040077 JP2017040077W WO2019092780A1 WO 2019092780 A1 WO2019092780 A1 WO 2019092780A1 JP 2017040077 W JP2017040077 W JP 2017040077W WO 2019092780 A1 WO2019092780 A1 WO 2019092780A1
Authority
WO
WIPO (PCT)
Prior art keywords
evaluation
time
sounds
sound
section
Prior art date
Application number
PCT/JP2017/040077
Other languages
English (en)
French (fr)
Inventor
隆一 成山
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Priority to PCT/JP2017/040077 priority Critical patent/WO2019092780A1/ja
Publication of WO2019092780A1 publication Critical patent/WO2019092780A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B15/00Teaching music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments

Definitions

  • the present invention is a technique for evaluating the stability of repetitive sounds.
  • Patent Document 1 discloses a technology for evaluating using sound generation timing.
  • One of the objects of the present invention is to evaluate a performance that is pronounced in a repeating pattern.
  • an evaluation target acquiring unit for acquiring a plurality of sounds to be evaluated included in a predetermined evaluation section among a plurality of sounds included in performance data, and a plurality of sounds to be evaluated
  • a time acquisition unit for acquiring a sound generation time and a muffling time from the muffling to the next sound generation; and an evaluation value calculation unit for calculating an evaluation value based on the acquired sounding time and variation of the muffling time.
  • the plurality of sounds to be evaluated are classified into at least a first group and a second group, and the evaluation value indicates a variation of the sounding time and the muffling time of the plurality of sounds belonging to the first group.
  • An evaluation value may be included, and a second evaluation value indicating variations in the sounding time and the muffling time of the plurality of sounds belonging to the second group.
  • the apparatus further includes a detection unit that detects a section having a predetermined repetitive pattern among the plurality of sounds included in the reference data as a repetitive section in the reference data, and the evaluation target acquisition unit determines the repetition of the performance data.
  • a section corresponding to a section may be specified as the evaluation section.
  • a detection unit that detects a section having a predetermined repetitive pattern as a repeated section in the reference data, and a plurality of sounds included in the repetitive section, based on the feature of the sound
  • a classification unit that classifies the sound of the first group and the sound of the second group, and the evaluation target acquisition unit evaluates the section corresponding to the repetition section among the performance data. It may be specified as a section.
  • the information processing apparatus may further include a reproduction unit that reproduces the reference data, and a recording unit that records a performance performed while reproducing the reference data and records the performance as the performance data.
  • Each of the plurality of acquired sounds further includes an interval acquiring unit for acquiring a sound generation interval time from the start of sound generation to the start of the next sound generation, and the evaluation value further indicates the variation of the sound generation interval time. It may be calculated based on.
  • Each of the plurality of sounds included in the performance data may be specified based on control data that defines a sound generation timing and a muffling timing.
  • Each of the plurality of sounds included in the performance data may be identified by analyzing the sound signal data.
  • the plurality of sounds to be evaluated included in the predetermined evaluation section are acquired, and for each of the plurality of sounds to be evaluated
  • the evaluation device in one embodiment of the present invention is a device that evaluates a performance by a user using a musical instrument or a song, and in particular, is a device that evaluates a performance of a repetitive pattern.
  • the evaluation device 1 reproduces the accompaniment sound, records the sound played along with the accompaniment sound, and evaluates the performance of the repetitive pattern in the sound.
  • the repeated pattern indicates, in this example, a pattern in which the same sound is repeated in accordance with a predetermined rhythm, as shown in FIG. 4 described later.
  • FIG. 1 is a diagram showing the configuration of an evaluation apparatus according to an embodiment of the present invention.
  • the evaluation device 1 is, for example, a device capable of realizing a predetermined function by executing a program in a personal computer.
  • the evaluation apparatus 1 includes a control unit 11, a storage unit 12, an operation unit 13, a display unit 14, a communication unit 15, and an interface 18. Each of these configurations is connected via a bus. Further, in this example, a speaker 21, a microphone 23 and an electronic musical instrument 25 are connected to the interface 18. Only one of the microphone 23 and the electronic musical instrument 25 may be connectable.
  • Control unit 11 includes an arithmetic processing circuit such as a CPU.
  • the control unit 11 causes the CPU to execute the control program stored in the storage unit 12 to cause the evaluation device 1 to realize various functions.
  • the functions to be realized include a performance data recording function, a repetition interval specifying function and an evaluation function.
  • the performance data recording function includes a function for recording the content of performance by the user as performance data while providing an accompaniment sound to the user.
  • the repeated section specifying function includes a function for specifying a section (evaluation section) in which the repeated pattern is to be evaluated.
  • the evaluation function includes a function for calculating an evaluation value based on data in an evaluation section among performance data. The specific realization methods of these functions will be described later, respectively.
  • the storage unit 12 is a storage device such as a non-volatile memory and a hard disk.
  • the storage unit 12 includes a storage area 121 of a control program, a storage area 123 of reference data, a storage area 125 of performance data, a storage area 127 of evaluation section data, and a storage area 129 of evaluation reference data.
  • Each data may be stored in an external storage device connectable by wire or wireless instead of being stored in storage unit 12.
  • the control program may be executable by a computer, and may be provided as stored in a computer readable recording medium such as a magnetic recording medium, an optical recording medium, a magneto-optical recording medium, or a semiconductor memory.
  • a computer readable recording medium such as a magnetic recording medium, an optical recording medium, a magneto-optical recording medium, or a semiconductor memory.
  • the evaluation device 1 may be provided with a device for reading the recording medium.
  • the control program may be downloaded via a network.
  • the reference data includes melody data indicating time-series sounds to be played by the user (hereinafter referred to as “melody sounds”) and accompaniment data indicating time-series accompaniment sounds.
  • the reference data is data defined in a predetermined data format (for example, MIDI format) that defines the sound generation content in time series.
  • MIDI format a predetermined data format
  • the data for controlling the sound source such as note number, note on, note off and velocity, is specified in time series, whereby the sound generation content is specified.
  • note-on indicates a tone generation timing
  • note-off indicates a mute timing.
  • the performance data is data in which the performance by the user is recorded.
  • the recorded performance may be control data of a sound source as well as reference data, or may be sound signal data.
  • control data is recorded as performance data.
  • a sound by the user's performance is inputted to the microphone 23, the sound signal data is recorded as the performance data.
  • the evaluation segment data is data indicating an evaluation segment identified from the melody data of the reference data by the repetition segment identification function.
  • Evaluation standard data is information used as a standard when evaluating a performance in an evaluation function. For example, information of an arithmetic expression for calculating an evaluation value based on an indicator of variation obtained as described later is included.
  • the operation unit 13 is an input device such as an operation button, a keyboard, and a mouse provided on an operation panel and a remote control, and outputs a signal corresponding to the input operation to the control unit 11.
  • the operation unit 13 enables the user's instruction to be input to the evaluation device 1.
  • the display unit 14 is a display device such as a liquid crystal display or an organic EL display, and a screen based on control by the control unit 11 is displayed. This screen is displayed, for example, based on the evaluation value obtained by the evaluation function.
  • the operation unit 13 and the display unit 14 may be integrated to constitute a touch panel.
  • the communication unit 15 is connected to a communication line such as the Internet based on the control of the control unit 11 to transmit and receive information with an external device such as a server.
  • the function of the storage unit 12 may be realized by an external device that can communicate in the communication unit 15.
  • the interface 18 has a configuration for connecting to an external device by wire or wirelessly to transmit and receive data.
  • the speaker 21, the microphone 23, and the electronic musical instrument 25 are connected to the interface 18.
  • at least one of the microphone 23 and the electronic musical instrument 25 may not exist.
  • the speaker 21 Under the control of the control unit 11, the speaker 21 is provided with a sound signal through the interface 18, and outputs a sound.
  • a sound signal In this example, for example, an accompaniment sound based on the accompaniment data is output.
  • the microphone 23 converts the input sound into an electrical signal (sound signal data), and provides the same to the control unit 11 through the interface 18.
  • a sound generated by the user playing an instrument is input to the microphone 23.
  • the electronic musical instrument 25 is, for example, an musical instrument whose sound source generates a sound signal in response to an operation on the operation element, and is, for example, an electronic piano.
  • the electronic musical instrument 25, which is an electronic piano provides control data corresponding to the content of a performance using a key (operation element) to the control unit 11 via the interface 18.
  • FIG. 2 is a diagram showing a performance data recording function in an embodiment of the present invention.
  • the performance data recording function 100 includes a reproduction unit 101 and a recording unit 103.
  • the reproduction unit 101 reads out the reference data, and outputs a sound signal indicating an accompaniment sound to the speaker 21 based on the accompaniment data. Thus, the accompaniment sound is output from the speaker 21.
  • the melody data may also be reproduced, and the melody sound may be output from the speaker 21.
  • the reproduction unit 101 outputs the reproduction position (time information) to the recording unit 103.
  • the recording unit 103 records a performance performed while reproducing the reference data in the reproducing unit 101 as performance data.
  • the recording unit 103 records the sound signal data as performance data in the storage area 125 of the performance data.
  • the control unit 103 acquires control data from the electronic musical instrument 25, the recording unit 103 records the control data as performance data in the performance data storage area 125.
  • the performance data recorded in this way is associated with the reference data reproduced by the reproduction unit 101 at the time of data acquisition, and further, the reproduction position acquired from the reproduction unit 101 and the input at that time Time information is attached so as to be associated with data.
  • the above is the description of the configuration for realizing the performance data recording function.
  • FIG. 3 is a diagram showing a repeated section specifying function in an embodiment of the present invention.
  • the repeated section identification function 200 includes a detection unit 201 and a classification unit 203.
  • the detection unit 201 analyzes a plurality of sounds included in reference data (in this example, melody data) to detect repeated sections.
  • the repeating section corresponds to a section having a predetermined repeating pattern among a plurality of sounds included in the melody data.
  • the detection unit 201 refers to information including the tone generation timing (for example, note-on time) and the note value (time from note-on to note-off) of each sound indicated by melody data, and uses autocorrelation. By specifying the repetition interval.
  • the detection unit 201 associates the identified repeated section with the reference data as evaluation section data, and records the result in the storage area 127 of the evaluation section data.
  • the start position and the end position of the repeated section are indicated by, for example, time information based on the start timing of the music.
  • the classification unit 203 classifies each sound as a group based on the characteristics of the sound when the sound can be classified into a plurality of types, for example, when sounds in different tone values are included in a plurality of sounds in the repeated section.
  • the group corresponding to each sound is recorded in the above-mentioned evaluation interval data.
  • repetitive patterns and an example of classification into groups are described.
  • FIG. 4 is a view for explaining an example of the repetition pattern of the evaluation section and an example of classifying sounds into groups in the embodiment of the present invention.
  • patterns 1, 2 and 3 are exemplified as the repetitive patterns.
  • the repeating section is not limited to the case of one bar as illustrated, but may include a plurality of bars.
  • the repeating section may not be a section in measure units. For example, 2/3 bars may be used as a unit.
  • the unit of repetition is not limited to the beat unit, and may be a multiple beat unit.
  • the repeating pattern is not limited to the case where the same sound is repeated, but may include different pitches.
  • the case where the change in pitch is included may be a case where the change in pitch has a predetermined repeat pattern in conjunction with the repeat pattern of the note value, or the link with the repeat pattern of the note value It may be the case that the pitch changes without being performed.
  • Pattern 1 is an example of repetition with quarter notes as one unit.
  • Pattern 2 is an example of repetition with an eighth note and an eight-minute rest as one unit.
  • Pattern 3 is an example of repetition in which a dotted eighth note and a sixteenth note constitute one unit.
  • each sound is classified as a single group (group 1) instead of a plurality of groups.
  • group 1 since the sound is only an eighth note, each sound is classified as a single group (group 1) as in the pattern 1.
  • the pattern 3 since sounds of different characteristics, that is, sounds of different tone values are included, the sounds are classified into different groups for each tone value.
  • dotted eighth notes are classified into group 1 (first group), and sixteenth notes are classified into group 2 (second group).
  • the number of groups is not limited to two, and may be classified into three or more more groups depending on the contents of the repetitive pattern. The above is the description of the configuration for realizing the repeated section identification function 200.
  • FIG. 5 is a diagram showing an evaluation function in an embodiment of the present invention.
  • the evaluation function 300 includes an evaluation target acquisition unit 301, a time acquisition unit 303, an interval acquisition unit 305, and an evaluation value calculation unit 307.
  • the evaluation target acquisition unit 301 acquires, from the performance data, a plurality of sounds included in the evaluation section (hereinafter, sometimes referred to as “evaluation target sounds”).
  • the evaluation interval is determined based on the repetition interval recorded in the evaluation interval data.
  • the performance data and the reference data are temporally associated with each other. Therefore, it is possible to specify a section (evaluation section) in the performance data from the repetition section determined based on the reference data.
  • each sound included in the repeated section in the reference data may be associated with one another when they are in a temporally overlapping positional relationship. If the sound of the performance data with respect to the reference data is largely deviated, the sound of the performance data associated with the sound of the reference data may not exist. In such a case, the evaluation function may be stopped on the assumption that there is no need to calculate an evaluation value.
  • the time acquisition unit 303 acquires a sound generation time and a mute time for each of the evaluation target sounds.
  • the interval acquisition unit 305 acquires the sound generation interval time for each of the evaluation target sounds. The sound production time, the sound dead time, and the sound production interval time will be described with reference to FIGS. 6 and 7.
  • FIG. 6 is a view for explaining the sound production time, the sound dead time and the sound production interval time in the first example of the repetitive pattern in the embodiment of the present invention.
  • FIG. 7 is a view for explaining the sound generation time, the mute time and the sound generation interval time in the second example of the repetitive pattern in the embodiment of the present invention.
  • the first example of the repetitive pattern shown in FIG. 6 corresponds to the pattern 3 described in FIG.
  • the second example of the repetitive pattern shown in FIG. 7 corresponds to the case where each sound shown in FIG. 6 is played staccato.
  • the scores in FIG. 6 and FIG. 7 show each sound corresponding to the reference data.
  • the figure described below the score schematically shows each sound corresponding to the performance data.
  • time t is shown in the horizontal direction, and each sound (note N1, N2, N3, N4) is shown.
  • Each sound (note N1, N2, N3, N4) is specified as a period from the time ts of the sound generation start (note on) to the time te of the sound generation end (note off).
  • the sound generation time for the note N1 corresponds to the time from the start of sound generation of the note N1 to silence.
  • the muting time for the note N1 corresponds to the time from when the note N1 is muffled to the next note N2 being sounded.
  • the sound generation interval time for the note N1 corresponds to the time from the start of sound generation of the note N1 to the start of sound generation of the note N2. Comparing FIG. 6 with FIG. 7, in FIG. 6, the sound generation time is much longer than the muffling time, while in FIG. 7, the sound generation time is much shorter than the muffling time. Regarding the pronunciation interval time, there is almost no difference between FIG. 6 and FIG. 7.
  • the sound generation time is represented as Tax, the muffling time as Tbx, and the sound generation interval time as Tcx.
  • x is 1 or 2 and corresponds to a group. That is, the sounds of the group 1 (notes N1 and N3) are represented as a sound generation time Ta1, a mute time Tb1, and a sound generation interval time Tc1.
  • the sounds of the group 2 (notes N2 and N4) are represented as a sound generation time Ta2, a noise reduction time Tb2, and a sound generation interval time Tc2.
  • the time ts at which the sound generation starts and the time te at the end of sound generation are specified by note-on and note-off.
  • the performance data is sound signal data
  • a plurality of sounds may be specified by analyzing the sound signal data. For example, the time ts of the start of sound generation of each sound and the time te of the end of sound generation may be specified based on the change of the sound wave-shaped envelope indicated by the sound signal data.
  • the time acquisition unit 303 and the interval acquisition unit 305 set, for example, a predetermined threshold, specify a period in which the value of the envelope is equal to or greater than the threshold as a sound generation period, and set the start time to ts and the end time to te. It should be identified as
  • the evaluation value calculation unit 307 calculates an indicator of variation (for example, a statistical value related to a variation such as a standard deviation or a variance) for each of the sound generation time and the muffling time acquired by the time acquisition unit 303.
  • an index of variation is calculated for each group.
  • the indicators Va1, Va2, Vb1, and Vb2 of variation are calculated.
  • the index Va1 is an index of the variation of the sounding time Ta1 corresponding to the plurality of sounds of the group 1.
  • the index Va2 is an index of the variation of the sounding time Ta2 corresponding to a plurality of sounds of the group 2.
  • the index Vb1 is an index of the variation of the silencing time Tb1 corresponding to a plurality of sounds of the group 1.
  • the index Vb2 is an index of the variation of the muffling time Tb2 corresponding to a plurality of sounds of the group 2.
  • the evaluation value calculation unit 307 calculates the indicators Vc1 and Vc2 of the variation for the sound generation interval time acquired by the interval acquisition unit 305.
  • the index Vc1 is an index of the variation of the tone generation interval time Tc1 corresponding to the plurality of sounds of the group 1.
  • the index Vc2 is an index of the variation of the tone generation interval time Tc2 corresponding to a plurality of sounds of the group 2.
  • the evaluation value calculation unit 307 calculates an evaluation value by a predetermined calculation method using the indicators Va1, Va2, Vb1, Vb2, Vc1, and Vc2.
  • the predetermined calculation method is defined in the evaluation reference data stored in the storage area 129 of the evaluation reference data.
  • the evaluation reference data is defined such that a higher evaluation value is calculated as each variation indicated by the indicators Va1, Va2, Vb1, Vb2, Vc1, and Vc2 is smaller.
  • the indicators may be weighted such that the influence on the evaluation value becomes large in some of the indicators. The weighting may be, for example, different depending on the group, or may be different depending on the difference between the sound production time, the silence time, and the sound production interval time.
  • a plurality of evaluation values may be calculated corresponding to each of the plurality of indices. Further, the evaluation value may be calculated using a part of the plurality of indices. In addition, an evaluation value may be calculated for each group. For example, an evaluation value (first evaluation value) calculated based on sounds belonging to group 1 and an evaluation value (second evaluation value) calculated based on sounds belonging to group 2 may be calculated. As described above, evaluations from various viewpoints can also be calculated as evaluation values.
  • the evaluation value calculation unit 307 When the evaluation value calculation unit 307 calculates an evaluation value, the evaluation value calculation unit 307 outputs this evaluation value. In this example, the output evaluation value is displayed, for example, on the display unit 14 as a screen indicating the evaluation result.
  • the output evaluation value is displayed, for example, on the display unit 14 as a screen indicating the evaluation result.
  • FIG. 8 is a flow chart for explaining an evaluation process according to an embodiment of the present invention.
  • the control unit 11 acquires an evaluation section in the performance data based on the evaluation data (step S301), and acquires an evaluation target sound included in the evaluation section among a plurality of sounds included in the performance data (step S303). .
  • the processes of steps S301 and S303 correspond to the process (evaluation object acquisition process) in the evaluation object acquisition unit 301.
  • the control unit 11 specifies, for each sound of the evaluation target sound, the time ts of the start of sounding and the time te of the end of sounding (step S311), and the sounding time Ta (Ta1, Ta2,. And) and the muffling time Tb (Tb1, Tb2,...) Are acquired (step S313).
  • the processes of steps S311 and S313 correspond to the process (time acquisition process) in the time acquisition unit 303.
  • the sound generation interval time Tc Tc1, Tc2,...) Is also acquired. This process corresponds to the process in the interval acquisition unit 305.
  • the control unit 11 sets an index Va (Va 1 for Ta 1, Va 2 for Ta 2,%) Which is a variation of the sound generation time Ta for each group and an index which is a variation of the muffling time Tb for each group.
  • Vb (Vb1 for Tb1, Vb2 for Tb2, ...) is calculated (step S321).
  • an index Vc (Vc1 for Tc1, Vc2 for Tc2,%) which is a variation of the sound generation interval time Tc (Tc1, Tc2,7) For each group is also calculated.
  • the control unit 11 calculates an evaluation value from the indicators Va, Vb, and Vc according to the calculation method defined in the evaluation reference data (step S323).
  • the processes of steps S321 and S323 correspond to the process (evaluation value calculation process) in the evaluation value calculation unit 307.
  • the evaluation process ends with the calculation of the evaluation value. The above is the description of the evaluation process.
  • the evaluation device 1 it is possible to evaluate the performance in the repetitive pattern in consideration of various viewpoints. For example, even if the time between the start time of each sound of the repeating pattern and the start time of the adjacent sound is equal, it can not be said that the performance is not always good if the ratio between the sounding time and the muffling time differs for each sound. In some cases. According to the evaluation device 1, it is also possible to evaluate such a performance, and it is possible to accurately evaluate a performance to be produced with a repetitive pattern.
  • the repeated section was detected by analyzing a plurality of sounds included in the reference data (melody data), but the information corresponding to the above-mentioned evaluation section data is the reference data It may be associated. In this case, the repeat section specifying function 200 may be omitted.
  • the evaluation section in the performance data is specified by specifying the repetition section from the reference data, but the evaluation section may be specified without using the reference data.
  • the evaluation data may be specified by analyzing the performance data and detecting repetitive patterns from a plurality of sounds included in the performance data. In this case, detection may be performed with lower autocorrelation than when detecting a repetitive pattern from reference data.
  • when classifying into groups take the distribution of the length of each sound (corresponding to the sounding time), and if there are multiple peaks in the distribution, set the number of groups according to the number of peaks, Each sound may be classified into groups based on the relationship between the position of each peak and the length of each sound.
  • the index of the variation of the sounding time is calculated using the sounding time itself corresponding to each sound, but the difference in the sounding time between adjacent notes in the same group It may be calculated using

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

一実施形態における評価装置は、演奏データに含まれる複数の音のうち、所定の評価区間に含まれる評価対象の複数の音を取得する評価対象取得部と、評価対象の複数の音のそれぞれについて、発音時間および消音してから次の発音までの消音時間を取得する時間取得部と、取得した発音時間および消音時間のばらつきに基づく評価値を算出する評価値算出部と、を備える。

Description

評価装置およびプログラム
 本発明は、繰り返し音の安定性を評価する技術である。
 楽器および歌唱などによる演奏(発音)を評価する様々な技術が開発されている。評価の一例として、例えば、特許文献1では、発音タイミングを用いた評価する技術が開示されている。
特開2016-95351号公報
 演奏には、様々な奏法が存在する。様々な奏法にあわせた評価技術の開発が望まれている。例えば所定の繰り返しパターンで発音する奏法は、演奏者の癖などが演奏として表現されやすいため、重要な評価対象として要素の一つとなり得る。一方、このような奏法を精度よく評価する手法は、いまだ検討されていない。
 本発明の目的の一つは、繰り返しパターンで発音する演奏を評価することにある。
 本発明の一実施形態によれば、演奏データに含まれる複数の音のうち、所定の評価区間に含まれる評価対象の複数の音を取得する評価対象取得部と、前記評価対象の複数の音のそれぞれについて、発音時間および消音してから次の発音までの消音時間を取得する時間取得部と、取得した前記発音時間および前記消音時間のばらつきに基づく評価値を算出する評価値算出部と、を備える評価装置が提供される。
 前記評価対象の複数の音は、少なくとも第1グループと第2グループとに分類され、前記評価値は、前記第1グループに属する複数の音における前記発音時間および前記消音時間のばらつきを示す第1評価値、および前記第2グループに属する複数の音における前記発音時間および前記消音時間のばらつきを示す第2評価値を含んでもよい。
 リファレンスデータに含まれる複数の音のうち、所定の繰り返しパターンを有する区間を、当該リファレンスデータにおける繰り返し区間として検出する検出部をさらに備え、前記評価対象取得部は、前記演奏データのうち、前記繰り返し区間に対応する区間を前記評価区間として特定してもよい。
 リファレンスデータに含まれる複数の音のうち、所定の繰り返しパターンを有する区間を、当該リファレンスデータにおける繰り返し区間として検出する検出部と、前記繰り返し区間に含まれる複数の音のうち、音の特徴に基づいて、前記第1グループの音と前記第2グループの音とに分類する分類部と、をさらに備え、前記評価対象取得部は、前記演奏データのうち、前記繰り返し区間に対応する区間を前記評価区間として特定してもよい。
 前記リファレンスデータを再生する再生部と、前記リファレンスデータを再生している間に行われた演奏を記録して前記演奏データとして記録する記録部と、をさらに備えてもよい。
 取得した前記複数の音のそれぞれについて、発音が開始してから次の発音が開始するまでの発音間隔時間を取得する間隔取得部をさらに備え、前記評価値は、さらに前記発音間隔時間のばらつきに基づいて算出されてもよい。
 前記演奏データに含まれる複数の音のそれぞれは、発音タイミングと消音タイミングとを規定する制御データに基づいて特定されてもよい。
 前記演奏データに含まれる複数の音のそれぞれは、音信号データを解析することによって特定されてもよい。
 また、本発明の一実施形態によれば、演奏データに含まれる複数の音のうち、所定の評価区間に含まれる評価対象の複数の音を取得し、前記評価対象の複数の音のそれぞれについて、発音時間および消音してから次の発音までの消音時間を取得し、取得した前記発音時間および前記消音時間のばらつきに基づく評価値を算出することをコンピュータに実行させるためのプログラムが提供される。
 本発明によれば、繰り返しパターンで発音する演奏を評価することができる。
本発明の一実施形態における評価装置の構成を示す図である。 本発明の一実施形態における演奏データ記録機能を示す図である。 本発明の一実施形態における繰り返し区間特定機能を示す図である。 本発明の一実施形態における評価区間の繰り返しパターンの例および音をグループに分類する例を説明する図である。 本発明の一実施形態における評価機能を示す図である。 本発明の一実施形態における繰り返しパターンの第1の例における発音時間、消音時間および発音間隔時間を説明する図である。 本発明の一実施形態における繰り返しパターンの第2の例における発音時間、消音時間および発音間隔時間を説明する図である。 本発明の一実施形態における評価処理を説明するフローチャートである。
 以下、本発明の一実施形態における評価装置について、図面を参照しながら詳細に説明する。以下に示す実施形態は本発明の実施形態の一例であって、本発明はこれらの実施形態に限定して解釈されるものではない。なお、本実施形態で参照する図面において、同一部分または同様な機能を有する部分には同一の符号または類似の符号(数字の後にA、B等を付しただけの符号)を付し、その繰り返しの説明は省略する場合がある。
<実施形態>
[1.評価装置]
 本発明の一実施形態における評価装置は、楽器または歌唱を用いたユーザによる演奏を評価する装置であって、特に、繰り返しパターンの演奏を評価する装置である。評価装置1は、伴奏音を再生し、その伴奏音に併せて演奏された音を記録し、その音における繰り返しパターンの演奏を評価する。繰り返しパターンは、この例では、後述する図4に示すように、同じ音が所定のリズムにしたがって繰り返されたパターンを示す。まず、評価装置1のハードウェア構成について説明する。
[2.評価装置のハードウェア構成]
 図1は、本発明の一実施形態における評価装置の構成を示す図である。評価装置1は、例えば、パーソナルコンピュータにおいてプログラムを実行することによって、所定の機能を実現することができる装置である。評価装置1は、制御部11、記憶部12、操作部13、表示部14、通信部15およびインターフェイス18を含む。これらの各構成は、バスを介して接続されている。また、この例では、インターフェイス18には、スピーカ21、マイクロフォン23および電子楽器25が接続されている。マイクロフォン23および電子楽器25は、いずれかのみが接続可能になっていてもよい。
 制御部11は、CPUなどの演算処理回路を含む。制御部11は、記憶部12に記憶された制御プログラムをCPUにより実行して、各種機能を評価装置1において実現させる。実現される機能には、演奏データ記録機能、繰り返し区間特定機能および評価機能を含む。演奏データ記録機能は、ユーザに対して伴奏音を提供しつつ、ユーザによる演奏の内容を演奏データとして記録するための機能を含む。繰り返し区間特定機能は、繰り返しパターンを評価する区間(評価区間)を特定するための機能を含む。評価機能は、演奏データのうち評価区間におけるデータに基づいて、評価値を算出するための機能を含む。これらの機能の具体的な実現方法については、それぞれ後述する。
 記憶部12は、不揮発性メモリ、ハードディスク等の記憶装置である。記憶部12は、制御プログラムの記憶領域121、リファレンスデータの記憶領域123、演奏データの記憶領域125、評価区間データの記憶領域127および評価基準データの記憶領域129を含む。なお、各データは、記憶部12に記憶される代わりに、有線または無線によって接続可能な外部記憶装置に記憶されていてもよい。
 制御プログラムは、コンピュータにより実行可能であればよく、磁気記録媒体、光記録媒体、光磁気記録媒体、半導体メモリなどのコンピュータ読み取り可能な記録媒体に記憶した状態で提供されてもよい。この場合には、評価装置1は、記録媒体を読み取る装置を備えていればよい。また、制御プログラムは、ネットワーク経由でダウンロードされてもよい。
 リファレンスデータは、ユーザが演奏すべき音(以下、「メロディ音」という)を時系列に示すメロディデータと、伴奏音とを時系列に示す伴奏データを含んでいる。リファレンスデータは、この例では、発音内容を時系列に規定する所定のデータ形式(例えばMIDI形式)で規定されたデータである。例えば、ノートナンバ、ノートオン、ノートオフおよびベロシティといった音源を制御するためのデータが時系列に規定されることによって、発音内容が特定される。例えば、ノートオンによって発音タイミングが示され、ノートオフによって消音タイミングが示される。
 演奏データは、ユーザによる演奏を記録したデータである。記録された演奏は、リファレンスデータと同様に音源の制御データであってもよいし、音信号データであってもよい。例えば、電子楽器25によってユーザの演奏が入力された場合には、制御データが演奏データとして記録される。また、マイクロフォン23に対してユーザの演奏による音が入力された場合には、音信号データが演奏データとして記録される。
 評価区間データは、繰り返し区間特定機能によって、リファレンスデータのメロディデータから特定された評価区間を示すデータである。評価区間に含まれる複数の音が複数のグループに分類されている場合には、各音と各グループとの対応関係についても評価区間データに含まれる。繰り返し区間特定機能、評価区間およびグループに関しては、後述する。
 評価基準データは、評価機能において演奏を評価するときの基準として用いる情報である。例えば、後述のようにして得られるばらつきの指標に基づいて評価値を算出するための演算式の情報等が含まれる。
 操作部13は、操作パネルおよびリモコンなどに設けられた操作ボタン、キーボード、マウスなどの入力装置であり、入力された操作に応じた信号を制御部11に出力する。この操作部13によって、ユーザの指示を評価装置1に入力することが可能となる。
 表示部14は、液晶ディスプレイ、有機ELディスプレイ等の表示装置であり、制御部11による制御に基づいた画面が表示される。この画面は、例えば、評価機能によって得られた評価値に基づいて表示される。なお、操作部13と表示部14とは一体としてタッチパネルを構成してもよい。通信部15は、制御部11の制御に基づいて、インターネットなどの通信回線と接続して、サーバ等の外部装置と情報の送受信を行う。なお、記憶部12の機能は、通信部15において通信可能な外部装置で実現されてもよい。
 インターフェイス18は、有線または無線により外部装置と接続してデータの送受信をするための構成を有する。上述したように、この例では、インターフェイス18に対して、スピーカ21、マイクロフォン23および電子楽器25が接続される。なお、上述したようにマイクロフォン23および電子楽器25の少なくとも一方は、存在しなくてもよい。
 スピーカ21は、制御部11の制御によって、インターフェイス18を介して音信号が提供され、音を出力する。この例では、例えば、伴奏データに基づく伴奏音が出力される。マイクロフォン23は、入力された音を電気信号(音信号データ)に変換し、インターフェイス18を介して制御部11に提供する。この例では、ユーザが楽器を演奏することによって生じた音がマイクロフォン23に入力される。電子楽器25は、例えば、操作子への操作に応じて音源が音信号を生成する楽器であって、例えば、電子ピアノである。この例では、電子ピアノである電子楽器25は、鍵(操作子)を用いた演奏の内容に対応した制御データを、インターフェイス18を介して制御部11に提供する。以上が、評価装置1のハードウェア構成についての説明である。
[3.評価装置のソフトウェア構成]
 評価装置1の制御部11が制御プログラムを実行することによって実現される機能(演奏データ記録機能、繰り返し区間特定機能および評価機能)について説明する。なお、以下に説明する機能を実現する構成の一部または全部は、ハードウェアによって実現されてもよい。
[3-1.演奏データ記録機能]
 図2は、本発明の一実施形態における演奏データ記録機能を示す図である。演奏データ記録機能100は、再生部101および記録部103を含む。再生部101は、リファレンスデータを読み出して、伴奏データに基づいて伴奏音を示す音信号をスピーカ21に出力する。これによって、スピーカ21から伴奏音が出力される。このとき、メロディデータについても再生して、スピーカ21からメロディ音も出力させてもよい。再生部101は、再生位置(時刻情報)を記録部103に出力する。
 記録部103は、再生部101においてリファレンスデータを再生している間に行われた演奏を演奏データとして記録する。記録部103は、マイクロフォン23から音信号データを取得した場合には、この音信号データを演奏データとして、演奏データの記憶領域125に記録する。記録部103は、電子楽器25から制御データを取得した場合には、この制御データを演奏データとして、演奏データの記憶領域125に記録する。このように記録される演奏データは、いずれの場合においても、データ取得時に再生部101において再生されたリファレンスデータと関連付けられ、さらに、再生部101から取得した再生位置と、そのときに入力されたデータとのが関連付けられるように時刻情報が付されている。以上が、演奏データ記録機能を実現するための構成についての説明である。
[3-2.繰り返し区間特定機能]
 図3は、本発明の一実施形態における繰り返し区間特定機能を示す図である。繰り返し区間特定機能200は、検出部201、分類部203を含む。検出部201は、リファレンスデータ(この例ではメロディデータ)に含まれる複数の音を解析して、繰り返し区間を検出する。繰り返し区間は、メロディデータに含まれる複数の音のうち、所定の繰り返しパターンを有する区間に対応する。この例では、検出部201は、メロディデータが示す各音の発音タイミング(例えば、ノートオンの時刻)および音価(ノートオンからノートオフまでの時間)を含む情報を参照し、自己相関を利用することによって繰り返し区間を特定する。検出部201は、特定した繰り返し区間を評価区間データとしてリファレンスデータと関連付けて、評価区間データの記憶領域127に記録する。繰り返し区間の開始位置と終了位置とは、例えば、曲の開始タイミングを基準とした時刻情報で示される。
 分類部203は、繰り返し区間における複数の音において、音価が異なる音が含まれている場合等、複数種類に分類できる場合に、音の特徴に基づいて各音をグループとして分類する。各音に対応するグループは上述の評価区間データに記録される。ここで、繰り返しパターンの例およびグループへの分類の例を説明する。
 図4は、本発明の一実施形態における評価区間の繰り返しパターンの例および音をグループに分類する例を説明する図である。ここでは、繰り返しパターンとして、パターン1、2、3を例示する。これらの例では、音高は変化しないものとし、音価に関して繰り返しパターンを示している。なお、繰り返し区間は、例示のように1小節の場合に限らず、複数の小節を含む場合もある。繰り返し区間は、小節単位の区間でなくてもよい。例えば、2/3小節等を単位としてもよい。また、繰り返しの単位はビート単位である場合に限らず、複数ビート単位であってもよい。さらに、繰り返しパターンは、同じ音を繰り返す場合に限らず、異なる音高を含んでいてもよい。すなわち、音高の変化も含めて繰り返しパターンと検出してもよい。このとき、音高の変化が含まれる場合とは、音価の繰り返しパターンと連動して、音高の変化が所定の繰り返しパターンを有する場合であってもよいし、音価の繰り返しパターンと連動せずに音高が変化する場合であってもよい。
 パターン1では、4分音符を1つの単位とした繰り返しの例である。パターン2では、8分音符と8分休符とを1つの単位とした繰り返しの例である。パターン3では、付点8分音符と16分音符とを1つの単位とした繰り返しの例である。パターン1では、全て同じ音であるため、複数のグループではなく、単一のグループ(グループ1)として各音が分類される。パターン2では、休符も含まれているが、音としては8分音符のみであるため、パターン1と同様に、単一のグループ(グループ1)として各音が分類される。一方、パターン3においては、異なる特徴の音、すなわち異なる音価の音が含まれているため、音価毎に異なるグループに各音が分類される。この例では、付点8分音符がグループ1(第1グループ)に分類され、16分音符がグループ2(第2グループ)に分類される。なお、グループは2つの場合に限らず、繰り返しパターンの内容によっては、3つ以上のより多くのグループに分類される場合もある。以上が、繰り返し区間特定機能200を実現するための構成についての説明である。
[3-3.評価機能]
 図5は、本発明の一実施形態における評価機能を示す図である。評価機能300は、評価対象取得部301、時間取得部303、間隔取得部305および評価値算出部307を含む。評価対象取得部301は、演奏データから評価区間に含まれる複数の音(以下、「評価対象音」という場合がある)を取得する。評価区間は、評価区間データに記録された繰り返し区間に基づいて決定される。
 上述したように、演奏データとリファレンスデータとは、時間的な関連付けがされている。したがって、リファレンスデータに基づいて決定された繰り返し区間から、演奏データにおける区間(評価区間)を特定することが可能である。また、リファレンスデータにおける繰り返し区間に含まれる各音と、演奏データにおける評価区間に含まれる各音とについても、関連付けすることが可能である。例えば、それぞれの音が時間的に重複する位置関係にある場合に、互いに関連付けられるようにしてもよい。なお、リファレンスデータに対する演奏データの音が大きくずれていると、リファレンスデータの音に関連付けられる演奏データの音が存在しない場合がある。このような場合には、評価値を算出する必要性がないものとして、評価機能を停止させてもよい。
 時間取得部303は、評価対象音のそれぞれについて、発音時間および消音時間を取得する。間隔取得部305は、評価対象音のそれぞれについて、発音間隔時間を取得する。発音時間、消音時間および発音間隔時間について、図6および図7を用いて説明する。
 図6は、本発明の一実施形態における繰り返しパターンの第1の例における発音時間、消音時間および発音間隔時間を説明する図である。図7は、本発明の一実施形態における繰り返しパターンの第2の例における発音時間、消音時間および発音間隔時間を説明する図である。図6に示す繰り返しパターンの第1の例は、図4において説明したパターン3に対応する。図7に示す繰り返しパターンの第2の例は、図6に示す各音を、スタッカートで演奏する場合に対応する。
 図6および図7における楽譜については、リファレンスデータに対応する各音を示したものである。一方、楽譜の下に記載した図は、演奏データに対応する各音を模式的に示したものである。この図では、横方向に時刻tを表し、各音(ノートN1、N2,N3、N4)を示したものである。各音(ノートN1、N2,N3、N4)は、発音開始(ノートオン)の時刻tsから発音終了(ノートオフ)の時刻teの間の期間として特定される。
 ノートN1に対する発音時間は、ノートN1の発音開始から消音までの時間に対応する。ノートN1に対する消音時間は、ノートN1が消音してから、次のノートN2が発音するまでの時間に対応する。ノートN1対する発音間隔時間は、ノートN1の発音開始から、ノートN2の発音開始までの時間に対応する。図6と図7とを比較すると、図6においては、発音時間が消音時間よりも大幅に長い一方、図7においては、発音時間が消音時間よりも大幅に短い。発音間隔時間については、図6と図7との違いは、ほとんどない。
 図6および図7においては、発音時間をTax、消音時間をTbx、発音間隔時間をTcxとして表している。xは、1または2であり、グループに対応している。すなわち、グループ1の音(ノートN1、N3)については、発音時間Ta1、消音時間Tb1、発音間隔時間Tc1として表している。一方、グループ2の音(ノートN2、N4)については、発音時間Ta2、消音時間Tb2、発音間隔時間Tc2として表している。
 なお、演奏データが制御データである場合には、ノートオンとノートオフとによって、各音の発音開始の時刻tsおよび発音終了の時刻teが特定される。一方、演奏データが音信号データである場合には、音信号データを解析することによって、複数の音が特定されればよい。例えば、音信号データが示す音波形のエンベロープの変化に基づいて、各音の発音開始の時刻tsおよび発音終了の時刻teが特定されればよい。時間取得部303および間隔取得部305は、例えば、所定の閾値を設定し、エンベロープの値がしきい値以上になっている期間を発音期間として特定し、その開始時刻をts、終了時刻をteとして特定すればよい。
 図5に戻って説明を続ける。評価値算出部307は、時間取得部303によって取得された発音時間および消音時間のそれぞれについて、ばらつきの指標(例えば、標準偏差、分散等のばらつきに関連した統計値)を算出する。このとき、各音が分類されたグループが複数である場合には、グループ毎にばらつきの指標を算出する。例えば、図6に示す例の場合、ばらつきの指標Va1、Va2、Vb1、Vb2が算出される。指標Va1は、グループ1の複数の音に対応する発音時間Ta1のばらつきの指標である。指標Va2は、グループ2の複数の音に対応する発音時間Ta2のばらつきの指標である。指標Vb1は、グループ1の複数の音に対応する消音時間Tb1のばらつきの指標である。指標Vb2は、グループ2の複数の音に対応する消音時間Tb2のばらつきの指標である。
 また、評価値算出部307は、間隔取得部305によって取得された発音間隔時間について、ばらつきの指標Vc1、Vc2を算出する。指標Vc1は、グループ1の複数の音に対応する発音間隔時間Tc1のばらつきの指標である。指標Vc2は、グループ2の複数の音に対応する発音間隔時間Tc2のばらつきの指標である。
 評価値算出部307は、指標Va1、Va2、Vb1、Vb2、Vc1、Vc2を用いた所定の演算方法により、評価値を算出する。上述したように、所定の演算方法は、評価基準データの記憶領域129に記憶された評価基準データに規定されている。このとき、評価基準データは、指標Va1、Va2、Vb1、Vb2、Vc1、Vc2が示す各ばらつきが小さいほど、高い評価値が算出されるように規定されている。このとき、一部の指標において評価値に与える影響が大きくなるように、指標に対して重み付けがされていてもよい。重み付けは、例えば、グループによって異ならせてもよいし、発音時間、消音時間および発音間隔時間の違いによって異ならせてもよい。なお、複数の指標のそれぞれに対応して複数の評価値が算出されてもよい。また、複数の指標の一部を用いて評価値が算出されてもよい。また、グループ毎に評価値が算出されてもよい。例えば、グループ1に属する音に基づいて算出される評価値(第1評価値)、およびグループ2に属する音に基づいて算出される評価値(第2評価値)が算出されてもよい。このように様々な観点での評価を評価値として算出することもできる。
 評価値算出部307は、評価値を算出すると、この評価値を出力する。この例では、出力された評価値は、例えば、表示部14において、評価結果を示す画面として表示される。以上が、評価機能300を実現するための構成についての説明である。
[4.評価処理]
 続いて、上述した評価機能300によって実行される評価処理について、図8を用いて説明する。評価処理は、ユーザの指示等によって開始される。
 図8は、本発明の一実施形態における評価処理を説明するフローチャートである。制御部11は、評価データに基づいて、演奏データにおける評価区間を取得し(ステップS301)、演奏データに含まれる複数の音のうち、評価区間に含まれる評価対象音を取得する(ステップS303)。ステップS301、S303の処理は、評価対象取得部301における処理(評価対象取得処理)に対応する。
 続いて、制御部11は、評価対象音の各音について、発音開始の時刻tsと発音終了の時刻teとを特定し(ステップS311)、各音に対して、発音時間Ta(Ta1、Ta2、・・・)および消音時間Tb(Tb1、Tb2、・・・)を取得する(ステップS313)。ステップS311、S313の処理は、時間取得部303における処理(時間取得処理)に対応する。なお、この例では、さらに発音間隔時間Tc(Tc1、Tc2、・・・)も取得される。この処理は、間隔取得部305における処理に対応する。
 続いて、制御部11は、グループ毎の発音時間Taのばらつきとなる指標Va(Ta1に対してVa1、Ta2に対してVa2、・・・)と、グループ毎の消音時間Tbのばらつきとなる指標Vb(Tb1に対してVb1、Tb2に対してVb2、・・・)とを算出する(ステップS321)。この例では、さらにグループ毎の発音間隔時間Tc(Tc1、Tc2、・・・)のばらつきとなる指標Vc(Tc1に対してVc1、Tc2に対してVc2、・・・)も算出される。制御部11は、評価基準データに規定された演算方法により、指標Va、Vb、Vcから評価値を算出する(ステップS323)。ステップS321、S323の処理は、評価値算出部307における処理(評価値算出処理)に対応する。評価値の算出によって評価処理が終了する。以上が、評価処理についての説明である。
 上述した評価装置1によれば、繰り返しパターンでの演奏について、様々な観点を考慮して評価することができる。例えば、繰り返しパターンの各音の開始時刻と隣接音の開始時刻との時間が均等になっていたとしても、発音時間と消音時間との割合が音毎に異なると、必ずしもよい演奏とはいえない場合もある。評価装置1によれば、このような演奏の評価も可能であり、繰り返しパターンで発音する演奏を精度よく評価することができる。
<変形例>
 以上、本発明の一実施形態について説明したが、本発明の一実施形態は、以下のように様々な形態に変形することもできる。また、以下に説明する変形例は互いに組み合わせて適用することもできる。
(1)上述した実施形態においては、繰り返し区間は、リファレンスデータ(メロディデータ)に含まれる複数の音を解析することによって検出されていたが、上述した評価区間データに対応する情報がリファレンスデータに関連付けられていてもよい。この場合には、繰り返し区間特定機能200は無くてもよい。
(2)上述した実施形態においては、リファレンスデータから繰り返し区間を特定することによって、演奏データにおける評価区間を特定していたが、リファレンスデータを用いずに評価区間が特定されるようにしてもよい。例えば、演奏データを解析して、演奏データに含まれる複数の音から繰り返しパターンを検出することによって評価区間を特定してもよい。この場合、リファレンスデータから繰り返しパターンを検出するときよりも、低い自己相関で検出されるようにしてもよい。また、グループに分類する場合には、各音の長さ(発音時間に対応)の分布をとり、分布において複数のピークを有する場合には、ピークの数に応じたグループの数を設定し、各ピークの位置と各音の長さとの関係に基づいて、各音をグループに分類してもよい。
(3)上述した実施形態においては、例えば、発音時間のばらつきの指標は、各音に対応する発音時間そのものを用いて算出されていたが、同じグループ内で隣り合うノート間の発音時間の差分を用いて算出されてもよい。
1…評価装置、11…制御部、12…記憶部、13…操作部、14…表示部、15…通信部、18…インターフェイス、21…スピーカ、23…マイクロフォン、25…電子楽器、100…演奏データ記録機能、101…再生部、103…記録部、121…制御プログラムの記憶領域、123…リファレンスデータの記憶領域、125…演奏データの記憶領域、127…評価区間データの記憶領域、129…評価基準データの記憶領域、200…繰り返し区間特定機能、201…検出部、203…分類部、300…評価機能、301…評価対象取得部、303…時間取得部、305…間隔取得部、307…評価値算出部

Claims (9)

  1.  演奏データに含まれる複数の音のうち、所定の評価区間に含まれる評価対象の複数の音を取得する評価対象取得部と、
     前記評価対象の複数の音のそれぞれについて、発音時間および消音してから次の発音までの消音時間を取得する時間取得部と、
     取得した前記発音時間および前記消音時間のばらつきに基づく評価値を算出する評価値算出部と、
     を備える評価装置。
  2.  前記評価対象の複数の音は、少なくとも第1グループと第2グループとに分類され、
     前記評価値は、前記第1グループに属する複数の音における前記発音時間および前記消音時間のばらつきを示す第1評価値、および前記第2グループに属する複数の音における前記発音時間および前記消音時間のばらつきを示す第2評価値を含む、請求項1に記載の評価装置。
  3.  リファレンスデータに含まれる複数の音のうち、所定の繰り返しパターンを有する区間を、当該リファレンスデータにおける繰り返し区間として検出する検出部をさらに備え、
     前記評価対象取得部は、前記演奏データのうち、前記繰り返し区間に対応する区間を前記評価区間として特定する、請求項1または請求項2に記載の評価装置。
  4.  リファレンスデータに含まれる複数の音のうち、所定の繰り返しパターンを有する区間を、当該リファレンスデータにおける繰り返し区間として検出する検出部と、
     前記繰り返し区間に含まれる複数の音のうち、音の特徴に基づいて、少なくとも前記第1グループの音と前記第2グループの音とに分類する分類部と、
     をさらに備え、
     前記評価対象取得部は、前記演奏データのうち、前記繰り返し区間に対応する区間を前記評価区間として特定する、請求項2に記載の評価装置。
  5.  前記リファレンスデータを再生する再生部と、
     前記リファレンスデータを再生している間に行われた演奏を記録して前記演奏データとして記録する記録部と、
     をさらに備える請求項3または請求項4に記載の評価装置。
  6.  取得した前記複数の音のそれぞれについて、発音が開始してから次の発音が開始するまでの発音間隔時間を取得する間隔取得部をさらに備え、
     前記評価値は、さらに前記発音間隔時間のばらつきに基づいて算出される、請求項1から請求項5のいずれかに記載の評価装置。
  7.  前記演奏データに含まれる複数の音のそれぞれは、発音タイミングと消音タイミングとを規定する制御データに基づいて特定される、請求項1から請求項6のいずれかに記載の評価装置。
  8.  前記演奏データに含まれる複数の音のそれぞれは、音信号データを解析することによって特定される、請求項1から請求項6のいずれかに記載の評価装置。
  9.  演奏データに含まれる複数の音のうち、所定の評価区間に含まれる評価対象の複数の音を取得し、
     前記評価対象の複数の音のそれぞれについて、発音時間および消音してから次の発音までの消音時間を取得し、
     取得した前記発音時間および前記消音時間のばらつきに基づく評価値を算出すること
     をコンピュータに実行させるためのプログラム。
PCT/JP2017/040077 2017-11-07 2017-11-07 評価装置およびプログラム WO2019092780A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/040077 WO2019092780A1 (ja) 2017-11-07 2017-11-07 評価装置およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/040077 WO2019092780A1 (ja) 2017-11-07 2017-11-07 評価装置およびプログラム

Publications (1)

Publication Number Publication Date
WO2019092780A1 true WO2019092780A1 (ja) 2019-05-16

Family

ID=66439173

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/040077 WO2019092780A1 (ja) 2017-11-07 2017-11-07 評価装置およびプログラム

Country Status (1)

Country Link
WO (1) WO2019092780A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002215144A (ja) * 2001-01-22 2002-07-31 Yamaha Corp 演奏者及び楽器の認証方法、楽器及び楽器の制御方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002215144A (ja) * 2001-01-22 2002-07-31 Yamaha Corp 演奏者及び楽器の認証方法、楽器及び楽器の制御方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YATSUI AKIO ET AL.: "An mix down assistant interface with reuse of an example", PROCEEDING OF INTERACTION 2005, January 2005 (2005-01-01) - 1 March 2005 (2005-03-01), pages 3, XP055608927 *

Similar Documents

Publication Publication Date Title
CN101123085B (zh) 和弦名检测装置以及和弦名检测用方法
JP4767691B2 (ja) テンポ検出装置、コード名検出装置及びプログラム
JP4916947B2 (ja) リズム検出装置及びリズム検出用コンピュータ・プログラム
CN111052223B (zh) 播放控制方法、播放控制装置及记录介质
US10504498B2 (en) Real-time jamming assistance for groups of musicians
JP6759545B2 (ja) 評価装置およびプログラム
JP2009104097A (ja) 採点装置及びプログラム
JP5229998B2 (ja) コード名検出装置及びコード名検出用プログラム
US11694665B2 (en) Sound source, keyboard musical instrument, and method for generating sound signal
CN108292499A (zh) 技巧确定装置和记录介质
WO2021166531A1 (ja) 推定モデル構築方法、演奏解析方法、推定モデル構築装置、および演奏解析装置
Bloit et al. Modeling and segmentation of audio descriptor profiles with segmental models
JP3577561B2 (ja) 演奏分析装置及び演奏分析方法
JP4932614B2 (ja) コード名検出装置及びコード名検出用プログラム
WO2019092791A1 (ja) データ生成装置およびプログラム
WO2019092780A1 (ja) 評価装置およびプログラム
JP5153517B2 (ja) コード名検出装置及びコード名検出用コンピュータ・プログラム
JP2009014802A (ja) コード名検出装置及びコード名検出用プログラム
JP2007240552A (ja) 楽器音認識方法、楽器アノテーション方法、及び楽曲検索方法
JP2011053590A (ja) 音響処理装置およびプログラム
WO2023182005A1 (ja) データ出力方法、プログラム、データ出力装置および電子楽器
JP2007225916A (ja) オーサリング装置、オーサリング方法およびプログラム
JP2000330580A (ja) カラオケ装置
JP6252421B2 (ja) 採譜装置、及び採譜システム
JP4159961B2 (ja) カラオケ装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17931103

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17931103

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP