WO2004051622A1 - 楽曲データ作成装置及び方法 - Google Patents

楽曲データ作成装置及び方法 Download PDF

Info

Publication number
WO2004051622A1
WO2004051622A1 PCT/JP2003/014365 JP0314365W WO2004051622A1 WO 2004051622 A1 WO2004051622 A1 WO 2004051622A1 JP 0314365 W JP0314365 W JP 0314365W WO 2004051622 A1 WO2004051622 A1 WO 2004051622A1
Authority
WO
WIPO (PCT)
Prior art keywords
chord
candidate
frequency
equal
candidates
Prior art date
Application number
PCT/JP2003/014365
Other languages
English (en)
French (fr)
Inventor
Shinichi Gayama
Original Assignee
Pioneer Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corporation filed Critical Pioneer Corporation
Priority to CN2003801045368A priority Critical patent/CN1717716B/zh
Priority to US10/535,990 priority patent/US7335834B2/en
Priority to AU2003280741A priority patent/AU2003280741A1/en
Priority to DE60315880T priority patent/DE60315880T2/de
Priority to EP03772700A priority patent/EP1569199B1/en
Publication of WO2004051622A1 publication Critical patent/WO2004051622A1/ja
Priority to HK06102629A priority patent/HK1082586A1/xx

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/38Chord
    • G10H1/383Chord detection and/or recognition, e.g. for correction, or automatic bass generation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G3/00Recording music in notation form, e.g. recording the mechanical operation of a musical instrument
    • G10G3/04Recording music in notation form, e.g. recording the mechanical operation of a musical instrument using electrical means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/066Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/571Chords; Chord sequences
    • G10H2210/576Chord progression

Definitions

  • the present invention relates to a music data creation device and method for creating data indicating music.
  • a non-harmonic note is removed from a note component included in each time signature based on music information (note information of a musical score) which has been converted into a note in advance.
  • the chord is determined from the note components, and data indicating the chord progression of the music is created.
  • the problems to be solved by the present invention include, for example, the above-mentioned problems, and a music data creation apparatus and method for detecting a chord progression of a music based on an audio signal indicating a music sound and converting it into data. It is an object of the present invention to provide The music data creation device of the present invention comprises: frequency conversion means for converting an input audio signal indicating a music into a frequency signal indicating the magnitude of a frequency component at predetermined time intervals; and a frequency obtained by the frequency conversion means.
  • a component extracting means for extracting a frequency component corresponding to each sound of equal temperament from the signal at the predetermined time intervals, and a level sum of the frequency components corresponding to each sound extracted by the component extracting means being large.
  • a chord candidate detecting means for detecting two chords respectively formed by a set of three frequency components as first and second chord candidates; first and second chord candidates repeatedly detected by the chord candidate detecting means
  • smoothing means for smoothing each column to generate music data.
  • the music data creation method of the present invention converts an input audio signal indicating a music into a frequency signal indicating the magnitude of a frequency component at predetermined time intervals, and converts a frequency component corresponding to each sound of equal temperament from the frequency signal.
  • the two chords formed by a set of three frequency components whose level sum is large among the frequency components corresponding to the extracted sounds are extracted at predetermined time intervals.
  • the method is characterized in that music data is generated by detecting as a chord candidate and performing smoothing processing on each of the columns of the first and second chords.
  • a program according to the present invention is a computer-readable program for executing a method of creating music data in response to an input audio signal indicating a music, wherein the input audio signal indicates a magnitude of a frequency component at predetermined time intervals.
  • a frequency conversion step of converting to a frequency signal, a component extraction step of extracting a frequency component corresponding to each sound of the average chapter from the frequency signal obtained in the frequency conversion step at every predetermined time, and the component extraction step Frequency components corresponding to each sound extracted by A chord candidate detection step of detecting two chords respectively formed by a set of three frequency components of which the sum of the levels is large as a first and a second chord candidate; and a repetition detection by the chord candidate detection step described above.
  • FIG. 1 is a block diagram showing a configuration of a music processing system to which the present invention is applied.
  • FIG. 2 is a flowchart showing the frequency error detection operation.
  • FIG. 3 is a diagram showing the frequency ratio of each of the 12 sounds and the 1-octave higher sound A when the sound A is assumed to be 1.0.
  • FIG. 4 is a flowchart showing the main process of the chord analysis operation.
  • FIG. 5 is a diagram showing an example of the intensity level of each sound component of the band data.
  • FIG. 6 is a diagram showing an example of the intensity level of each sound component of the band data.
  • FIG. 7 is a diagram showing conversion of a chord consisting of four notes into a chord consisting of three notes.
  • FIG. 8 is a diagram showing a recording format in the temporary storage memory.
  • 9A to 9C are diagrams showing the notation method of the attributes of the fundamental tone and the chord, and the notation method of the chord catcher.
  • FIG. 10 is a flowchart showing post-processing of the chord analysis operation.
  • FIG. 11 is a diagram showing a temporal change of the first and second chord candidates before the smoothing process.
  • FIG. 12 is a diagram showing a temporal change of the first and second chord candidates after the smoothing process.
  • FIG. 13 is a diagram showing a temporal change of the first and second chord candidates after the replacement process.
  • Figs. 14 to 14D show the method of creating chord progression music data and its format.
  • FIG. 15 is a block diagram showing a configuration of a music processing system as another embodiment of the present invention.
  • FIG. 1 shows a music processing system to which the present invention is applied.
  • This music processing system consists of a microphone input device 1, a line input device 2, a music input device 3, an operation input device 4, an input switching switch 5, an analog Z-to-digital converter 6, a chord analyzer 7, and a data storage device 8. , 9, a temporary storage memory 10, a chord progression comparison device 11, a display device 12, a music reproduction device 13, a digital / analog conversion device 14, and a speaker 15.
  • the microphone input device 1 is capable of collecting music sound with a microphone, and outputs an analog audio signal indicating the collected music sound.
  • a disk player or a tape recorder is connected to the line input device 2 so that an analog audio signal indicating a music sound can be input.
  • the music input device 3 is connected to the chord analysis device 7 and the data storage device 8 and is a device for reproducing a digitized audio signal (for example, 'PCM data), and is, for example, a CD player.
  • the operation input device 4 is a device for the user to operate the system and input data and commands. The output of the operation input device 4 is connected to an input switching switch 5, a chord analysis device 7, a chord progression comparison device 11, and a music reproduction device 13.
  • the input switching switch 5 selectively supplies the output signal of one of the microphone input device 1 and the line input device 2 to the analog Z-to-digital converter 6. input The switching operation of the switching switch 5 is executed in response to a command from the operation input device 4.
  • the analog / digital conversion device 6 is connected to the chord analysis device 7 and the data storage device 8, digitizes an analog audio signal, and supplies the digitized audio signal to the data storage device 8 as music data.
  • the data storage device 8 stores the supplied music data (PCM data) as a file in the analog Z digital converter 6 and the music input device 3.
  • the chord analyzer 7 analyzes a chord of the supplied music data by a chord analysis operation described later. Each chord of the music data analyzed by the chord analyzer 7 is temporarily stored in the temporary storage memory 10 as first and second chord candidates. The chord progression music data analyzed by the chord analysis device 7 is stored in the data storage device 9 as a finale for each music.
  • the chord progression comparison device 11 1 compares the chord progression music data to be searched with the chord progression music data stored in the data storage device 9 and generates chord progression music data having a high similarity to the search target chord progression music data. To detect.
  • the display device 12 displays the result of comparison by the chord progression comparison device 11 as a music list.
  • the music reproduction device 13 reads out the data file of the music detected as having the highest similarity by the chord progression comparison device 11 from the data storage device 8, reproduces the data file, and sequentially outputs it as a digital audio signal.
  • the digital / analog conversion device 14 converts the digital audio signal reproduced by the music reproduction device 13 into an analog audio signal.
  • Each of the chord analysis device 7, the chord progression comparison device 11 and the music reproduction device 1'3 operates according to a command from the operation input device 4. Next, the operation of the music processing system having such a configuration will be described.
  • an analog audio signal indicating the music sound is supplied from the line input device 2 to the analog-to-digital converter 6 via the input switch 5 and converted into a digital signal there, and then supplied to the chord analyzer 7. Suppose it was done.
  • the above-mentioned chord analysis operation includes pre-processing, main processing and post-processing.
  • the chord analyzer 7 performs a frequency error detection operation as preprocessing.
  • the time variable T and the band data F (N) are initialized to 0, and the range of the variable N is initialized to 13 to 3 ( Step S 1).
  • the frequency information f (T) is obtained by performing frequency conversion on the input digital signal at an interval of 0.2 seconds by Fourier transform (step S2).
  • the moving average processing is performed using the current f (T), the previous f (T_1), and the previous f (T-2) (step S3).
  • the frequency information of the past two times is used, assuming that the chord changes little within 0.6 seconds.
  • the moving average processing is calculated by the following equation.
  • f (T) (f (T) + f (T-1) /2.0 + f (T-2) /3.0) /3.0
  • step S3 the variable N is set to -3 (step S4), and it is determined whether or not the variable N is smaller than 4 (step S5). If N ⁇ 4, frequency components f 1 (T) to f 5 (T) are extracted from the frequency information f (T) after the moving average processing (steps S 6 to S 10).
  • the frequency components f 1 (T) to f 5 (T) are those of 12 tones of equal temperament for 5 octaves with (1 1 0.0 + 2 ⁇ ) ⁇ as the fundamental frequency. is there.
  • the 12 tones are A, A #, B, C, C #, D, D #, E, F, F #, G, G #. Fig.
  • step S 6 is A sound as (1 10.0 + 2 XN) Hz
  • f 2 (T) of step S 7 is A sound as 2 X (1 1 0.0 + 2 XN) Hz
  • F 3 (T) of step S 8 shifts the A sound by 4 X (1 10.0 + 2 XN) Hz
  • f 4 (T) of step S 9 shifts the A sound to 8 X (1 10. 0 + 2 XN) Hz
  • f 5 (T) in step S 10 sets the A sound to 16 X (1 10.0 + 2 XN) Hz.
  • each of the frequency components fl (T) to f5 (T) is individually weighted and then added.
  • One octave band data F '( ⁇ ) is added to band data F ( ⁇ ) (step S12). Thereafter, 1 is added to the variable ⁇ (step S13), and step S5 is executed again.
  • steps S6 to S13 are repeated as long as it is determined in step S5 that N is smaller than 4, that is, in the range of 1 to 3 + 3.
  • the sound component F (N) becomes a frequency component for one octave including a pitch error in the range of 13 to 13.
  • step S5 If it is determined in step S5 that N ⁇ 4, it is determined whether or not the variable T is smaller than a predetermined value M (step S14). If T ⁇ M, 1 for variable T Is added (step SI5), and step S2 is executed again. Band data F (N) for each variable N is calculated for frequency information f (T) obtained by frequency conversion for M times.
  • step S14 If it is determined in step S14 that T ⁇ M, F (N) in which the sum total of each frequency component of the band data F (N) for one octave for each variable N is the maximum value is detected. And the N of the detected F (N) is set as the error value X (step S16).
  • the pitch of the whole music sound such as the sound of the orchestra has a certain difference from the equal temperament, it is compensated and the main processing of the chord analysis described later is performed. Can be.
  • the main processing of the chord analysis operation is performed. Note that if the error value X is already known or the error can be ignored, the preprocessing may be omitted.
  • the input digital signal is supplied to the chord analyzer 7 from the beginning of the music.
  • the frequency information f (T) is obtained by performing frequency conversion on the input digital signal at an interval of 0.2 seconds by Fourier transform (step S 21).
  • This step S21 corresponds to frequency conversion means.
  • a moving average process is performed by using the current f (T), the previous f (T-1), and the immediately preceding f (T-1 2) (step S22). Steps S21 and S22 are performed in the same manner as steps S2 and S3 described above.
  • frequency components f1 (T) to f5 (T) are extracted from the frequency information f (T) after the moving average processing (steps S23 to S27).
  • the frequency components f1 (T) to f5 (T) are (1 10.0 +
  • F 1 (T) in step S23 sets the A sound to (1 10.0 + 2 XN) Hz
  • f 2 (T) in step S 24 sets the A sound to 2 X (1 10.0 + 2 XN) Hz.
  • F 3 (T) in step S 25 sets the A sound to 4 X (1 10.0 + 2 XN) Hz
  • f 4 (T) in step S 26 changes the A sound to 8 X (1 10.0 + 2 XN) Hz
  • f5 (T) in step S27 sets the sound A to 16 X (1 10.0 + 2 XN) Hz.
  • N is X set in step S16.
  • step S28 After the execution of steps S23 to S27, the frequency components f1 (T) to f5 (T) are converted into band data F, ( ⁇ ) for one octave (step S28).
  • This step S28 is also executed by using the equation (2) in the same manner as the above step S I1.
  • the band data F '(T) includes each sound component. Steps S23 to S28 correspond to the component extracting means.
  • step S28 After execution of step S28, six tones are selected as candidates from among the sound components in the band data F '(T) having the highest intensity level (step S29), and two tones are selected from the six candidates.
  • Two chords Ml and M2 are created (step S30).
  • a chord consisting of three tones is created, with one of the six tonics taken as the root (root). That is, the chords of the three combinations of 6 C are considered.
  • the levels of the three tones that make up each chord are added, the chord with the largest sum is the first chord candidate Ml, and the chord with the second largest sum is the second chord candidate Ml It is 2.
  • each sound component of the band data F '(T) indicates an intensity level for one or two sounds as shown in FIG. 5, in step S29, six sounds A, E, C, G, B and D are selected. Is performed.
  • the triad created from three of the six notes A, E, C, G, B, and D is (A, Chord Am composed of (tones C, E, G), Chord Em composed of (tones E, B, G), Chord G composed of (tones G, B, D),... Like ...
  • step S30 the total intensity level 12 of the chord Am is maximized, so that the chord Am is set as the first chord candidate Ml, and the total intensity level 7 of the chord C is the second largest, so the second chord candidate Chord C is set as M2.
  • each sound component of the band data F '(T) indicates an intensity level for one or two sounds as shown in FIG. 6, in step S29, six sounds C, G, A, E, B and D are determined. Is selected.
  • the three chords created from three of the six tones C, G, A, E, B, and D are the chord C composed of (sounds C, E, G) and the chord composed of (A, C, E) Am, chord Em composed of (sounds E, B, G), chord G composed of (sounds G, B, D), etc.
  • the total intensity level of chord C (tones C, E, G) is 11, the total intensity level of chord Am (tones A, C, E) is 10, and the total intensity level of chord Em (tones E, B, G) is Les is 7, and the total intensity level of chord G (sounds G, B, D) is 6. Therefore, in step S30, the total intensity level 11 of the chord C becomes the maximum, and thus the chord C is set as the first chord candidate Ml. Since the total intensity level 10 of the chord Am is the second largest, the second chord is Chord Am is set as candidate M2.
  • the notes that make up a chord are not limited to three, but there are also four tones such as Seventh ⁇ Diminished Seventh. As shown in Fig. 7, a chord consisting of four notes is classified into two or more chords consisting of three notes. Therefore, even for a chord consisting of four notes, Similarly to a chord, two chord candidates can be set according to the intensity level of each sound component of the band data F '(T).
  • step S30 After executing step S30, it is determined whether or not the number of chord candidates set in step S30 is present (step S31). In step S30, if there is no difference between the intensity levels at which at least three tones are selected, no chord candidate is set at all, so the determination in step S31 is performed. The case is the number of chord candidates> 0, further, the number of chord candidates is determined whether it is greater than 1 (step S 32) 0
  • step S31 If it is determined in step S31 that the number of chord candidates is 0, the previous T-1-1 (approximately
  • step S32 If it is determined in step S32 that the number of chord candidates is greater than 1, both the first and second chord candidates M1 and M2 are set in the execution of step S30. And the second chord candidates Ml and M2 are stored in the hour storage memory 10 (step S35).
  • the temporary storage memory 10 stores the time and the first chord candidate M as shown in FIG.
  • the second chord candidate M2 is stored as a set.
  • the time is the number of executions of this processing represented by T which increases every 0.2 seconds.
  • the first and second chord candidates M 1 and M 2 are stored in the order of T. Specifically, in order to store each chord candidate in the temporary storage memory 10 in one bit as shown in FIG. 8, a combination of a basic tone and its attribute is used. Twelve tones of equal temperament are used for the fundamental tone, and the major ⁇ 4, 3 ⁇ , minor ⁇ 3, 4 ⁇ , seventh candidate ⁇ 4, 6 ⁇ , and diminished seventh (dim 7) candidate ⁇ 3, 3 ⁇ ⁇ Chord type is used. The number in ⁇ is the difference between three tones when one semitone is assumed.
  • the Seventh candidates are ⁇ 4, 3, 3 ⁇ and Diminish Seventh (dim7) candidate ⁇ 3, 3, 3 ⁇ , but they are displayed as above to show them with three sounds.
  • the 12 basic tones are represented by 16 bits (hexadecimal notation) as shown in Fig. 9A, and the chords of the attribute are similarly represented by 16 bits (hexadecimal notation) as shown in Fig. 9B. expressed.
  • the lower 4 bits of the fundamental tone and the lower 4 bits of the attribute are concatenated in that order and used as chord candidates as 8 bits (1 byte) as shown in Figure 9C.
  • Step S35 is also executed immediately after executing step S33 or S34.
  • step S36 it is determined whether or not the music has ended. For example, when there is no input analog audio signal, or when there is an operation input from the operation input device 4 indicating the end of the music, it is determined that the music has ended. This ends the process.
  • Step S21 is executed again.
  • Step S21 is executed at intervals of 0.2 seconds as described above, and is executed again after elapse of 0.2 seconds from the previous execution.
  • all the first and second chord candidates from the temporary storage memory 10 are set as Ml (0) to M1 (R) and M2 (0) to M2 (R).
  • Read (Step S41). 0 is the start time, and the first and second chord candidates at the start time are M 1 (0) and M 2 (0).
  • R is the last time, and the first and second chords of the last time are M 1 (R) and M 2 (R).
  • Smoothing is performed on the read first chord signatures M 1 (0) to M 1 (R) and the second chord candidates M 2 (0) to M 2 (R) (step S42). This smoothing is performed to eliminate errors due to noise included in the chord candidates by detecting the chord candidates at intervals of 0.2 seconds regardless of the chord change time.
  • first chord candidates Ml (t-1), Ml (t), Ml (t + 1), Ml (t-1) ⁇ M1 (t) and M1 ( It is determined whether or not the relationship of t) ⁇ Ml (t + 1) is established. If the relationship is established, Ml ( ⁇ + 1) is made equal to Ml (t). This determination is made for each first chord candidate. Smoothing is performed for the second chord candidate in the same manner. Instead of making Ml (t) equal to Ml (t + 1), Ml (t + 1) may be made equal to Ml (t). After the smoothing, the first and second chord candidates are replaced (step S43). In general, chords are unlikely to change during short periods, such as 0.6 seconds.
  • step S43 is performed to deal with this.
  • five consecutive first chord candidates Ml (t-2), Ml (t-1), M1 (t), Ml (t + 1), Ml (t + 2) and the corresponding five consecutive second chord candidates M2 (t-2), M2 (t-1), M2 (t), M2 (t + 1), M2 (t + 2) The following determination is performed.
  • chords may be exchanged between Ml (t + 2) and M2 (t + 2) instead of the chords exchanged between Ml (t-2) and M2 (t-2) .
  • Ml (t_2) Ml (t + 1)
  • M2 (t-2) M2 (t + 1)
  • chords of the first chord candidates Ml (0) to M1 (R) and the second chord candidates M2 (0) to M2 (R) read in step S41 are, for example, as shown in FIG. If it changes with time, it is corrected as shown in FIG. 12 by averaging in step S42. Further, by changing the chords in step S43, the change in the chords of the first and second chord candidates is corrected as shown in FIG. FIGS. 11 to 13 show time changes of chords as line graphs, and the vertical axis is a position corresponding to the type of chord.
  • 2 Sum of (R) M2 (t) at time t when the sound changes is detected (step S44), and the detected time t (4 bytes) and chord (4 bytes) are data for each of the first and second chord candidates. It is stored in the storage device 9 (step S45).
  • the data for one song stored in step S45 is chord progression song data. Steps S41 to S45 correspond to a smoothing unit.
  • Fig. 14B shows the data content at the time of the change of the first chord capture.
  • F is a chord in F, G, D, and B, and they are 0x08, 0x0a, 005, as hexadecimal data. It is represented as 0x01, 0x08.
  • the times at the change point t are T 1 (0), T 1 (1), T 1 (2), T 1 (3), and T 1 (4).
  • Figure 14C shows the data content at the time of the change of the second chord capture, and C, BF # m, and BC are the chords, and they are 0x03, 0x01, 0x29 as hexadecimal data. , 0x01, 0x03.
  • the times at the change point t are T 2 (0), T 2 (1), T 2 (2), T 2 (3), and T 2 (4).
  • the data contents shown in FIGS. 14B and 14C are stored as one file in the data storage device 9 in step S45 in the format shown in FIG.
  • the chord-advancing music data is stored in the data storage device 9 as a file for each of a plurality of music pieces.
  • the chord progression music data is accumulated in the data storage device 9.
  • the data storage device 8 stores music data composed of PCM signals corresponding to the chord progression music data of the data storage device 9.
  • step S44 the first chord candidate when the chord of the first chord candidate changes and the second chord candidate when the chord of the second chord candidate changes are detected. Since it becomes chord progression music data, the capacity per music can be reduced compared to compressed data such as MP3, and the data of each music can be processed at high speed.
  • chord progression music data written in the data storage device 9 is chord data that is temporally synchronized with the actual music, so that only the first chord capture, or the first chord candidate and the second chord candidate, If a chord is actually generated by the music reproduction device 13 using the logical sum output of the music, the accompaniment of the music becomes possible.
  • FIG. 15 shows another embodiment of the present invention.
  • the chord analysis device 7, the temporary storage memory 10, and the chord progression comparison device 11 in the system in FIG. 1 are formed by the computer 21.
  • the computer 21 executes the above-described chord analysis operation according to the program stored in the storage device 22.
  • the storage device 22 is not limited to a hard disk drive, and may be a drive device for a recording medium. In the case of a drive device for the recording medium, chord progression music data may be written to the recording medium.
  • the digital audio signal is not limited to the PCM signal, but may be a signal corresponding to a compressed file such as MP3. If information on a frequency domain having a frequency resolution satisfying the equal-tempered frequency width can be obtained when decoding the compressed file, frequency conversion such as Fourier transform can be omitted.
  • the chord of the music based on the audio signal indicating the music sound is provided.
  • the progress can be detected and the data characterized by the chord progression can be easily obtained accordingly.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

楽曲を示す入力オーディオ信号を所定の時間毎に周波数成分の大きさを示す周波数信号に変換し、その周波数信号から平均律の各音に対応した周波数成分を所定の時間毎に抽出し、抽出した各音に対応した周波数成分のうちのレベル合計が大となる3つの周波数成分の組によって各々形成される2つの和音を第1及び第2和音候補として検出し、検出した第1及び第2和音候補各々の列を平滑化処理して楽曲データを生成する楽曲データ作成装置及び方法。

Description

明細書 楽曲データ作成装置及ぴ方法 技術分野
本発明は、楽曲を示すデータを作成する楽曲データ作成装置及び方法に関する。 背景技術
楽曲の和音を認識して楽曲を和音の変化、 すなわち和音進行としてデータ化す る装置としては、 特開平 5— 2 8 9 6 7 2号公報に示されたものがある。
この公報に示された装置においては、 予め音符化された楽曲情報 (楽譜の音符 情報) に基づいて拍子毎に含まれる音符成分から、 或いはその音符成分から非和 声音の音符を取り除いた後の音符成分から和音を判断してその楽曲の和音進行を 示すデータを作成することが行われる。
しかしながら、 かかる従来の楽曲データ作成装置においては、 和音を解析でき る拍子が予め知られた楽曲だけに限られ、 また拍子が不明の楽曲音からその和音 進行を示すデータを作成することはできないという欠点があった。
また、 楽曲の和音をその楽曲音を示すオーディオ信号から解析して和音進行と してデータ化することは従来の楽曲処理装置では不可能であった。
発明の開示
本発明が解決しょうとする課題には、 上記の問題点が一例として挙げられ、 楽 曲音を示すオーディオ信号に基づいて楽曲の和音進行を検出してそれをデータ化 する楽曲データ作成装置及び方法を提供することが本発明の目的である。 本発明の楽曲データ作成装置は、 楽曲を示す入力オーディオ信号を所定の時間 毎に周波数成分の大きさを示す周波数信号に変換する周波数変換手段と、 前記周 波数変換手段によつて得られた周波数信号から平均律の各音に対応した周波数成 分を前記所定の時間毎に抽出する成分抽出手段と、 前記成分抽出手段によって抽 出された各音に対応した周波数成分のうちのレベル合計が大となる 3つの周波数 成分の組によって各々形成される 2つの和音を第 1及び第 2和音候補として検出 する和音候補検出手段と、 前記和音候補検出手段によって繰り返し検出された第 1及び第 2和音候補各々の列を平滑化処理して楽曲データを生成する平滑化手段 と、 を備えたことを特徴としている。
本発明の楽曲データ作成方法は、 楽曲を示す入力オーディオ信号を所定の時間 毎に周波数成分の大きさを示す周波数信号に変換し、 前記周波数信号から平均律 の各音に対応した周波数成分を前記所定の時間毎に抽出し、 その抽出した各音に 対応した周波数成分のうちのレベル合計が大となる 3つの周波数成分の組によつ て各々形成される 2つの和音を第 1及び第 2和音候補として検出し、 前記第 1及 ぴ第 2和音候捕各々の列を平滑化処理して楽曲データを生成することを特徴とし ている。
本発明のプログラムは、 楽曲を示す入力オーディォ信号に応じて楽曲データを 作成する方法を実行するコンピュータ読取可能なプログラムであって、 前記入力 オーディオ信号を所定の時間毎に周波数成分の大きさを示す周波数信号に変換す る周波数変換ステツプと、 前記周波数変換ステップによって得られた周波数信号 から平均章の各音に対応した周波数成分を前記所定の時間毎に抽出する成分抽出 ステップと、 前記成分抽出ステツプによって抽出された各音に対応した周波数成 分のうちのレベル合計が大となる 3つの周波数成分の組によって各々形成される 2つの和音を第 1及び第 2和音候補として検出する和音候補検出ステップと、 前 記和音候補検出ステツプによって繰り返し検出された第 1及び第 2和音候補各々 の列を平滑化処理して楽曲データを生成する平滑化ステップと、 を備えたことを 特徴としている。
図面の簡単な説明
図 1は本発明を適用した楽曲処理システムの構成を示すプロック図である。 図 2は周波数誤差検出動作を示すフローチヤ一トである。
図 3は A音を 1 . 0とした場合の 1 2音及び 1オクターブ高い A音各々の周波 数比を示す図である。
図 4は和音解析動作の本処理を示すフローチャートである。
図 5は帯域データの各音成分の強度レベル例を示す図である。
図 6は帯域データの各音成分の強度レベル例を示す図である。
図 7は 4音からなる和音に対する 3音からなる和音への変換を示す図である。 図 8は一時記憶メモリへの記録フォーマツトを示す図である。
図 9 A〜図 9 Cは基本音及び和音の属性の表記方法、 並びに和音候捕の表記方 法を示す図である。
図 1 0は和音解析動作の後処理を示すフローチヤ一トである。
図 1 1は平滑化処理前の第 1及び第 2和音候補の時間変化を示す図である。 図 1 2は平滑化処理後の第 1及び第 2和音候補の時間変化を示す図である。 図 1 3は入れ替え処理後の第 1及び第 2和音候補の時間変化を示す図である。 図 1 4 〜図1 4 Dは和音進行楽曲データの作成方法及びそのフォーマツトを 示す図である。
図 1 5は本発明の他の実施例として楽曲処理システムの構成を示すプロック図 である。
発明を実施するための形態
以下、 本発明の実施例を図面を参照しつつ詳細に説明する。
図 1は本発明を適用した楽曲処理システムを示している。 この楽曲処理システ ムは、マイク入力装置 1、 ライン入力装置 2、楽曲入力装置 3、操作入力装置 4、. 入力切替スィッチ 5、 アナログ Zディジタル変換装置 6、 和音解析装置 7、 デー タ蓄積装置 8 , 9、一時記憶メモリ 1 0、和音進行比較装置 1 1、表示装置 1 2、 楽曲再生装置 1 3、 ディジタル/アナログ変換装置 1 4及びスピーカ 1 5を備え ている。
マイク入力装置 1は、 楽曲音をマイクロホンで集音可能にされ、 その集音した 楽曲音を示すアナログのオーディオ信号を出力する。 ライン入力装置 2には、 例 えば、 ディスクプレーヤやテープレコーダが接続され、 楽曲音を示すアナログの オーディオ信号を入力できるようにされている。 楽曲入力装置 3は和音解析装置 7及びデータ蓄積装置 8に接続され、 ディジタル化されたオーディオ信号 (例え ば、' P CMデータ) を再生する装置であり、 例えば、 C Dプレーヤである。 操作 入力装置 4は本システムに対してユーザが操作してデータや指令を入力するため の装置である。 操作入力装置 4の出力は入力切替スィッチ 5、 和音解析装置 7、 和音進行比較装置 1 1及び楽曲再生装置 1 3に接続されている。
入力切替スィツチ 5は、 マイク入力装置 1及びライン入力装置 2のうちのいず れか 1の出力信号を選択的にアナログ Zディジタル変換装置 6に供給する。 入力 切替スィツチ 5の切替動作は操作入力装置 4からの指令に応じて実行される。 アナログ/ディジタル変換装置 6は、 和音解析装置 7及びデータ蓄積装置 8に 接続され、 アナログのオーディオ信号をディジタル化し、 ディジタル化オーディ ォ信号を楽曲データとしてデータ蓄積装置 8に供給する。 データ蓄積装置 8には アナログ Zディジタル変換装置 6及び楽曲入力装置 3供給された楽曲データ (P C Mデータ) がファイルとして記憶される。
和音解析装置 7は、 供給された楽曲データの和音を後述する和音解析動作によ つて解析する。 一時記憶メモリ 1 0には和音解析装置 7によって解析された楽曲 データの各和音が第 1及び第 2和音候補として一時的に記憶される。 データ蓄積 装置 9には和音解析装置 7によって解析されて和音進行楽曲データが楽曲毎にフ アイノレとして記'慮される。
和音進行比較装置 1 1は、 検索対象の和音進行楽曲データとデータ蓄積装置 9 に記憶された和音進行楽曲データとを比較し、 検索対象の和音進行楽曲データと 類似性の高い和音進行楽曲データを検出する。 表示装置 1 2には和音進行比較装 置 1 1による比較結果が楽曲リストとして表示される。
楽曲再生装置 1 3は、 和音進行比較装置 1 1によって類似性が最も高いとして 検出された楽曲のデータファイルをデータ蓄積装置 8から読み出して再生し、 デ ィジタルオーディォ信号として順次出力する。 ディジタル/アナログ変換装置 1 4は楽曲再生装置 1 3によって再生されたディジタルオーディォ信号をアナログ オーディオ信号に変換する。
和音解析装置 7、 和音進行比較装置 1 1及び楽曲再生装置 1' 3各々は操作入力 装置 4からの指令に応じて動作する。 次に、 かかる構成の楽曲処理システムの動作について説明する。
ここでは楽曲音を示すアナログオーディォ信号がライン入力装置 2から入力切 替スィッチ 5を介してアナ口グノデイジタル変換装置 6に供給され、 そこでディ ジタル信号に変換された後、 和音解析装置 7に供給されたとする。
上記した和音解析動作としては前処理、 本処理及び後処理がある。 和音解析装 置 7は前処理として周波数誤差検出動作を行う。
' 周波数誤差検出動作においては、 図 2に示すように、 時間変数 T及び帯域デー タ F (N)が 0に初期化され、 更に変数 Nの範囲が一 3〜 3の如く初期設定される (ステップ S 1)。 入力ディジタル信号に対してフーリエ変換によって周波数変 換を 0. 2秒間隔で行うことによつて周波数情報 f (T )が得られる (ステップ S 2)。
今回の f (T)、 前回の f (T_ 1)及び前々回の f (T— 2)を用いて移動平均処 理が行われる (ステップ S 3)。 この移動平均処理では、 0. 6秒以内では和音 が変化することが少ないという仮定で過去 2回分の周波数情報が用いられる。 移 動平均処理は次式によつて演算される。
f (T) = ( f (T)+ f (T- 1)/2.0 + f (T - 2)/3.0)/3.0
……(1) ステップ S 3の実行後、 変数 Nがー 3に設定され (ステップ S 4)、 その変数 Nは 4より小であるか否かが判別される (ステップ S 5)。 N< 4の場合には、 移動平均処理後の周波数情報 f (T)から周波数成分 f 1 (T)〜f 5 (T)が各々抽 出される (ステップ S 6〜S 1 0)。 周波数成分 f 1 (T)〜 f 5 (T)は、 (1 1 0.0 + 2 ΧΝ)Ηζを基本周波数とした 5オクターブ分の平均律の 1 2音のもので ある。 12音は A, A#, B, C, C#, D, D#, E, F, F#, G, G#で ある。 図 3は A音を 1. 0とした場合の 1 2音及ぴ 1オクターブ高い A音各々の 周波数比を示している。 ステップ S 6の f 1 (T)は A音を(1 10.0 + 2 XN)H zとし、 ステップ S 7の f 2 (T)は A音を 2 X (1 1 0.0 + 2 XN)Hzとし、 ステ ップ S 8の f 3 (T)は A音を 4 X (1 10. 0 + 2 XN)Hzどし、 ステップ S 9の f 4 (T)は A音を 8 X (1 1 0. 0 + 2 XN)Hzとし、 ステップ S 1 0の f 5 (T) は A音を 1 6 X (1 1 0. 0 + 2 XN)Hzとしている。
ステップ S 6〜S 10の実行後、 周波数成分 f 1 (T)〜 f 5 (T)は 1ォクター ブ分の帯域データ F' (Τ)に変換される (ステップ S 1 1)。 帯域データ F' (T) は、
F' (T)= f 1 (T) X 5 + f 2 (T) X 4 + f 3 (T) X 3 + f 4 (T) X 2+f 5 (T)
…… (2) の如く表される。 すなわち、 周波数成分 f l (T)〜f 5 (T)各々は個別に重み付 けされた後、加算される。 1オクターブの帯域データ F' (Τ)は、帯域データ F (Ν) に加算される (ステップ S 1 2)。 その後、 変数 Νには 1が加算され (ステップ S 13)、 そして、 ステップ S 5が再度実行される。
ステップ S 6〜S 1 3の動作は、 ステップ S 5において Nが 4より小、 すなわ ち一 3〜+ 3の範囲であると判断される限り繰り返される。 これによつて音成分 F (N)は一 3〜十 3の範囲の音程誤差を含む 1オクターブ分の周波数成分とな る。
ステップ S 5において N≥ 4と判別された場合には、 変数 Tが所定値 Mより小 であるか否かが判別される (ステップ S 14)。 T<Mの場合には、 変数 Tに 1 が加算され (ステップ S I 5 )、 ステップ S 2が再度実行される。 M回分の周波 数変換による周波数情報 f (T)に対して変数 N毎の帯域データ F (N)が算出され る。
ステップ S 1 4において T≥Mと判別された場合には、 変数 N毎の 1オタター ブ分の帯域データ F (N)のうちの各周波数成分の総和が最大値となる F (N)が検 出され、 その検出 F (N)の Nが誤差値 Xとして設定される (ステップ S 1 6 )。 この前処理によって誤差値 Xを求めることによってォーケストラの演奏音等の 楽曲音全体の音程が平均律と一定の差をもっている場合に、 それを捕償して後述 の和音解析の本処理を行うことができる。
前処理の周波数誤差検出動作が終了すると、和音解析動作の本処理が行われる。 なお、 誤差値 Xが既に分かっている場合やその誤差を無視できる場合には、 前処 理は省略しても良い。 本処理では楽曲全部について和音解析が行われるために楽 曲の最初の部分から入力ディジタル信号は和音解析装置 7に供給されるとする。 本処理おいては、 図 4に示すように、 入力ディジタル信号に対してフーリエ変 換によって周波数変換を 0 . 2秒間隔で行うことによって周波数情報 f (T)が得 られる (ステップ S 2 1 )。 このステップ S 2 1が周波数変換手段に対応する。 そして、 今回の f (T)、 前回の f (T一 1 )及び前々回の f (T一 2 )を用いて移動 平均処理が行われる (ステップ S 2 2 )。 ステップ S 2 1及び S 2 2は上記した ステップ S 2及び S 3と同様に実行される。
ステップ S 2 2の実行後、 移動平均処理後の周波数情報 f (T)から周波数成分 f 1 (T)〜 f 5 (T)が各々抽出される (ステップ S 2 3〜S 2 7 )。 上記したス テツプ S 6〜S 1 0と同様に、 周波数成分 f 1 (T)〜f 5 (T)は、 (1 1 0 . 0 + 2 XN) Hzを基本周波数とした 5オクターブ分の平均律の 1 2音 A, A#, B, C, C#, D, D#, E, F, F#, G, G#である。 ステップ S 23の f 1 (T) は A音を(1 10.0 + 2 XN)Hzとし、 ステップ S 24の f 2 (T)は A音を 2 X (1 1 0. 0 + 2 XN)Hzとし、 ステップ S 25の f 3 (T)は A音を 4 X (1 1 0. 0 + 2 XN)Hzとし、 ステップ S 26の f 4 (T)は A音を 8 X (1 10. 0 + 2 X N)Hzとし、 ステップ S 27の f 5 (T)は A音を 16 X (1 10.0 + 2 XN)Hzと している。 ここで、 Nはステップ S 16で設定された Xである。
ステップ S 23〜S 27の実行後、 周波数成分 f 1 (T)〜 f 5 (T)は 1ォクタ ーブ分の帯域データ F,(Τ)に変換される (ステップ S 28)。 このステップ S 28も上記のステップ S I 1と同様に式 (2)を用いて実行される。 帯域データ F' (T)は各音成分を含むことになる。 ステップ S 23〜S 28が成分抽出手段に相 当する。
ステップ S 28の実行後、 帯域データ F' (T)中の各音成分のうちの強度レべ ルが大きいものから 6音が候補として選択され (ステップ S 29)、 その 6音候 補から 2つの和音 Ml, M2が作成される (ステップ S 30)。 候捕の 6音のう ちから 1つの音を根音 (ルート) として 3音からなる和音が作成される。 すなわ ち 6 C 3通りの組み合わせの和音が考慮される。 各和音を構成する 3音のレベルが 加算され、 その加算結果の値が最大となった和音が第 1和音候補 Mlとされ、 加 算結果の値が 2番目に大きい和音が第 2和音候補 M 2とされる。
帯域データ F' (T)の各音成分が図 5に示すように 1 2音に対する強度レベル を示す場合には、 ステップ S 29では A, E, C, G, B, Dの 6音が選択され る。 その 6音 A, E, C, G, B, Dのうちの 3音から作成される 3和音は、 (A, C, E)からなる和音 Am、 (音 C, E, G)からなる和音 C、 (音 E, B, G)か らなる和音 Em、 (音 G, B, D)からなる和音 G、 ……の如くである。 和音 Am (音 A, C, E)の合計強度レベルは 1 2、 和音 C (音 C, E, G)の合計強度レべ ルは 9、 和音 Em (音 E, B, G)の合計強度レベルは 7、 和音 G (音 G, B, D) の合計強度レベルは 4である。 よって、 ステップ S 30では和音 Amの合計強度 レベル 12が最大となるので、 第 1和音候補 Mlとして和音 Amが設定され、 和 音 Cの合計強度レベル 7が 2番目に大きいので、 第 2和音候補 M 2として和音 C が設定される。
また、 帯域データ F' (T)の各音成分が図 6に示すように 1 2音に対する強度 レベルを示す場合には、 ステップ S 29では C, G, A, E, B, Dの 6音が選 択される。 その 6音 C, G, A, E, B, Dのうちの 3音から作成される 3和音 は、 (音 C, E, G)からなる和音 C、 (A, C, E)からなる和音 Am、 (音 E, B, G)からなる和音 Em、 (音 G, B, D)からなる和音 G、 ……の如くである。 和音 C (音 C, E, G)の合計強度レベルは 1 1、 和音 Am (音 A, C, E)の合計 強度レベルは 10、 和音 Em (音 E, B, G)の合計強度レベ/レは 7、 和音 G (音 G, B, D)の合計強度レベルは 6である。 よって、 ステップ S 30では和音 C の合計強度レベル 1 1が最大となるので、 第 1和音候補 Mlとして和音 Cが設定 され、 和音 Amの合計強度レベル 1 0が 2番目に大きいので、 第 2和音侯補 M2 として和音 Amが設定される。
和音を構成する音は 3音に限らず、 セブンスゃディミニッシュセブンス等の 4 音もある。 4音からなる和音に対しては図 7に示すように 3音からなる 2つ以上 の和音に分類されるとしている。 よって、 4音からなる和音に対しても 3音から なる和音と同様に、 帯域データ F' (T)の各音成分の強度レベルに応じて 2つの 和音候補を設定することができる。
ステップ S 30の実行後、 ステップ S 30において設定された和音候補数があ るか否かが判別される (ステップ S 3 1)。 ステップ S 30では少なくとも 3つ の音を選択するだけの強度レベルに差がない場合には和音候補が全く設定されな いことになるので、 ステップ S 3 1の判別が行われる。 和音候補数 > 0である場 合には、 更に、 その和音候補数が 1より大であるか否かが判別される (ステップ S 32)0
ステップ S 31において和音候補数 = 0と判別された場合には前回 T一 1 (約
0. 2秒前) の本処理において設定された和音候補 Ml, M2が今回の和音候補 Ml, M2として設定される (ステップ S 33)。 ステップ S 32において和音 候補数 = 1と判別された場合には今回のステップ S 30の実行では第 1和音候補 M 1だけが設定されたので、 第 2和音候補 M 2は第 1和音候補 M 1と同一の和音 に設定される (ステップ S 34)。 ステップ S 29〜S 34が和音候補検出手段 に相当する。
ステップ S 32において和音候補数 > 1と判別された場合には今回のステップ S 30の実行では第 1及ぴ第 2和音候補 M 1, M 2の両方が設定されたので、 時 刻、 第 1及び第 2和音候補 Ml, M2がー時記憶メモリ 1 0に記憶される (ステ ップ S 35 )。 一時記憶メモリ 1 0には図 8に示すように時刻、 第 1和音候補 M
1、 第 2和音候補 M2が 1組となって記憶される。 時刻は 0. 2秒毎に増加する Tで表される本処理実行回数である。 その Tの順に第 1及び第 2和音候補 M 1 , M 2が記憶される。 具体的には、 一時記憶メモリ 10に各和音候補を図 8に示したように 1パイト で記憶させるために、 基本音とその属性との組み合わせが用いられる。 基本音に は平均律の 12音が用いられ、属性にはメジャー {4, 3}、 マイナー {3, 4}、 セブンス候補 { 4 , 6}及ぴディミニッシュセブンス ( d i m 7 ) 候補 { 3, 3} の和音の種類が用いられる。 { } 内は半音を 1とした場合の 3音の差である。 本来、 セブンス候補は {4, 3, 3} 及ぴディミニッシュセブンス (d i m7) 候補 {3, 3, 3} であるが、 3音で示すために上記のように表示している。 基本音の 12音は図 9 Aに示すように 16ビット (1 6進表記) で表され、 属 性の和音の種類は同様に図 9 Bに示すように 16ビット ( 1 6進表記) で表され る。 その基本音の下位 4ビットと属性の下位 4ビットがその順に連結されて図 9 Cに示すように 8ビット (1バイト) として和音候補として用いられる。
ステップ S 35はステップ S 33又は S 34を実行した場合にもその直後に実 行される。
ステップ S 35の実行後、 楽曲が終了したか否かが判別される (ステップ S 3 6)。 例えば、 入力アナログオーディオ信号の入力がなくなった場合、 或いは操 作入力装置 4からの楽曲の終了を示す操作入力があった場合には楽曲が終了した と判断される。 これによつて本処理が終了する。
楽曲の終了が判断されるまでは変数 Tに 1が加算され (ステップ S 37)、 ス テツプ S 21が再度実行される。 ステップ S 21は上記したように 0. 2秒間隔 で実行され、 前回の実行時から 0. 2秒が経過して再度実行される。
後処理おいては、 図 10に示すように、 一時記憶メモリ 10から全ての第 1及 ぴ第 2和音候補が Ml (0)〜M1 (R)及び M2 (0)〜M 2 (R)として読み出される (ステップ S 41 )。 0は開始時刻であり、 開始時刻の第 1及ぴ第 2和音候補が M 1 (0)及び M 2 (0)である。 Rは最終時刻であり、 最終時刻の第 1及ぴ第 2和音 候捕が M 1 (R)及び M 2 (R)である。 読み出された第 1和音候捕 M 1 (0)〜M 1 (R) 及び第 2和音候補 M 2 (0)〜M 2 (R)について平滑化が行われる (ステップ S 4 2)。 この平滑化は和音の変化時点とは関係なく 0. 2秒間隔で和音候補を検出 したことにより和音候補に含まれるノイズによる誤差を除去するために行われ る。 平滑化の具体的方法としては、 3つの連続する第 1和音候補 Ml (t— 1), Ml (t), Ml (t+ 1)について Ml (t- 1)≠M1 (t)かつ M 1 (t)≠Ml (t+ 1) の関係が成立するか否かが判別され、その関係が成立する場合には、 Ml (ΐ+ 1) に Ml (t)は等しくされる。 この判別は第 1和音候補毎に行われる。 第 2和音候 補についても同様の方法により平滑化は行われる。 なお、 Ml (t+ 1)に Ml (t) を等しくするのではなく、 逆に、 Ml (t+ 1)を Ml (t)に等しくしても良い。 平滑化後、第 1及ぴ第 2和音候補の入れ替え処理が行われる(ステップ S 43)。 一般的に 0. 6秒のような短い期間には和音が変化する可能性は低い。 しかしな がら、 信号入力段の周波数特性及び信号入力時のノィズによつて帯域データ F ' (T)中の各音成分の周波数が変動することによって第 1及び第 2和音候補が 0. 6秒以内に入れ替わることが起きることがあり、 これに対処するためにステップ S 43は行われる。 第 1及び第 2和音候補が入れ替えの具体的方法としては、 5 つの連続する第 1和音候補 Ml (t— 2), Ml (t- 1), M 1 (t) , Ml (t+ 1), Ml (t+ 2)及びそれに対応する 5つの連続する第 2和音候補 M 2 (t— 2), M2 (t一 1), M2 (t), M2 (t+ 1), M2 (t+ 2 )についての次の如き判別が実行さ れる。 すなわち、 Ml (t— 2)=M1 (t+ 2), M2 (t- 2)=M2 (t+ 2), Ml (t- 1)=M1 (t) =M 1 (t+ 1)=M2 (t一 2)及び M2 (t- 1)=M2 (t)= 2 (t+ 1)=M1 (t一 2)の関係が成立するか否かが判別される。 この関係が成立す る場合には、 Ml (t— 1)=M1 (t)=Ml (t+ 1)=M1 (t一 2)及ぴ M2 (t— 1 ) =M2 (t)=M2 (t+ 1)=M2 (t— 2)が定められ、 M 1 (t— 2 )と M 2 (t— 2 ) と間で和音の入れ替えが行われる。 なお、 Ml (t— 2)と M2 (t— 2)との間で和 音の入れ替えに代えて Ml (t+ 2)と M2 (t+ 2)との間で和音の入れ替えを行つ ても良い。 また、 Ml (t_2)=Ml (t+ 1), M2 (t- 2)=M2 (t+ l), Ml (t一 1)=M1 (t)=Ml (t+ 1)=M2 (t_ 2)及び M2 (t- 1)=M2 (t)=M2 (t+ 1)=M1 (t一 2)の関係が成立するか否かが判別される。 この関係が成立す る場合には、 M 1 (t— 1 ) =M 1 (ΐ) =Μ 1 (t一 2)及ぴ M 2 (t— 1) =M 2 (t) = M2 (t一 2)が定められ、 Ml (t— 2)と M2 (t_ 2 )との間で和音の入れ替えが 行われる。 なお、 Ml (t_ 2)と M2 (t— 2)との間で和音の入れ替えに代えて M 1 (t+ 1)と M2 (t+ 1)との間で和音の入れ替えを行っても良い。
ステップ S 41において読み出された第 1和音候補 Ml (0)〜M1 (R)及び第 2 和音候補 M 2 (0)〜M 2 (R)の各和音が、 例えば、 図 1 1に示すように時間経過と 共に変化する場合には、 ステップ S 42の平均化を行うことによって図 1 2に示 すように修正される。 更に、 ステップ S 43の和音の入れ替えを行うことによつ て第 1及び第 2和音候補の和音の変化は図 1 3に示すように修正される。 なお、 図 1 1〜図 1 3は和音の時間変化を折れ線グラフとして示しており、 縦軸は和音 の種類に対応した位置となっている。
ステップ S 43の和音の入れ替え後の第 1和音候補 Ml (0)〜M1 (R)のうちの 和音が変化した時点 tの M 1 (t)及ぴ第 2和音候補 M 2 (0)〜M 2 (R)のうちの和 音が変化した時点 tの M2 (t)が各々検出され (ステップ S 44)、 その検出さ れた時点 t (4バイト) 及び和音 (4バイト) が第 1及び第 2和音候補毎にデー タ蓄積装置 9に記憶される (ステップ S 45)。 ステップ S 45で記憶される 1 楽曲分のデータが和音進行楽曲データである。 かかるステップ S 41〜S 45が 平滑化手段に相当する。
ステップ S 43の和音の入れ替え後の第 1和音候補 Ml (0)〜M1 (R)及び第 2 和音候補 M 2 (0)〜M 2 (R)の和音が図 14 Aに示すように時間経過と共に変化す る場合には、 変化時点の時刻と和音とがデータとして抽出される。 図 14Bが第 1和音候捕の変化時点のデータ内容であり、 F, G, D, Bに Fが和音であり、 それらは 1 6進データとして 0 X 08, 0 X 0 A, 0 05, 0 x 01, 0 x 0 8と表される。 変化時点 tの時刻は T 1 (0), T 1 (1), T 1 (2) , T 1 (3), T 1 (4)である。 また、 図 14 Cが第 2和音候捕の変化時点のデータ内容であり、 C, B F#m, B Cが和音であり、 それらは 1 6進データとして 0 X 03, 0 x 01, 0 x 29, 0 x 01, 0 x 03と表される。 変化時点 tの時刻は T 2 (0), T 2 (1), T 2 (2) , T 2 (3), T 2 (4)である。 図 14B及び図 14Cに示 したデータ内容は楽曲の識別情報と共にデータ蓄積装置 9には、 ステップ S 45 においては図 14 Dに示すような形式で 1ファイルとして記憶される。
異なる楽曲音を示すアナログオーディオ信号について上記した和音分析動作を 繰り返すことによりデータ蓄積装置 9には複数の楽曲毎のファイルとして和音進 行楽曲データが蓄積されることになる。 また、 楽曲入力装置 3から出力される楽 曲音を示すディジタルオーディオ信号について上記した和音分析動作を行うこと によりデータ蓄積装置 9には和音進行楽曲データが蓄積されることになる。なお、 データ蓄積装置 8にはデータ蓄積装置 9の和音進行楽曲データに対応した P C M 信号からなる楽曲データが蓄積される。
ステップ S 4 4において第 1和音候補のうちの和音が変化した時点の第 1和音 候補及び第 2和音候補のうちの和音が変化した時点の第 2和音候補が各々検出さ れ、 それが最終的な和音進行楽曲データとなるので、 MP 3のような圧縮データ に比べても 1楽曲当たりの容量を小さくすることができ、 また、 各楽曲のデータ を高速処理することができる。
また、 データ蓄積装置 9に書き込まれた和音進行楽曲データは、 実際の楽曲と 時間的に同期した和音データとなるので、 第 1和音候捕のみ、 或いは第 1和音候 補と第 2和音候補との論理和出力を用いて実際に和音を楽曲再生装置 1 3によつ て生成すれば、 楽曲の伴奏が可能となる。
図 1 5は本発明の他の実施例を示している。 図 1 5の楽曲処理システムにおい ては、 図 1のシステム中の和音解析装置 7、 一時記憶メモリ 1 0及び和音進行比 較装置 1 1がコンピュータ 2 1によって形成されている。 コンピュータ 2 1は記 憶装置 2 2に記憶されたプログラムに応じて上記の和音解析動作を実行する。 記 憶装置 2 2はハードディスクドライブに限らず、 記録媒体のドライブ装置でも良 い。 その記録媒体のドライブ装置の場合には記録媒体に和音進行楽曲データを書 き込むようにしても良い。
上記した実施例においては、 ライン入力装置 2に入力されたアナログオーディ ォ信号を和音進行楽曲データに変換する場合について説明したが、 楽曲入力装置 3から出力されるディジタルオーディオ信号或いはマイク入力装置 1に入力され る演奏音を和音進行楽曲データに変換する場合についても上記の実施例の場合と 同様である。 また、 ディジタルオーディオ信号は P CM信号に限らず、 M P 3の ような圧縮されたフアイルに応じた信号でも良い。 圧縮ファィルの復号化に際し て平均律周波数幅を満たす周波数分解能を有する周波数領域の情報が得られるな らば、 フーリェ変換等の周波数変換を省略することができる。
以上のように、 本発明によれば、 周波数変換手段と、 成分抽出手段と、 和音候 補検出手段と、 平滑化手段とを備えたことにより、 楽曲音を示すオーディオ信号 に基づいて楽曲の和音進行を検出することができ、 それに応じて容易に和音進行 によって特徴付けられたデータを得ることができる。

Claims

請求の範囲
1 . 楽曲を示す入力オーディオ信号を所定の時間毎に周波数成分の大きさを示 す周波数信号に変換する周波数変換手段と、
前記周波数変換手段によつて得られた周波数信号から平均律の各音に対応した 周波数成分を前記所定の時間毎に抽出する成分抽出手段と、
前記成分抽出手段によつて抽出された各音に対応した周波数成分のうちのレべ ル合計が大となる 3つの周波数成分の組によって各々形成される 2つの和音を第 1及び第 2和音候補として検出する和音候補検出手段と、
前記和音候補検出手段によって繰り返し検出された第 1及び第 2和音候補各々 の列を平滑化処理して楽曲データを生成する平滑化手段と、 を備えたことを特徴 とする楽曲データ作成装置。
2 . 前記周波数変換手段は、 前記周波数信号を移動平均処理して出力すること を特徴とする請求項 1記載の楽曲データ作成装置。
3 . 前記成分抽出手段は、 複数ォクターブ分の前記平均律の各音に対応した周 波数成分を各々抽出するフィルタ手段と、
前記フィルタ手段から出力される各オタターブの前記平均律の各音に対応した 周波数成分のレベルに対して個別に重み付けをして互いに加算する重み付け加算 して 1オクターブ分の前記平均律の各音に対応した周波数成分を出力する手段 と、 を備えたことを特徴とする請求項 1記載の楽曲データ作成装置。
4 . 前記入力オーディオ信号の平均律の各音に対応した周波数成分に対する周 波数誤差を検出する周波数誤差検出手段を有し、
前記成分抽出手段は、 前記平均律の各音の周波数を前記周波数誤差を加えるこ とによって補正し、 その補正後の周波数成分を抽出することを特徴とする請求項
1記載の楽曲データ作成装置。
5 . 前記周波数誤差検出手段は、 前記入力オーディオ信号を所定の時間毎に周 波数成分の大きさを示す周波数信号に変換する第 2周波数変換手段と、
前記第 2周波数変換手段が所定の回数だけ周波数変換を行う毎に複数の周波数 誤差のうちの 1の周波数誤差を指定する手段と、
複数オクターブ分の前記平均律の各音に対応した周波数と前記 1の周波数誤差 とを含む周波数成分を各々抽出するフィルタ手段と、
前記フィルタ手段から出力される各オクターブの前記平均律の各音に対応した 周波数成分のレベルに対して個別に重み付けをして互いに加算する重み付け加算 して 1オクターブ分の前記平均律の各音に対応した周波数成分を出力する手段 と、
前記複数の周波数誤差毎に前記 1オクターブ分の各周波数成分のレベルの合計 を算出する加算手段と、
前記加算手段によってレベルが最大となった周波数誤差を検出周波数誤差とす ることを特徴とする請求項 4記載の楽曲データ作成装置。
6 . 前記和音候捕検出手段は、 前記レベル合計が最大となる 3つの周波数成分 の組によって形成される和音を前記第 1和音候補とし、 前記レベル合計がその次 に大となる 3つの周波数成分の組によつて形成される和音を前記第 2和音候補と することを特徴とする請求項 1記載の楽曲データ作成装置。
7 . 前記平滑化手段は、 前記第 1和音候補の列のうちの連続する所定数の第 1 和音候補が互いに等しく、 前記第 2和音候補の列のうちの連続する前記所定数の 第 2和音候捕が互いに等しくなるように前記第 1和音候補又は前記第 2和音候補 の内容を変更することを特徴とする請求項 1記載の楽曲データ作成装置。
8 . 前記平滑化手段は、 前記第 1及び第 2和音候補各々の列のうちの和音が変 化した時点の和音候補だけにすることを特徴とする請求項 1記載の楽曲データ作 成装置。
9 . 前記平滑化手段は、 前記第 1和音候補の列のうちの連続する 3つの前記第 1和音候補のうちの先頭の第 1和音候補と中間の第 1和音候捕とが等しくなくか つ前記中間の第 1和音候補と最後の第 1和音候補とが等しくないときには、 前記 中間の第 1和音候補を前記先頭の第 1和音候補又は前記最後の第 1和音候補と等 しくさせ、 前記第 2和音候捕の列のうちの連続する 3つの前記第 2和音候捕のう ちの先頭の第 2和音候補と中間の第 2和音候補とが等しくなくかつ中間の第 2和 音候補と最後の第 2和音候捕とが等しくないときには、 前記中間の第 2和音候補 を前記先頭の第 2和音候補又は前記最後の第 2和音候補と等しくさせる誤差除去 手段と、
前記第 1和音候補の列のうちの連続する 5つの前記第 1和音候補と前記第 2和 音候補の列のうちの連続する 5つの前記第 2和音候補とのうちの 1番目の第 1和 音候補が 5番目の第 1和音候補に等しく、 1番目の第 2和音候補が 5番目の第 2 和音候補に等しく、 2番目の第 1和音候補と 3番目の第 1和音候補と 4番目の第 1和音候補と前記 5番目の第 2和音候補とが等しく、 かつ 2番目の第 2和音候補 と 3番目の第 2和音候補と 4番目の第 2和音候補と前記 5番目の第 1和音候補と が等しいときには、 前記 1番目の第 1和音候補又は前記 5番目の第 1和音候補を 前記 2番目ないし前記第 4番目の第 1和音候補と等しくさせ、 かつ前記 1番目の 第 2和音候補又は前記 5番目の第 2和音候補を前記 2番目ないし前記第 4番目の 第 2和音候補と等しくさせ、
前記第 1和音候補の列のうちの連続する前記 1番目ないし 4番目の第 1和音候 補と前記第 2和音候補の列のうちの連続する前記 1番目ないし 4番目の第 2和音 候補とのうちの前記 1番目の第 1和音候補と前記 4番目の第 1和音候補とが等し く、 前記 1番目の第 2和音候補と前記 4番目の第 2和音候補とが等しく、 前記 2 番目の第 1和音候補と前記 3番目の第 1和音候補と前記 1番目の第 2和音候補と が等しく、 かつ前記 2番目の第 2和音候補と前記 3番目の第 2和音候補と前記 1 番目の第 1和音候補とが等しいときには、 前記 1番目の第 1和音候補又は前記 4 番目の第 1和音候補を前記 2番目及び前記第 3番目の第 1和音候補と等しくさ せ、 かつ前記 1番目の第 2和音候補又は前記 4番目の第 2和音候補を前記 2番目 及び前記第 3番目の第 2和音候補と等しくさせる入れ替え手段と、 を備えたこと を特徴とする請求項 1記載の楽曲データ作成装置。
1 0 . 前記楽曲データは、 前記第 1及び第 2和音候補の列各々の和音変化時点 と和音とを示すことを特徴とする請求項 1記載の楽曲データ作成装置。
1 1 . 楽曲を示す入力オーディオ信号を所定の時間毎に周波数成分の大きさを 示す周波数信号に変換し、
前記周波数信号から平均律の各音に対応した周波数成分を前記所定の時間毎に 抽出し、
その抽出した各音に対応した周波数成分のうちのレベル合計が大となる 3つの 周波数成分の組によって各々形成される 2つの和音を第 1及び第 2和音候補とし て検出し、 前記第 1及び第 2和音候補各々の列を平滑化処理して楽曲データを生成するこ とを特徴とする楽曲データ作成方法。
1 2 . 楽曲を示す入力オーディオ信号に応じて楽曲データを作成する方法を実 行するコンピュータ読取可能なプログラムであって、
前記入力オーディオ信号を所定の時間毎に周波数成分の大きさを示す周波数信 号に変換する周波数変換ステツプと、
前記周波数変換ステップによつて得られた周波数信号から平均律の各音に対応 した周波数成分を前記所定の時間毎に抽出する成分抽出ステップと、
前記成分抽出ステップによって抽出された各音に対応した周波数成分のうちの レベル合計が大となる 3つの周波数成分の組によって各々形成される 2つの和音 を第 1及び第 2和音候補として検出する和音候補検出ステップと、
前記和音候補検出ステップによって繰り返し検出された第 1及び第 2和音候補 各々の列を平滑化処理して楽曲データを生成する平滑化ステツプと、 を備えたこ とを特徴とするプログラム。
PCT/JP2003/014365 2002-11-29 2003-11-12 楽曲データ作成装置及び方法 WO2004051622A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN2003801045368A CN1717716B (zh) 2002-11-29 2003-11-12 用于生成音乐数据的设备和方法
US10/535,990 US7335834B2 (en) 2002-11-29 2003-11-12 Musical composition data creation device and method
AU2003280741A AU2003280741A1 (en) 2002-11-29 2003-11-12 Musical composition data creation device and method
DE60315880T DE60315880T2 (de) 2002-11-29 2003-11-12 Datenerzeugungseinrichtung und verfahren für musikkompositionen
EP03772700A EP1569199B1 (en) 2002-11-29 2003-11-12 Musical composition data creation device and method
HK06102629A HK1082586A1 (en) 2002-11-29 2006-02-28 Musical composition data creation device and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002348313A JP4244133B2 (ja) 2002-11-29 2002-11-29 楽曲データ作成装置及び方法
JP2002-348313 2002-11-29

Publications (1)

Publication Number Publication Date
WO2004051622A1 true WO2004051622A1 (ja) 2004-06-17

Family

ID=32462910

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/014365 WO2004051622A1 (ja) 2002-11-29 2003-11-12 楽曲データ作成装置及び方法

Country Status (8)

Country Link
US (1) US7335834B2 (ja)
EP (1) EP1569199B1 (ja)
JP (1) JP4244133B2 (ja)
CN (1) CN1717716B (ja)
AU (1) AU2003280741A1 (ja)
DE (1) DE60315880T2 (ja)
HK (1) HK1082586A1 (ja)
WO (1) WO2004051622A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4650270B2 (ja) 2006-01-06 2011-03-16 ソニー株式会社 情報処理装置および方法、並びにプログラム
SE528839C2 (sv) * 2006-02-06 2007-02-27 Mats Hillborg Melodigenerator
JP4823804B2 (ja) * 2006-08-09 2011-11-24 株式会社河合楽器製作所 コード名検出装置及びコード名検出用プログラム
JP4315180B2 (ja) * 2006-10-20 2009-08-19 ソニー株式会社 信号処理装置および方法、プログラム、並びに記録媒体
JP4214491B2 (ja) * 2006-10-20 2009-01-28 ソニー株式会社 信号処理装置および方法、プログラム、並びに記録媒体
US7528317B2 (en) * 2007-02-21 2009-05-05 Joseph Patrick Samuel Harmonic analysis
US20110011247A1 (en) * 2008-02-22 2011-01-20 Pioneer Corporation Musical composition discrimination apparatus, musical composition discrimination method, musical composition discrimination program and recording medium
JP5229998B2 (ja) * 2008-07-15 2013-07-03 株式会社河合楽器製作所 コード名検出装置及びコード名検出用プログラム
JP5463655B2 (ja) * 2008-11-21 2014-04-09 ソニー株式会社 情報処理装置、音声解析方法、及びプログラム
WO2010119541A1 (ja) * 2009-04-16 2010-10-21 パイオニア株式会社 音発生装置、音発生方法、音発生プログラム、及び記録媒体
JP4930608B2 (ja) * 2010-02-05 2012-05-16 株式会社Jvcケンウッド 音響信号分析装置、音響信号分析方法及び音響信号分析プログラム
TWI417804B (zh) * 2010-03-23 2013-12-01 Univ Nat Chiao Tung 樂曲分類方法及樂曲分類系統
JP5605040B2 (ja) * 2010-07-13 2014-10-15 ヤマハ株式会社 電子楽器
JP5659648B2 (ja) * 2010-09-15 2015-01-28 ヤマハ株式会社 コード検出装置およびコード検出方法を実現するためのプログラム
JP6232916B2 (ja) * 2013-10-18 2017-11-22 カシオ計算機株式会社 コードパワー算出装置、方法及びプログラム、並びにコード決定装置
JP6648586B2 (ja) * 2016-03-23 2020-02-14 ヤマハ株式会社 楽曲編集装置
TR201700645A2 (tr) * 2017-01-16 2018-07-23 Dokuz Eyluel Ueniversitesi Rektoerluegue Herhangi̇ bi̇r müzi̇k di̇zi̇si̇ni̇n perdeleri̇ni̇ adlandirabi̇len algori̇tmi̇k bi̇r yöntem
US20180366096A1 (en) * 2017-06-15 2018-12-20 Mark Glembin System for music transcription
CN109448684B (zh) * 2018-11-12 2023-11-17 合肥科拉斯特网络科技有限公司 一种智能编曲方法和系统
CN109817189B (zh) * 2018-12-29 2023-09-08 珠海市蔚科科技开发有限公司 音频信号的调节方法、音效调节设备及系统
CN111696500B (zh) * 2020-06-17 2023-06-23 不亦乐乎科技(杭州)有限责任公司 一种midi序列和弦进行识别方法和装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6026091U (ja) * 1983-07-29 1985-02-22 ヤマハ株式会社 和音表示装置
JPH05173557A (ja) * 1991-12-25 1993-07-13 Brother Ind Ltd 自動採譜装置
JPH0744163A (ja) * 1993-07-27 1995-02-14 Nec Corp 自動採譜装置
JPH10319947A (ja) * 1997-05-15 1998-12-04 Kawai Musical Instr Mfg Co Ltd 音域制御装置
US6057502A (en) * 1999-03-30 2000-05-02 Yamaha Corporation Apparatus and method for recognizing musical chords
JP2002091433A (ja) * 2000-09-19 2002-03-27 Fujitsu Ltd メロディー情報の抽出方法その装置

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4019417A (en) * 1974-06-24 1977-04-26 Warwick Electronics Inc. Electrical musical instrument with chord generation
US4197777A (en) * 1975-06-12 1980-04-15 The Wurlitzer Company Automatic chord control circuit for electronic musical instruments
JPS5565996A (en) * 1978-11-13 1980-05-17 Nippon Musical Instruments Mfg Electronic musical instrument
JPS5573097A (en) * 1978-11-27 1980-06-02 Nippon Musical Instruments Mfg Automatic code playing unit in electronic musical instrument
US4292874A (en) * 1979-05-18 1981-10-06 Baldwin Piano & Organ Company Automatic control apparatus for chords and sequences
JPH0236160B2 (ja) 1983-07-22 1990-08-15 Dai Ichi Kogyo Seiyaku Co Ltd Konodosekitannmizusurariiyogennenzai
US4699039A (en) * 1985-08-26 1987-10-13 Nippon Gakki Seizo Kabushiki Kaisha Automatic musical accompaniment playing system
US4951544A (en) * 1988-04-06 1990-08-28 Cadio Computer Co., Ltd. Apparatus for producing a chord progression available for a melody
US5056401A (en) * 1988-07-20 1991-10-15 Yamaha Corporation Electronic musical instrument having an automatic tonality designating function
US5403966A (en) * 1989-01-04 1995-04-04 Yamaha Corporation Electronic musical instrument with tone generation control
JP2590293B2 (ja) * 1990-05-26 1997-03-12 株式会社河合楽器製作所 伴奏内容検出装置
US5440756A (en) * 1992-09-28 1995-08-08 Larson; Bruce E. Apparatus and method for real-time extraction and display of musical chord sequences from an audio signal
US5563361A (en) * 1993-05-31 1996-10-08 Yamaha Corporation Automatic accompaniment apparatus
JP2585956B2 (ja) * 1993-06-25 1997-02-26 株式会社コルグ 鍵盤楽器における左右双方の鍵域決定方法、この方法を利用したコード判定鍵域決定方法及びこれ等の方法を用いた自動伴奏機能付鍵盤楽器
US5641928A (en) * 1993-07-07 1997-06-24 Yamaha Corporation Musical instrument having a chord detecting function
US5440736A (en) * 1993-11-24 1995-08-08 Digital Equipment Corporation Sorter for records having different amounts of data
JP3309687B2 (ja) * 1995-12-07 2002-07-29 ヤマハ株式会社 電子楽器
JP2927229B2 (ja) * 1996-01-23 1999-07-28 ヤマハ株式会社 メドレー演奏装置
JP3567611B2 (ja) * 1996-04-25 2004-09-22 ヤマハ株式会社 演奏支援装置
US5852252A (en) * 1996-06-20 1998-12-22 Kawai Musical Instruments Manufacturing Co., Ltd. Chord progression input/modification device
JP3541706B2 (ja) * 1998-09-09 2004-07-14 ヤマハ株式会社 自動作曲装置および記憶媒体
FR2785438A1 (fr) * 1998-09-24 2000-05-05 Baron Rene Louis Procede et dispositif de generation musicale
JP3741560B2 (ja) * 1999-03-18 2006-02-01 株式会社リコー メロディ音発生装置
US20010045153A1 (en) * 2000-03-09 2001-11-29 Lyrrus Inc. D/B/A Gvox Apparatus for detecting the fundamental frequencies present in polyphonic music
AUPR150700A0 (en) * 2000-11-17 2000-12-07 Mack, Allan John Automated music arranger
US6984781B2 (en) * 2002-03-13 2006-01-10 Mazzoni Stephen M Music formulation
JP4203308B2 (ja) * 2002-12-04 2008-12-24 パイオニア株式会社 楽曲構造検出装置及び方法
JP4313563B2 (ja) * 2002-12-04 2009-08-12 パイオニア株式会社 楽曲検索装置及び方法
JP4199097B2 (ja) * 2003-11-21 2008-12-17 パイオニア株式会社 楽曲自動分類装置及び方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6026091U (ja) * 1983-07-29 1985-02-22 ヤマハ株式会社 和音表示装置
JPH05173557A (ja) * 1991-12-25 1993-07-13 Brother Ind Ltd 自動採譜装置
JPH0744163A (ja) * 1993-07-27 1995-02-14 Nec Corp 自動採譜装置
JPH10319947A (ja) * 1997-05-15 1998-12-04 Kawai Musical Instr Mfg Co Ltd 音域制御装置
US6057502A (en) * 1999-03-30 2000-05-02 Yamaha Corporation Apparatus and method for recognizing musical chords
JP2002091433A (ja) * 2000-09-19 2002-03-27 Fujitsu Ltd メロディー情報の抽出方法その装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1569199A4 *

Also Published As

Publication number Publication date
US20060070510A1 (en) 2006-04-06
HK1082586A1 (en) 2006-06-09
US7335834B2 (en) 2008-02-26
JP2004184510A (ja) 2004-07-02
DE60315880D1 (de) 2007-10-04
DE60315880T2 (de) 2008-05-21
CN1717716A (zh) 2006-01-04
AU2003280741A1 (en) 2004-06-23
EP1569199B1 (en) 2007-08-22
JP4244133B2 (ja) 2009-03-25
EP1569199A4 (en) 2005-11-30
EP1569199A1 (en) 2005-08-31
CN1717716B (zh) 2010-11-10

Similar Documents

Publication Publication Date Title
WO2004051622A1 (ja) 楽曲データ作成装置及び方法
US7189912B2 (en) Method and apparatus for tracking musical score
US7288710B2 (en) Music searching apparatus and method
US6856923B2 (en) Method for analyzing music using sounds instruments
JP4203308B2 (ja) 楽曲構造検出装置及び方法
JP3996565B2 (ja) カラオケ装置
JP2876861B2 (ja) 自動採譜装置
JPH10247099A (ja) 音声信号の符号化方法および音声の記録再生装置
JP5153517B2 (ja) コード名検出装置及びコード名検出用コンピュータ・プログラム
JP2000293188A (ja) 和音リアルタイム認識方法及び記憶媒体
JP4581699B2 (ja) 音程認識装置およびこれを利用した音声変換装置
JPH1173200A (ja) 音響信号の符号化方法およびコンピュータ読み取り可能な記録媒体
JP5879813B2 (ja) 複数音源の識別装置および複数音源に連動する情報処理装置
JP4152502B2 (ja) 音響信号の符号化装置および符号データの編集装置
JPH06149242A (ja) 自動演奏装置
JP6135312B2 (ja) 電子弦楽器、楽音制御方法及びプログラム
Wang et al. Score-informed pitch-wise alignment using score-driven non-negative matrix factorization
JPH1173199A (ja) 音響信号の符号化方法およびコンピュータ読み取り可能な記録媒体
JP6424907B2 (ja) 演奏情報検索方法を実現するためのプログラム、当該演奏情報検索方法および演奏情報検索装置
JP6183002B2 (ja) 演奏情報解析方法を実現するためのプログラム、当該演奏情報解析方法および演奏情報解析装置
JPH11175097A (ja) ピッチ検出方法及び装置、判定方法及び装置、データ伝送方法、並びに記録媒体
JP2018146853A (ja) フレーズデータベース生成装置、フレーズデータベース生成方法およびフレーズデータベース生成プログラム
JP2001005451A (ja) 音響信号の符号化方法および復号化方法
JP2001148633A (ja) 音響信号の符号化方法
JP2003330457A (ja) 時系列信号の周波数解析方法および音響信号の符号化方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2003772700

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 20038A45368

Country of ref document: CN

ENP Entry into the national phase

Ref document number: 2006070510

Country of ref document: US

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 10535990

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2003772700

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 10535990

Country of ref document: US

WWG Wipo information: grant in national office

Ref document number: 2003772700

Country of ref document: EP