WO2009104269A1 - 楽曲判別装置、楽曲判別方法、楽曲判別プログラム及び記録媒体 - Google Patents

楽曲判別装置、楽曲判別方法、楽曲判別プログラム及び記録媒体 Download PDF

Info

Publication number
WO2009104269A1
WO2009104269A1 PCT/JP2008/053031 JP2008053031W WO2009104269A1 WO 2009104269 A1 WO2009104269 A1 WO 2009104269A1 JP 2008053031 W JP2008053031 W JP 2008053031W WO 2009104269 A1 WO2009104269 A1 WO 2009104269A1
Authority
WO
WIPO (PCT)
Prior art keywords
music
harmony
intelligibility
pitch
level
Prior art date
Application number
PCT/JP2008/053031
Other languages
English (en)
French (fr)
Inventor
児玉泰輝
莪山真一
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to JP2009554175A priority Critical patent/JPWO2009104269A1/ja
Priority to PCT/JP2008/053031 priority patent/WO2009104269A1/ja
Priority to US12/918,962 priority patent/US20110011247A1/en
Publication of WO2009104269A1 publication Critical patent/WO2009104269A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/066Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • G10H2240/085Mood, i.e. generation, detection or selection of a particular emotional content or atmosphere in a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/201Physical layer or hardware aspects of transmission to or from an electrophonic musical instrument, e.g. voltage levels, bit streams, code words or symbols over a physical link connecting network nodes or instruments
    • G10H2240/241Telephone transmission, i.e. using twisted pair telephone lines or any type of telephone network
    • G10H2240/251Mobile telephone transmission, i.e. transmitting, accessing or controlling music data wirelessly via a wireless or mobile telephone receiver, analog or digital, e.g. DECT GSM, UMTS
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/131Mathematical functions for musical analysis, processing, synthesis or composition
    • G10H2250/215Transforms, i.e. mathematical transforms into domains appropriate for musical signal processing, coding or compression
    • G10H2250/235Fourier transform; Discrete Fourier Transform [DFT]; Fast Fourier Transform [FFT]

Definitions

  • the present application relates to a technical field such as a music discriminating apparatus capable of discriminating the tone of music.
  • As one means for searching for music it is performed to determine the tune of the music and search for the music from the tune.
  • the tone of the music refers to the impression of the music felt by the person who has listened to the music.
  • a music that has a high speed (tempo) and is composed of high sounds shows a bright and lively tone.
  • the music is characterized by the tune and used for searching for music.
  • Patent Document 1 discloses an invention that classifies the types of chords possessed by a music and analyzes the composition of the music. JP-A-6-290574
  • chord even if a chord is used in a musical composition, the chord may not be clearly audible due to simultaneous use of other severely distorted sounds or rhythm sounds (such as distorted electric guitar, bass or drum). .
  • the melody of such music is rich in change and has an intense and exciting impression. Therefore, even if the music tone is searched using the chord composition included in the music as an index, it is not possible to select the music that matches the user's request.
  • Patent Document 1 even if the similarity of the chord composition of a music can be extracted, it is impossible to know the tone of the music. Therefore, even if an attempt is made to search for music that gives comfort and calmness based on the chord structure of the music, it has not been possible to select music that meets the user's request.
  • the present application aims to provide a music discriminating apparatus, a music discriminating method, a music discriminating program, a recording medium, and the like that provide the music and music information desired by the user, with the elimination of such points as one of the problems. To do.
  • the music discriminating apparatus includes a pitch power addition level calculation means for calculating a pitch power addition level from input music data, and the calculated pitch power addition level. Based on the harmony intelligibility calculating means for calculating the harmony intelligibility indicating the degree of whether or not the harmony can be clearly heard on the auditory sense, the music tone discriminating means for determining the tone of the music using the harmony intelligibility, It is characterized by providing.
  • a pitch power addition level calculation step of calculating a pitch power addition level from input music data, and harmony is audible based on the calculated pitch power addition level.
  • a music discriminating program comprising: a computer included in a music discriminating apparatus; a pitch power addition level calculating means for calculating a pitch power addition level from input music data; and the calculated pitch power addition level.
  • tune determination means Based on the harmony intelligibility calculation means for calculating the degree of harmony intelligibility that indicates whether or not the harmony can be heard clearly, tune determination means for determining the tune of the music using the harmony intelligibility, It is made to function.
  • FIG. 1 It is a figure which shows the music data (signal) and FFT power addition level ANP (p) after FFT conversion
  • A) is a figure which shows the music data (signal) after FFT conversion
  • B) is music power addition.
  • A) -t1 shows the pitch power addition level for every pitch in minute time t1
  • A) -t2 is a diagram showing the pitch power addition level for each pitch in the minute time t2
  • (A) -t is the pitch power addition level for each pitch in the minute time t.
  • FIG. 3 is a flowchart showing an operation of the information reproducing apparatus S. It is a flowchart which shows the music tone discrimination
  • FIG. 6 is a diagram showing harmony intelligibility and low-frequency beat level values when music A is reproduced with a signal power (SignalPower) of about 100. It is a figure which shows the value of a harmony intelligibility and a low-frequency beat level when signal power (SignalPower) is lowered to about 50, which is half.
  • SignalPower Signal Power
  • FIG. 10 is a diagram illustrating harmony intelligibility and low-frequency beat level values when music A is reproduced with a signal power (SignalPower) of about 20; It is a figure which shows the value of a harmony intelligibility and a low-pass beat level at the time of raising signal power (SignalPower) to about 40 times.
  • “harmonic intelligibility” is defined as an index indicating the degree of whether or not a chord can be heard clearly in the sense of hearing.
  • a song whose harmony can be heard clearly has a clear and beautiful sound, shows a healing tone that gives the person who listens to it calm and calm, and a song whose harmony cannot be heard clearly is intense. It is known to show a powerful tune. Accordingly, the inventors of the present invention pay attention to the fact that the tone of the music varies depending on whether or not the harmony can be heard clearly. ”As a new index indicating the tone of the song, and the tone of the song was determined by the value indicated by the harmony intelligibility.
  • the power distribution for each interval is calculated from the music data, the harmony intelligibility, etc. are calculated from the calculated power distribution, and the calculated harmony intelligibility etc. Based on this, the tone of the music is determined.
  • a signal level (amplitude) power spectrum F (n) of a predetermined bandwidth (Hz) is calculated by FFT conversion or the like for the input music data, and the pitch power of each pitch (Hz) is calculated from the calculation result. calculate. Then, a “pitch power addition level” is calculated in which the pitch power of each pitch is weighted and added within the range of one octave.
  • the harmony intelligibility is calculated for a musical piece in which a chord can be heard clearly.
  • This music uses a lot of instrumental sound that has harmonic components such as piano, synthesizer or stringed instrument. It gives clarity, beauty or calmness to the audibility, and harmonies (for example, chords) resonate in the ears. It has the characteristics of.
  • FFT Fast Fourier transform
  • ⁇ t minute time
  • N-point FFT the FFT conversion result in this embodiment.
  • the FFT transform is fast Fourier transform, and is a process of extracting which frequency component is included in a certain signal. Since the FFT conversion is a known technique, detailed description thereof is omitted.
  • the point refers to a point representing each of the ranges divided by a predetermined bandwidth (Hz) in all frequency components included in the music data
  • the N point refers to N predetermined bandwidths (Hz). It shows that there are N points representing each range in the divided ranges.
  • FIG. 1A shows music data (signal) after FFT conversion.
  • the horizontal axis 10 represents the frequency range to which the signal extracted by the FFT transform belongs, and the vertical axis 11 represents the power spectrum F (n) indicating the energy that the signal contains for each frequency.
  • the pitch power of each pitch is calculated within the M octave range.
  • the frequency range (Hz) of the converted N-point FFT is divided into octave groups in which an arbitrary frequency range (Hz) is one octave (in this embodiment, M octaves), The octaves divided into groups are further divided at arbitrary points (Hz), and the divided points are set as pitches (Hz), and the pitch power at each pitch is calculated.
  • the N-point FFT is first divided into a frequency band 220 Hz to 420 Hz as an arbitrary frequency range into one octave group, and the octave divided into this group is set as a log scale (frequency In the characteristic graph, the scale is divided into 12 equal parts, and each divided point is defined as a pitch. Specifically, assuming that the 12th root of 2 is k, a value obtained by multiplying the frequency of a certain pitch by k is set as the frequency of the next pitch.
  • pitch A is 220 Hz
  • pitch A # is 233 Hz (220 * k)
  • pitch B is 247 Hz (220 * k ⁇ 2)
  • pitch C is 261 Hz (220 * k ⁇ 3)
  • pitch C #, pitch D, pitch D #, pitch E, pitch F, pitch F #, pitch G, and the last pitch G # are set to 415 Hz (220 * k ⁇ 11).
  • the pitch A # is sequentially set to 466 Hz (440 * k)
  • the pitch B is 494 Hz (440 * k ⁇ 2)
  • the pitch C is 523 Hz (440 * k ⁇ 3)
  • the final pitch G # is 830 Hz (440 *).
  • the frequency points are classified as k ⁇ 11).
  • the pitch power is expressed by, for example, the formula (1).
  • F (p) represents power at the FFT point p
  • fpos (m) represents an FFT point corresponding to a frequency of an arbitrary pitch m
  • NP (m) is an arbitrary pitch m. It represents the pitch power.
  • the pitch power addition level is calculated. Specifically, the pitch power for each pitch calculated for each octave described above is weighted and added within the range of one octave (hereinafter referred to as “pitch power addition level”). In this way, the pitch power is concentrated within a range of one octave.
  • W (i) represents weighting. This has the effect of preventing adverse effects of noise components in the high frequency band. For example, in the high frequency band, there is a high possibility that high frequency noise is included, so the weighting is reduced (the value of W (i) is reduced). Further, the weighting may be defined for each arbitrary octave, or may be added for each integer octave, for example.
  • Equation (2) the sum is obtained by multiplying each pitch by weighting, and the pitch power over an arbitrary octave is aggregated within a range of one octave. In this way, the pitch power addition level ANP (p) is calculated for each pitch. This pitch power addition level ANP (p) is the power for each pitch.
  • FIG. 1B shows the pitch power addition level ANP (p).
  • the horizontal axis 12 represents the pitches A to G # as the pitches, and the vertical axis 13 represents the pitch power addition level ANP (p).
  • the harmony intelligibility is calculated.
  • the deviation of the pitch power aggregated within one octave range is calculated.
  • the pitch power deviation aggregated within one octave range is defined as harmony intelligibility CCV. *
  • the harmony intelligibility that is, the deviation within one octave range in the calculated pitch power addition level ANP (p) (the average value of the calculated pitch power addition levels ANP (p) of each pitch) The sum of the squares of the differences is calculated.
  • Harmony intelligibility means an index that indicates whether or not harmony can be heard clearly. For example, not only deviation in pitch power addition level but also variance, difference in pitch power addition level, Any index may be used as long as it indicates the magnitude of the pitch or fluctuation, and whether or not there is a pitch power addition level with a large power.
  • Expression (4) generalizes the constant term and omits the average value calculation of the pitch power addition level ANP (p).
  • Equation (5) is obtained by omitting the square operation.
  • CCV indicates harmony intelligibility
  • the number of pitches that make up the harmony is not always constant. In CCV, it fluctuates according to the number of pitches that make up the harmony. Therefore, as in Equation (6), the difference between the protruding average value of the pitch power and the average value of the other pitch powers may be used as the harmony intelligibility.
  • UpAvr is an average value of protruding pitch power
  • DnAvr is an average value of other pitch powers.
  • this CCV has a large value when a beautiful chord can be clearly heard, but also has a large value when an ugly chord can be clearly heard. Since an ugly chord is not a harmony, in such a case, it is necessary to reduce the harmony intelligibility using the coefficient X shown in Equation (7).
  • X is in the range of 0 to 1 and is determined according to the set of protruding pitches. X is determined to be a large value if the protruding pitch set is a chord that can be said to be harmony, such as a consonance, and X is determined to be a small value if it is a chord that cannot be considered harmony, such as a dissonance. Alternatively, by comparing the prominent pitch set with all music theoretical consonants and identifying the most likely consonant, it is possible to consider the other pitches as noise for harmony. Therefore, when the sum of the pitch powers other than the consonance is large, X is set to a small value, and when it is small, X is set to a large value.
  • the harmony intelligibility calculated using Expression (3) is a certain instantaneous value in the music data.
  • the harmony intelligibility of the music data at a certain time is calculated, and the change is calculated (measurement in the time direction of the harmony intelligibility).
  • FIG. 2A shows an image of calculating the time direction transition of the pitch power addition level for each pitch in a certain time of the music data.
  • the pitch power addition level for each pitch at the minute time t1 is calculated using, for example, the equation (3), and this is calculated until the minute time t.
  • the time direction transition of the pitch power addition level for each pitch from the fixed period t1 to t is calculated.
  • FIG. 2 (B) shows the pitch power addition level for each pitch over a fixed time of the music data using four parameters.
  • the horizontal axis 14 represents time, and represents the time from the minute time t1 to t in FIG.
  • the vertical axis 15 indicates each pitch.
  • the pitch addition power addition level 16 is shown in shades, with the pitch addition level being higher as the density is lower, and the pitch addition level being lower as the density is lower.
  • the temporal direction transition of the harmony intelligibility is calculated from the calculation result of the pitch power addition level for each interval of the minute time of the music data, using the expression (3), for example, for the corresponding harmony intelligibility of the minute time.
  • the harmony intelligibility is calculated from a minute time t1 to t, which is a fixed period.
  • the temporal direction transition of the harmony intelligibility t is calculated.
  • FIG. 2C shows the temporal transition of harmony intelligibility (CCV).
  • the vertical axis 15 represents the degree of harmony intelligibility.
  • the pitch power addition level ANP (p) of a chord of a certain pitch protrudes and is large, and the pitch power addition level ANP (p) of other pitches is low.
  • the standard deviation of the pitch power addition level is expected to increase.
  • the calculation result of the harmony intelligibility which is the standard deviation of the pitch power addition level for each pitch of the music data, is also shown to be large as predicted from FIG.
  • the harmony intelligibility showed a high value as a result of calculating the harmony intelligibility for the music that is clear in the sense that the chord is audible and has a healing tone that gives comfort and calmness.
  • a music with high harmony intelligibility can be heard with a certain chord, it is proved that the above calculation result and the impression of the chord of the music in the sense of hearing the music actually match.
  • the harmony intelligibility is calculated for music in which chords cannot be heard clearly.
  • This musical piece uses a lot of instrumental sounds that contain many non-wavelength components or noise components such as percussion instruments or electronic musical instruments (such as electric guitars) that have an effect, and the tone of the music is intense, annoying, or It is powerful, has a low sense of harmony (no chords are felt in the sense of hearing), and has features such as emphasis on glue and rhythm.
  • the calculation method is the same as the time direction transition (FIGS. 1A to 1C) when the harmony intelligibility is large.
  • the tune of the music can be determined to be “healed” or “severe” using the result of the temporal transition of the harmony intelligibility.
  • FIG. 4 is a diagram illustrating a schematic configuration example of the information reproducing / recording apparatus according to the present embodiment.
  • the information reproduction / recording apparatus S includes a reproduction processing unit 1, an external output unit 2, a recording unit 3, a system control unit 4, a communication unit 5, and the like.
  • the playback processing unit 1 is a CD (Compact Disc), MD (Mini Disc), DVD (Digital Versatile Disc), or card-type recording medium (for example, a memory stick or an SD card) under the control of the system control unit 4.
  • the music data recorded on the recording medium is reproduced, and the music data is output to the external output unit 2.
  • the external output unit 2 includes a DSP (Digital Signal Processor), an amplifier, a speaker, and the like.
  • the external output unit 2 performs known acoustic processing on music data reproduced by the reproduction processing unit 1, and passes through the amplifier and the speaker. Output audio to the outside.
  • DSP Digital Signal Processor
  • the recording unit 3 includes a recording device such as a hard disk drive, for example. Under the control of the system control unit 4, for example, the music data output from the reproduction processing unit 1 is compressed and recorded in a predetermined file format. At the same time, accompanying information (for example, music ID (music identification information), music name, album name of the album in which the music is recorded, etc.) is recorded on the recording medium.
  • a recording device such as a hard disk drive
  • the music data output from the reproduction processing unit 1 is compressed and recorded in a predetermined file format.
  • accompanying information for example, music ID (music identification information), music name, album name of the album in which the music is recorded, etc.
  • the music data can be downloaded from the music distribution server connected to the Internet via the communication unit 7 together with the accompanying information.
  • the accompanying information can be downloaded from a server having a CDDB (CD Data Base) connected to the Internet using, for example, TOC (Table Of Contents) information corresponding to each piece of music data as a key.
  • CDDB CD Data Base
  • TOC Table Of Contents
  • the system control unit 4 includes a CPU having a calculation function, a working RAM, various processing programs (including the display control program of the present application), a ROM that stores data, and the like.
  • the CPU is stored in the ROM or the like.
  • the system control unit 6 functions as a pitch power addition level calculation unit, a harmony intelligibility calculation unit, a bass beat level detection unit, and a tone determination unit of the present application.
  • the system control unit 6 calculates the pitch power addition level from the music data input from the reproduction processing unit 1 or the storage unit 3, and calculates the harmony intelligibility from the calculated pitch power addition level. Then, the tone of the music is determined based on the calculated harmony intelligibility.
  • the system control unit 4 calculates a signal level (amplitude) power spectrum F (n) power spectrum F (n) of a predetermined bandwidth (Hz) by FFT conversion or the like for the input music data, and calculates From the result, the pitch power of each pitch (Hz) is calculated. Then, a “pitch power addition level” is calculated in which the pitch power of each pitch is weighted and added within the range of one octave.
  • the system control unit 4 deviates from the “pitch power addition level” calculated by the pitch power addition level calculation means within one octave range (average value of the calculated pitch power addition levels ANP (p) of each pitch). Difference).
  • system control unit 4 determines the tune of the music using the harmony intelligibility and the like.
  • FIG. 2 is a flowchart showing the operation of the information reproducing / recording apparatus S.
  • step S1 When music data is input from the reproduction processing unit 1 or the like (step S1), the system control unit 4 performs FFT conversion on the music data at N points (step S2). Next, the pitch power of each pitch is calculated within the M octave range (step S3), and the pitch power addition level is calculated (step S4). Next, the harmony intelligibility is calculated (step S5), and finally, the temporal direction transition of the harmony intelligibility is calculated (step S6).
  • the melody is determined according to the calculated harmony intelligibility.
  • the tune of the music determined in this way is stored in the storage unit 3 or the like in association with the music in the music table, for example. Then, when searching for music, the music tone is displayed by referring to the music table so that the user can identify it.
  • FIG. 6 is a flowchart showing tune determination based on harmony intelligibility and low-frequency beat level.
  • the low-frequency beat level is added to the flowchart showing the operation of the information reproducing / recording apparatus S shown in FIG.
  • step S11 the harmony intelligibility is calculated.
  • the calculation of harmony intelligibility is as described in the flowchart showing the operation of the information reproducing / recording apparatus S shown in FIG.
  • a low-frequency beat level is calculated.
  • the low-frequency beat level indicates a volume level that constitutes a rhythm part of a musical piece such as a drum or a bass.
  • a sound constituting a rhythm part of a musical piece such as a drum or a bass is in a low frequency range compared to other sounds. Therefore, here, these volume levels are collectively referred to as a low-frequency beat level.
  • the low-frequency beat level is specifically a low-frequency signal for music.
  • step S13 the calculated harmony intelligibility and low-frequency beat level time direction transition are calculated.
  • the time direction transition may be calculated for the entire music piece or a part thereof.
  • FIGS. 7A to 7D show time-series changes in harmony intelligibility and low-frequency beat level of four types of music.
  • the horizontal axis 17 of the graph represents the time direction
  • the vertical axis 18 represents the temporal direction transition of the harmony intelligibility and the low-frequency beat level.
  • the value on the vertical axis is a value normalized by an arbitrary value, and is normalized in the same manner for each piece of music shown in FIGS. 7A to 7D. Therefore, these values are relatively large and small.
  • the relationship can be compared.
  • a solid line portion 19 in the graph indicates harmony intelligibility
  • a broken line portion 20 indicates a low-frequency beat level.
  • the music A shown in FIG. 7A is recognized as a lively and rock-like music tone in terms of human hearing.
  • the tone of the music A is determined using the harmony intelligibility and the low-frequency beat level, the intelligibility of the music A may change around 30 and the low-frequency beat level may change around 80. Calculated. Since the harmony intelligibility is low and the low-frequency beat level is high, it is determined that the music tone gives a strong impression.
  • the tune that is recognized from the sense of hearing matches the tune that is discriminated by calculating the harmony intelligibility and the low-frequency beat level.
  • Music B shown in FIG. 7 (B) is composed of only piano and vocals until the middle of the music, and is a music in which chords can be heard clearly.
  • the rhythm parts such as drums are played after the middle of the song.
  • the harmony intelligibility shows a very high value of about 80 until the middle of the music.
  • the low-frequency beat level is as low as about 20 until the middle of the song.
  • the music B has a beautiful sound of chords and shows a quiet impression as a music tone.
  • the 7C is composed of a band performance including many sound components such as vocals, keyboards, drums, basses, and guitars, and shows a melody that is recognized rhythmically for hearing.
  • the harmony intelligibility of the music piece C is as high as about 60, and the low-frequency beat level is also high as about 60, so that the music tone is easy to hear and shows a rhythmical impression. Therefore, the tune that is recognized from the sense of hearing coincides with the tune that is determined by calculating the harmony intelligibility and the low-frequency beat level.
  • Music D shown in FIG. 7 (D) is composed of vocal a cappella, and is a music that allows you to hear chords prominently.
  • the music D has the same degree of harmony intelligibility as the music A, but the low frequency beat level is much lower than that of the music A. Even if the harmony intelligibility is the same value, it can be determined that the tune is different from the music A by the value of the low-frequency beat level. Therefore, the tune that is recognized for hearing matches the tune that is discriminated using the harmony intelligibility and the low-frequency beat level.
  • Fig. 8 shows tune classification using harmony intelligibility and low-frequency beat level.
  • the horizontal axis 30 indicates the harmony intelligibility
  • the vertical axis 31 indicates the low frequency beat level.
  • the tunes of music can be classified by the values of harmony intelligibility and low-frequency beat level.
  • the music that tends to have high harmony intelligibility and low-frequency beat level shows an easy-to-listen and rhythmic music tone.
  • a musical piece that tends to have a high degree of harmony intelligibility and a low low-frequency beat level shows a quiet tone.
  • music that tends to have a low degree of harmony intelligibility and a tendency to have a high low-frequency beat level exhibits intense music.
  • the music which tends to have low harmony intelligibility and tends to have a low low-frequency beat level has a thin sound and shows an intense tone.
  • the music tone can be determined in detail by analyzing the music using other feature values, for example, the low-frequency beat level.
  • FIG. 9 shows an example of harmony intelligibility and low-frequency beat level transition in the time direction in the music A when the signal power (SignalPower) is lowered.
  • the horizontal axis 21 of the graph represents the time direction
  • the vertical axis 22 represents the temporal direction transition of the harmony intelligibility and the low frequency beat level.
  • the value on the vertical axis is a value normalized with an arbitrary value, and is normalized in the same manner for each piece of music shown in FIGS. 9A to 9B. Therefore, these values are relatively large and small. The relationship can be compared.
  • a solid line portion 19 of the graph indicates harmony intelligibility
  • a broken line portion 20 indicates a low-frequency beat level
  • a one-dot chain line portion 21 indicates SignalPower.
  • the music A is a music that has been determined to be a musical tone that shows a strong impression by calculating the harmony intelligibility and the low-frequency beat level. According to the hypothesis, the tune of the music should not change depending on the magnitude of the signal power.
  • FIG. 9A shows the values of harmony intelligibility and low-frequency beat level when the music A is reproduced with a signal power (SignalPower) of about 100.
  • FIG. 9B shows values of harmony intelligibility and low-frequency beat level when the signal power (SignalPower) is lowered to about 50, which is half.
  • the values of harmony intelligibility and low-frequency beat level are almost unchanged. Therefore, when the signal power (SignalPower) is lowered, the values of the harmony intelligibility and the low-frequency beat level are not affected, and can be said to reflect the tone of the music.
  • the above hypothesis indicates that it has been proved.
  • FIG. 10 shows an example of harmony intelligibility and low-frequency beat level transition in the time direction in the music B when the signal power (SignalPower) is increased.
  • the music B is a music that has been determined to show a quiet impression up to the middle stage of the music B and an intense impression after the middle stage of the music B by calculating the harmony intelligibility and the low-frequency beat level. Similar to the above, the tune of the music should not change depending on the magnitude of the signal power.
  • FIG. 10A shows the values of harmony intelligibility and low-frequency beat level when the music A is reproduced with a signal power (SignalPower) of about 20.
  • FIG. 10B shows values of harmony intelligibility and low-frequency beat level when the signal power (SignalPower) is increased to about 40 times. 10A and 10B, the values of the harmony intelligibility and the low-frequency beat level are almost unchanged. Therefore, even when the signal power (SignalPower) is increased, the values of the harmony intelligibility and the low-frequency beat level are not affected by this, and can be said to reflect the tune of the music. Thus, the above hypothesis indicates that it has been proved.
  • a chord is calculated from the input music data
  • a harmony intelligibility, etc. is calculated from the calculated chord
  • the music tone of the music is calculated based on the calculated harmony intelligibility, etc. Can be determined more accurately, and the music can be selected based on the music.
  • the harmony intelligibility itself (numerical data) can be classified by level and stored as music metadata, so that the music can be searched by specifying the harmony intelligibility itself.
  • determining the music tone based on the harmony intelligibility it can be performed by various methods. For example, it can be performed based on subjective evaluation by a large number of subjects. Moreover, it can also be performed by a user's arbitrary operation and determination. Moreover, you may make it determine a music tone automatically according to the reproduction
  • the present application is applied to the reproduction recording apparatus S.
  • the present invention is applied to, for example, a mobile phone, a personal computer, and other electronic devices for in-vehicle use and home use. It can also be applied to.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

 ユーザが望む楽曲及び楽曲情報を提供する楽曲判別装置、楽曲判別方法、楽曲判別プログラム及び記録媒体等を提供することを目的とする。  本願は、楽曲判別装置であって、システム制御部4は、楽曲データより楽曲が有するハーモニーに対応する音程パワー加算レベルを算出し、算出された音程パワー加算レベルに基いて、前記ハーモニーが聴感上明確に聞こえるか否かの度合いを示すハーモニー明瞭度を算出し、前記ハーモニー明瞭度を用いて、前記楽曲の曲調を判別する。

Description

楽曲判別装置、楽曲判別方法、楽曲判別プログラム及び記録媒体
 本願は、楽曲の曲調を判別することができる楽曲判別装置等の技術分野に関する。
 楽曲を検索する一つの手段として、楽曲の曲調を判別し、その曲調から楽曲を検索することが行われている。
 楽曲の曲調とは、楽曲を聴いた人間が感じるその楽曲に対する印象をいい、例えば、楽曲のスピード(テンポ)が早く、高い音で構成された楽曲は、明るく賑やかな曲調を示す。
 このように楽曲を曲調により特徴づけ、楽曲の検索に用いている。
 特許文献1では、楽曲が有する和音の種類を分類して楽曲の構成を解析する発明が開示されている。
特開平6-290574号公報
 しかし、楽曲に和音が用いられていても、他の激しく歪んだ音やリズム音(歪んだ音のエレキギター、ベース又はドラム等)も同時に用いられることによって、和音が明瞭に聞こえない場合がある。このような楽曲の曲調は、変化に富んでいて激しさや刺激的な印象をもつ。従って、楽曲に含まれる和音構成を指標に、楽曲の曲調を検索しても、ユーザの要望に合致した楽曲を選択することは出来なかった。
 また、特許文献1では、楽曲の和音構成の類似性を抽出することは出来ても、その楽曲の曲調までは知ることができない。従って、楽曲が有する和音構成をもとに、安らぎや落ち着きが与えられる楽曲を検索しようとしても、ユーザの要望に合致した楽曲を選択することは出来なかった。
 そこで、本願は、このような点の解消を課題の一つとし、ユーザが望む楽曲及び楽曲情報を提供する楽曲判別装置、楽曲判別方法、楽曲判別プログラム及び記録媒体等を提供することを目的とする。
 上記課題を解決するため、請求項1に記載の楽曲判別装置の発明は、入力された楽曲データから音程パワー加算レベルを算出する音程パワー加算レベル算出手段と、前記算出された音程パワー加算レベルに基いて、ハーモニーが聴感上明確に聞こえるか否かの度合いを示すハーモニー明瞭度を算出するハーモニー明瞭度算出手段と、前記ハーモニー明瞭度を用いて、前記楽曲の曲調を判別する曲調判別手段と、を備えることを特徴とする。
 請求項5に記載の曲調判別方法の発明は、入力された楽曲データから音程パワー加算レベルを算出する音程パワー加算レベル算出工程と、前記算出された音程パワー加算レベルに基いて、ハーモニーが聴感上明確に聞こえるか否かの度合いを示すハーモニー明瞭度を算出するハーモニー明瞭度算出工程と、前記ハーモニー明瞭度を用いて、前記楽曲の曲調を判別する曲調判別工程と、を備えることを特徴とする。
 請求項6に記載の楽曲判別プログラムの発明は、楽曲判別装置に含まれるコンピュータを、入力された楽曲データから音程パワー加算レベルを算出する音程パワー加算レベル算出手段、前記算出された音程パワー加算レベルに基いて、ハーモニーが聴感上明確に聞こえるか否かの度合いを示すハーモニー明瞭度を算出するハーモニー明瞭度算出手段、前記ハーモニー明瞭度を用いて、前記楽曲の曲調を判別する曲調判別手段、として機能させることを特徴とする。
FFT変換後の楽曲データ(信号)及び音程パワー加算レベルANP(p)を示す図であり、(A)はFFT変換後の楽曲データ(信号)を示す図であり、(B)は音程パワー加算レベルANP(p)を示す図である。 楽曲データの一定時間における、各音程毎の音程パワー加算レベルの時間方向遷移を算出するイメージを示す図であり、(A)-t1は、微小時間t1における各音程毎の音程パワー加算レベルを示す図であり、(A)-t2は、微小時間t2における各音程毎の音程パワー加算レベルを示す図であり、(A)-tは、微小時間tにおける各音程毎の音程パワー加算レベルを示す図である。 楽曲データの一定時間における、各音程毎の音程パワー加算レベルを4つのパラメータを用いて示した図である。 ハーモニー明瞭度(CCV)の時間方向遷移を示す図である。 楽曲データの一定時間における、各音程毎の音程パワー加算レベルの時間方向遷移を算出するイメージを示す図であり、(A)-t1は、微小時間t1における各音程毎の音程パワー加算レベルを示す図であり、(A)-t2は、微小時間t2における各音程毎の音程パワー加算レベルを示す図であり、(A)-tは、微小時間tにおける各音程毎の音程パワー加算レベルを示す図である。 楽曲データの一定時間における、各音程毎の音程パワー加算レベルを4つのパラメータを用いて示した図である。 ハーモニー明瞭度(CCV)の時間方向遷移を示す図である。 情報再生装置Sの全体構成例を示すブロック図である。 情報再生装置Sの動作を示すフローチャートである。 ハーモニー明瞭度及び低域ビートレベルによる曲調判別を示すフローチャートである。 楽曲Aのハーモニー明瞭度及び低域ビートレベルの時系列変化を示す図である。 楽曲Bのハーモニー明瞭度及び低域ビートレベルの時系列変化を示す図である。 楽曲Cのハーモニー明瞭度及び低域ビートレベルの時系列変化を示す図である。 楽曲Dのハーモニー明瞭度及び低域ビートレベルの時系列変化を示す図である。 ハーモニー明瞭度及び低域ビートレベルを用いた曲調分類を示す図である。 楽曲Aにおいて、シグナルパワー(SignalPower)を約100として再生した場合のハーモニー明瞭度及び低域ビートレベルの値を示す図である。 シグナルパワー(SignalPower)を、半分の約50程度まで下げた場合のハーモニー明瞭度及び低域ビートレベルの値を示す図である。 楽曲Aにおいて、シグナルパワー(SignalPower)を約20として再生した場合のハーモニー明瞭度及び低域ビートレベルの値を示す図である。 シグナルパワー(SignalPower)を、倍の約40程度まで上げた場合のハーモニー明瞭度及び低域ビートレベルの値を示す図である。
符号の説明
 1 再生処理部
 2 外部出力部
 3 記憶部
 4 システム制御部
 5 通信部
 S 情報再生記録装置
 I)本願の原理について
 本願は、「ハーモニー明瞭度」を用いて、楽曲の曲調を判別することを提唱するものである。
 本願では、和音が聴感上明確に聞こえるか否かの度合いを示す指標として、「ハーモニー明瞭度」を定義する。
 一般に、ハーモニーが聴感上明瞭に聞こえる楽曲は、明瞭で美しい響きを有しており、それを聴く人間に安らぎと落ち着きを与える癒しの曲調を示し、ハーモニーが聴感上明瞭に聞こえない楽曲は、激しく迫力のある曲調を示すことが知られている。従って、本発明の発明者らは、ハーモニーが聴感上明瞭に聞こえるか否かによって、楽曲の曲調が異なることに着目し、ハーモニーが聴感上明確に聞こえるか否かの度合いを、「ハーモニー明瞭度」として定量化し、楽曲の曲調を示す新たな指標とし、ハーモニー明瞭度の示す値により楽曲の曲調を判別した。
 具体的には、ハーモニー明瞭度を定量化するために、楽曲データから各音程毎のパワー分布を算出し、算出されたパワー分布からハーモニー明瞭度等を算出し、算出されたハーモニー明瞭度等に基づいて楽曲の曲調を判別する。
 すなわち、入力された楽曲データに対して、FFT変換等により所定帯域幅(Hz)の信号レベル(振幅)パワースペクトラムF(n)を算出し、算出結果から、各音程(Hz)の音程パワーを算出する。そして、各音程の音程パワーを、1オクターブの範囲内において、重み付けして加算する、「音程パワー加算レベル」を算出する。
 そして、「音程パワー加算レベル」から、1オクターブ範囲内の偏差(算出された各音程の音程パワー加算レベルANP(p)の平均値との差)を算出する。
 以下、図1~図3を用いて、楽曲についてハーモニー明瞭度を算出した結果を具体的に述べる。まず、和音が聴感上明瞭に聞こえる楽曲について、ハーモニー明瞭度を算出する。この楽曲は、ピアノ、シンセサイザー又は弦楽器など、調波成分が際立つ楽器音が多く使用されており、聴感に明瞭さ、美しさ又は落ち着きを与え、ハーモニー(例えば、和音等)が耳にきれいに響く等の特色を有する。
 まず、音程パワーを算出するために、楽曲の楽曲データに対して、楽曲データにおけるある瞬間的な時間である微小時間(Δt)において、任意のポイント(本実施形態ではNポイント)でFFT(Fast Fourier Transform)変換を行う(以下、本実施形態におけるFFT変換結果を「NポイントのFFT」という)。ここで、FFT変換とは、高速フーリエ変換のことであり、ある信号の中にどの周波数成分がどれだけ含まれているかを抽出する処理である。FFT変換は公知の技術であるため詳しい説明は省略する。また、ポイントとは、楽曲データが有する全周波数成分において、所定帯域幅(Hz)で区切られた範囲のそれぞれを代表するポイントをいい、Nポイントとは、N個の所定帯域幅(Hz)で区切られた範囲において、それぞれの範囲を代表するポイントがN個あることを示す。
 図1(A)はFFT変換後の楽曲データ(信号)を示す。横軸10は、FFT変換によって抽出された信号が属する周波数の範囲を、縦軸11は、信号が周波数ごとに含んでいるエネルギーを示す、パワースペクトラムF(n)をそれぞれ表す。
 次に、Mオクターブ範囲内で各音程の音程パワーを算出する。具体的には、変換されたNポイントのFFTが有する周波数範囲(Hz)に対して、任意の周波数範囲(Hz)を一つのオクターブとしたオクターブのグループに分け(本実施形態ではMオクターブ)、グループに分けられたオクターブを更に任意のポイント(Hz)で分割し、分割したポイントを音程(Hz)とし、各音程における音程パワーを算出している。
 本実施形態では、NポイントのFFTを、まず、任意の周波数範囲として周波数帯域220Hz~420Hzを、一つのオクターブのグループに分け、このグループに分けられたオクターブを、任意のポイントとしてログスケール(周波数特性グラフにおけるスケール表示)において12等分し、分割された各ポイントを音程とする。具体的には、2の12乗根をkとした場合、ある音程の周波数をk倍した値を次の音程の周波数とする。より詳しくは、音程Aを220Hz、音程A#を233Hz(220*k)とし、音程Bを247Hz(220*k^2),音程Cを261Hz(220*k^3),音程C#、音程D、音程D#,音程E,音程F,音程F#、音程Gとし、最後の音程G#を415Hz(220*k^11)としている。同様にして、オクターブ2の音程Aは440Hz(220*k^12=220*2)となり、順次、音程A#を466Hz(440*k)とし、音程Bを494Hz(440*k^2),音程Cを523Hz(440*k^3),音程C,音程C#、音程D、音程D#,音程E,音程F,音程F#、音程Gとし、最後の音程G#を830Hz(440*k^11)とする周波数ポイントで分類している。同様にして、オクターブ3の音程Aは880Hz(440*k^12=440*2)となり、順次、各音程の周波数を規定し、各音程における音程パワーを検出している。そして、FFT変換により抽出した全ての周波数範囲について同様の処理を行う。
 また、音程パワーは、例えば、式(1)で表される。
Figure JPOXMLDOC01-appb-M000001
 ここで、F(p)はFFTポイントpにおけるパワーを表し、fpos(m)は任意の音程mの周波数に相当するFFTポイントを表しているので、NP(m)は、任意の音程mでの音程パワーを表している。
 次に、音程パワー加算レベルの算出を行う。具体的には、上述したオクターブ毎に算出した各音程毎の音程パワーを、1オクターブの範囲内に、重み付けして加算する(以下、「音程パワー加算レベル」という。)。このようにして、1オクターブの範囲内に音程パワーが集約されることになる。
 具体的には、例えば、式(2)で表される。
Figure JPOXMLDOC01-appb-M000002
 ここで、pは任意の各音程を、iは任意のオクターブ範囲を示す。また、W(i)は重み付けを表す。これは、高域周波数帯の雑音成分の悪影響を防ぐ効果がある。例えば、高域周波数帯では、高周波ノイズが含まれる可能性が高くなるため、重み付けを軽く(W(i)の値を小さく)する。また、重み付けは任意のオクターブ毎に規定されていてもよいし、例えば、整数オクターブ毎に加算しても良い。
 式(2)では、各音程毎に重み付けを乗じながら総和を求め、任意のオクターブにわたる音程パワーを1オクターブの範囲内に集約している。このようにして、音程パワー加算レベルANP(p)が各音程毎に算出される。この音程パワー加算レベルANP(p)が、各音程毎のパワーとなる。
 図1(B)は、音程パワー加算レベルANP(p)を示す。横軸12は、各音程である音程A~G#を、縦軸13は、音程パワー加算レベルANP(p)をそれぞれ表す。次に、ハーモニー明瞭度を算出する。
 具体的には、1オクターブ範囲内に集約された音程パワーの偏差を算出する。本実施形態では、1オクターブ範囲内に集約された音程パワーの偏差をハーモニー明瞭度CCVとしている。  
 式(3)では、ハーモニー明瞭度、すなわち、算出された音程パワー加算レベルANP(p)における1オクターブ範囲内の偏差(算出された各音程の音程パワー加算レベルANP(p)の平均値との差の2乗の積算)を算出している。
Figure JPOXMLDOC01-appb-M000003
 式(3)より、ハーモニー明瞭度である上記1オクターブ範囲内の偏差が大きければ、1オクターブ内に含まれるハーモニー(例えば、和音等)を構成する音程の音程パワー加算レベルANP(p)が突出して大きく、その他の音程の音程パワー加算レベルANP(p)が低くなるため、特定のハーモニーが目立って聞こえる。一方、上記1オクターブ範囲内の偏差が小さければ、1オクターブ内に含まれる各音程の音程加算レベルANP(p)の差がないため、ハーモニーが目立って聞こえない。従って、ハーモニー明瞭度は、ハーモニーが聴感上明確に聞こえるか否かの度合いを示す指標であることを表している。
 上記では、ハーモニー明瞭度を算出する際に、1オクターブ範囲内の偏差を用いているが、これに限定されるものではない。ハーモニー明瞭度は、ハーモニーが聴感上明確に聞こえるか否かの度合いを示す指標を意味するため、例えば、音程パワー加算レベルの偏差のみならず分散や、音程パワー加算レベルの相違度、差の激しさ又は変動の大きさや、突出して大きなパワーの音程パワー加算レベルが有るかどうかを表す指標であればよい。
 このハーモニー明瞭度の特色を示す例として、例えば、式(4)又は式(5)を用いてもよい。式(4)は、定数項を一般化し、音程パワー加算レベルANP(p)の平均値演算を省略化したものである。
Figure JPOXMLDOC01-appb-M000004
 また、式(5)は、二乗演算を省略化したものである。
Figure JPOXMLDOC01-appb-M000005
 ここで、CCVは、ハーモニー明瞭度を示す。
 ハーモニー明瞭度の精度を上げるため、以下に示すいくつかの方法も挙げることが出来る。
 ハーモニーを構成する音程の数は必ずしも一定ではない。CCVではハーモニーを構成する音程の数に応じて変動してしまう。したがって、式(6)のように、突出した音程パワーの平均値とそれ以外の音程パワーの平均値の差をハーモニー明瞭度としてもよい。UpAvrは突出した音程パワーの平均値、DnAvrはそれ以外の音程パワーの平均値である。
Figure JPOXMLDOC01-appb-M000006
 次に、このCCVは前述したように美しい和音が明確に聞こえるときに大きな値となるが、醜い和音が明確に聞こえるときも同様に大きな値となる。醜い和音というのはハーモニーとはいえないので、このような場合、式(7)に示す係数Xを用いてハーモニー明瞭度を小さくする必要がある。
Figure JPOXMLDOC01-appb-M000007
 Xは0から1の範囲にあり、突出している音程の組に応じて決定される。突出している音程の組が、協和音などハーモニーといえる和音であるならXは大きな値に、不協和音などハーモニーといえない和音であるならXは小さな値に決定される。または、突出している音程の組と、全ての音楽理論的協和音とを比較して最も尤もらしい協和音を同定することで、この協和音以外の音程をハーモニーに対する雑音と考えることが出来る。したがって、この協和音以外の音程パワーの総和が大きい場合、Xを小さな値とし、小さい場合、Xを大きな値にする。
 次に、ハーモニー明瞭度の時間方向遷移を算出する。式(3)を用いて算出したハーモニー明瞭度は、楽曲データにおけるある瞬間的な値である。楽曲データの一定部分又は全体におけるハーモニー明瞭度を算出することにより、楽曲データ一定部分又は全体がどのような和音によって構成されているかを判別することができ、ひいては、その楽曲データ全体がどのような曲調を有するかを判別することができる。
 具体的には、楽曲データの一定時間におけるハーモニー明瞭度を算出し、その変化を算出(ハーモニー明瞭度の時間方向遷移を測定)する。
 図2(A)~(C)は、ハーモニー明瞭度の時間方向遷移を示す。
 まず、楽曲データの一定時間における、各音程毎の音程パワー加算レベルの時間方向遷移を算出する。図2(A)は、楽曲データの一定時間における、各音程毎の音程パワー加算レベルの時間方向遷移を算出するイメージを示す。図2(A)-t1では、微小時間t1における各音程毎の音程パワー加算レベルを、例えば式(3)を用いて算出し、これを微小時間tまで算出する。これにより、一定期間t1からtまでの各音程毎の音程パワー加算レベルの時間方向遷移を算出する。
 図2(B)は、楽曲データの一定時間における、各音程毎の音程パワー加算レベルを4つのパラメータを用いて示す。横軸14は時間を示しており、図1(A)における微小時間t1からtまでの時間を表している。縦軸15は各音程を示す。また、音程加算パワー加算レベル16を濃淡表示で示し、濃度が薄いほど音程加算レベルが高く、濃度が低いほど音程加算レベルは低く表している。
 次に、ハーモニー明瞭度の時間方向遷移を算出する。ハーモニー明瞭度の時間方向遷移は、楽曲データの微小時間の各音程毎の音程パワー加算レベルの算出結果から、対応する微小時間のハーモニー明瞭度を例えば、式(3)を用いて算出する。これを、一定期間である微小時間t1からtまでのハーモニー明瞭度を算出することにより、ハーモニー明瞭度tの時間方向遷移を算出する。図2(C)は、ハーモニー明瞭度(CCV)の時間方向遷移を示す。縦軸15は、ハーモニー明瞭度の大きさを表す。
 図2(B)から、ある音程の和音の音程パワー加算レベルANP(p)が突出して大きく、その他の音程の音程パワー加算レベルANP(p)が低くなるため、楽曲データの有する各音程毎の音程パワー加算レベルの標準偏差は大きくなることが予測される。そして、楽曲データの有する各音程毎の音程パワー加算レベルの標準偏差であるハーモニー明瞭度の算出結果も、図2(C)より、この予測どおり大きいことが表されている。
 以上のように、和音が聴感上明瞭であり、安らぎと落ち着きを与える癒しの曲調である楽曲についてハーモニー明瞭度を算出した結果、ハーモニー明瞭度は高い値を示した。上述した通り、ハーモニー明瞭度が高い楽曲は、ある和音が際立って聞こえるため、上記算出結果と実際に楽曲を聞いた聴感における楽曲の和音の印象は、一致することが立証された。
 次に、和音が聴感上明瞭に聞こえない楽曲について、ハーモニー明瞭度を算出する。この楽曲は、打楽器系又は、エフェクトの効いた電子楽器(エレキギター等)等の非波長成分あるいは雑音成分を多く含む楽器音が多く使用されており、曲調は、聴感に激しさ、煩さ又は迫力さを与え、ハーモニー感が少なく(和音が聴感上感じられず)、ノリやリズムが強調される等の特色を有する。
 算出する方法は上述したハーモニー明瞭度が大きい場合の時間方向遷移(図1(A)~(C))と同様である。
 図3(A)~(C)は、ハーモニー明瞭度の時間方向遷移を示す。各グラフの縦軸及び横軸は図2(A)~(C)と同様である。図3(B)から、楽曲データの有する各音程毎の音程パワー加算レベルの標準偏差が小さいことが予想され、この予想を反映し、図3(C)の楽曲データのハーモニー明瞭度の時間方向遷移では、ハーモニー明瞭度が小さい値を維持している。
 以上のように、和音が聴感上明瞭に聞こえない楽曲についてハーモニー明瞭度を算出した結果、ハーモニー明瞭度は低い値を示した。上述した通り、ハーモニー明瞭度が低い楽曲は、和音が際立って聞こえないため、上記算出結果と実際に楽曲を聞いた聴感における楽曲の和音の印象は、一致することが立証された。
 以上のように、楽曲データについてハーモニー明瞭度の時間方向遷移を算出することにより、楽曲の曲調を知ることができる。従って、楽曲の曲調は、ハーモニー明瞭度の時間方向遷移の結果を用いて、「癒される」又は「激しい」等であると判別することができる。
 II)本願の最良の実施形態について
 以下、本願の最良の実施形態を添付図面に基づいて説明する。なお、以下に説明する実施の形態は、情報再生記録装置に対して本願を適用した場合の実施形態である。
 先ず、図4を参照して、本実施形態における情報再生記録装置の構成及び機能を説明する。図4は、本実施形態における情報再生記録装置の概要構成例を示す図である。
 図4に示すように、情報再生記録装置Sは、再生処理部1、外部出力部2、記録部3、システム制御部4、及び通信部5等を備えて構成される。
 再生処理部1は、システム制御部4の制御の下、CD(Compact Disc)、MD(Mini Disc)、DVD(Digital Versatile Disc)、又はカード型記録媒体(例えば、メモリースティックやSDカード等)等の記録媒体に記録された楽曲のデータを再生し、当該楽曲のデータを外部出力部2へ出力する。
 外部出力部2は、DSP(Digital Signal Processor)、アンプ、及びスピーカ等を備えており、再生処理部1により再生された楽曲のデータに対して公知の音響処理を施し、アンプ及びスピーカを介して外部に音声出力する。
 記録部3は、例えばハードディスクドライブ等の記録装置等からなり、システム制御部4の制御の下、例えば再生処理部1から出力された楽曲のデータを例えば圧縮して、所定のファイル形式で記録すると共に、当該記録媒体に当該楽曲に付随する付随情報(例えば、楽曲ID(楽曲の識別情報)、楽曲名、楽曲が収録されているアルバムのアルバム名等を記録する。
 なお、楽曲のデータは、例えばインターネットに接続された楽曲配信サーバからその付随情報と共に通信部7を介してダウンロード可能になっている。また、上記付随情報は、例えば、楽曲のデータのそれぞれに対応するTOC(Table Of Contents)情報をキーとしてインターネットに接続されたCDDB(CD Data Base)を有するサーバからダウンロード可能になっている。
 システム制御部4は、演算機能を有するCPU、作業用RAM、及び各種処理プログラム(本願の表示制御プログラムを含む)やデータを記憶するROM等を備えており、前記CPUが前記ROM等に記憶されたプログラムを実行することにより、情報再生記録装置S全体を統括制御し、楽曲のデータの記録及び再生制御等を行う。更に、システム制御部6は、本願の音程パワー加算レベル算出手段、ハーモニー明瞭度算出手段、低音ビートレベル検出手段及び曲調判別手段として機能する。
 より具体的には、システム制御部6は、再生処理部1又は記憶部3等から入力された楽曲データから音程パワー加算レベルを算出し、算出された音程パワー加算レベルからハーモニー明瞭度等を算出し、算出されたハーモニー明瞭度等に基づいて楽曲の曲調を判別する。
 また、システム制御部4は、入力された楽曲データに対して、FFT変換等により所定帯域幅(Hz)の信号レベル(振幅)パワースペクトラムF(n)パワースペクトラムF(n)を算出し、算出結果から、各音程(Hz)の音程パワーを算出する。そして、各音程の音程パワーを、1オクターブの範囲内において、重み付けして加算する、「音程パワー加算レベル」を算出する。
 また、システム制御部4は、音程パワー加算レベル算出手段によって算出された「音程パワー加算レベル」から、1オクターブ範囲内の偏差(算出された各音程の音程パワー加算レベルANP(p)の平均値との差)を算出する。
 また、システム制御部4は、詳しくは後述するが、ハーモニー明瞭度等を用いて楽曲の曲調を判別する。
 (第一実施形態)ハーモニー明瞭度による曲調判別について
 次に図2を用いて、本実施形態における情報再生記録装置Sの動作を説明する。図2は、情報再生記録装置Sの動作を示すフローチャートである。
 再生処理部1等から楽曲データが入力されると(ステップS1)、システム制御部4は、楽曲データに対して、NポイントでFFT変換をする(ステップS2)。次に、Mオクターブ範囲内で各音程の音程パワーを算出し(ステップS3)、音程パワー加算レベルの算出を行う(ステップS4)。次に、ハーモニー明瞭度を算出し、(ステップS5)、最後に、ハーモニー明瞭度の時間方向遷移を算出する(ステップS6)。
 そして、算出されたハーモニー明瞭度に応じて曲調が判別される。このように判別された楽曲の曲調は、例えば、楽曲テーブルに楽曲に関連付けて記憶部3等に記憶される。そして、楽曲の検索時に、楽曲テーブルを参照することにより曲調が表示され、ユーザに識別可能とされる。
 (第二実施形態)ハーモニー明瞭度及び低域ビートレベルによる曲調判別について
 ハーモニー明瞭度と併せて、その他の特徴量、例えば、低域ビートレベルを用いて楽曲を解析することにより、詳細に楽曲の有する曲調を判別することができる。
 図6乃至図8を用いて、ハーモニー明瞭度及び低域ビートレベルを用いた曲調判別について説明する。図6は、ハーモニー明瞭度及び低域ビートレベルによる曲調判別を示すフローチャートである。図2に示す情報再生記録装置Sの動作を示すフローチャートに、曲調判別の新たな指標として、低域ビートレベルを加えた関係にある。
 まず、ステップS11で、ハーモニー明瞭度を算出する。ハーモニー明瞭度の算出は、図2に示す情報再生記録装置Sの動作を示すフローチャートに記した通りである。
 次に、ステップS12で、低域ビートレベルを算出する。低域ビートレベルとは、ドラム又はベース等、楽曲のリズムパートを構成する音量レベルを示す。一般的に、ドラム又はベース等の楽曲のリズムパートを構成する音は、他の音と比して低音域である。従って、ここではこれらの音量レベルを総称して低域ビートレベルという。なお、低域ビートレベルは、具体的には音楽の低域信号である。
 次に、ステップS13で、算出したハーモニー明瞭度及び低域ビートレベルの時間方向遷移を算出する。この時間方向遷移の算出は、楽曲の全体でも一部分でもよい。図7(A)~(D)は、4種類の楽曲のハーモニー明瞭度及び低域ビートレベルの時系列変化を表す。グラフの横軸17は時間方向を、縦軸18は、ハーモニー明瞭度及び低域ビートレベルの時間方向遷移を表す。縦軸の値は、任意の値で正規化した値で振っており、図7(A)~(D)に示される楽曲毎に同様に正規化してあるため、これらの値は相対的に大小関係を比較可能としている。グラフの実線部19はハーモニー明瞭度を、破線部20は低域ビートレベルをそれぞれ示している。
 図7(A)に示す楽曲Aは、人間の聴感上は、にぎやかでノリのよいロック調の曲調として認識される。次に、ハーモニー明瞭度及び低域ビートレベルを用いて楽曲Aの曲調を判別すると、楽曲Aは、ハーモニー明瞭度が約30近辺で推移し、低域ビートレベルは約80近辺で推移することが算出される。ハーモニー明瞭度は低く、低域ビートレベルは高いことから、曲調として激しい印象を与えることが判別される。
 従って、聴感上認識される曲調と、ハーモニー明瞭度及び低域ビートレベルを算出することにより判別される曲調は一致する。
 図7(B)に示す楽曲Bは、楽曲の中盤以降までピアノとボーカルのみで構成されており、聴感上和音が際立って聞こえる曲である。曲の中盤以降に、ドラム等のリズムパートの演奏が入る構成となる。このような楽曲Bの構成を反映し、ハーモニー明瞭度は曲の中盤まで約80と非常に高い値を示す。一方、低域ビートレベルは曲の中盤まで、約20と低い値を示す。この間、楽曲Bは、和音の美しい響きを有しており、曲調として静かな印象を示す。
 曲の中盤以降に、ドラム等のリズムパートの演奏が入ると、ハーモニー明瞭度と低域ビートレベルの大小関係が逆転する。図7(B)では、ハーモニー明瞭度と低域ビートレベルの値が交差し、大小関係が入れ替わる。楽曲Bの中盤以降は、低域ビートレベルが際立ち、曲調として、激しい印象を示す。従って、聴感上認識される曲調と、ハーモニー明瞭度及び低域ビートレベルを用いて判別される曲調は一致する。
 図7(C)に示す楽曲Cは、ボーカル、キーボード、ドラム、ベース及びギター等多くの音構成要素を含むバンド演奏によって構成され、聴感上、リズミカルに認識される曲調を示す。楽曲Cのハーモニー明瞭度は、約60と高めであり、低域ビートレベルも約60と高めであるため、曲調としては、聞きやすくリズミカルな印象を示す。従って、聴感上認識される曲調と、ハーモニー明瞭度及び低域ビートレベルを算出することにより判別される曲調は一致する。
 図7(D)に示す楽曲Dは、ボーカルのみのアカペラで構成され、聴感上和音が際立って聞こえる曲である。楽曲Dは、楽曲Aに比べ、ハーモニー明瞭度は同程度の値を示すが、低域ビートレベルは楽曲Aに比べ非常に低い。ハーモニー明瞭度は同程度の値でも、低域ビートレベルの値により、曲調が楽曲Aと異なることが判別できる。従って、聴感上認識される曲調と、ハーモニー明瞭度及び低域ビートレベルを用いて判別される曲調は一致する。
 以上より、楽曲の曲調判別において、ハーモニー明瞭度に加え、低域ビートレベルの値を考慮することにより、聴感上認識される曲調と差異がなく、更に正確で細かい楽曲の曲調分類が可能となることがわかる。
 図8は、ハーモニー明瞭度及び低域ビートレベルを用いた曲調分類を示す。横軸30はハーモニー明瞭度を、縦軸31は低域ビートレベルをそれぞれ示す。上述したように、楽曲の曲調は、ハーモニー明瞭度及び低域ビートレベルの値により分類することができる。図8に示すように、ハーモニー明瞭度及び低域ビートレベルが高い傾向にある楽曲は、聞きやすくリズミカルな曲調を示す。ハーモニー明瞭度が高い傾向にあり、低域ビートレベルが低い傾向にある楽曲は、静かな曲調を示す。また、ハーモニー明瞭度が低い傾向にあり、低域ビートレベルが高い傾向にある楽曲は、激しい曲調を示す。そして、ハーモニー明瞭度が低い傾向にあり、低域ビートレベルが低い傾向にある楽曲は、音が薄く、激しい曲調を示す。
 以上のように、ハーモニー明瞭度に併せて、その他の特徴量、例えば、低域ビートレベルを用いて楽曲を解析することにより、詳細に楽曲の有する曲調を判別することができる。
 III)シグナルパワー(SignalPower)を変更した場合のハーモニー明瞭度及び低域ビートレベルの時間方向遷移の例
 以上に示すように、ハーモニー明瞭度及び低域ビートレベルは、楽曲の曲調を判別する指標となる。従って、ハーモニー明瞭度及び低域ビートレベルは、楽曲のシグナルパワー(SignalPower)(dB)即ち、再生する際の音量の大きさによって左右されず、楽曲の曲調を判別する指標とならなければならない。以下、上記仮説について実証する。
 図9は、楽曲Aにおいて、シグナルパワー(SignalPower)を下げた場合のハーモニー明瞭度及び低域ビートレベルの時間方向遷移の例を示す。グラフの横軸21は時間方向を、縦軸22は、ハーモニー明瞭度及び低域ビートレベルの時間方向遷移を表す。縦軸の値は、任意の値で正規化した値で振っており、図9(A)~(B)に示される楽曲毎に同様に正規化してあるため、これらの値は相対的に大小関係を比較可能としている。グラフの実線部19はハーモニー明瞭度を、破線部20は低域ビートレベルを、一点鎖線部21はSignalPowerをそれぞれ示している。
 楽曲Aは、上述したとおり、ハーモニー明瞭度及び低域ビートレベルの算出により、激しい印象を示す曲調であると判別された楽曲である。仮説によれば、楽曲の曲調は、シグナルパワー(SignalPower)の大きさによっては変化しないはずである。
 図9(A)は楽曲Aにおいて、シグナルパワー(SignalPower)を約100として再生した場合のハーモニー明瞭度及び低域ビートレベルの値を表している。図9(B)では、シグナルパワー(SignalPower)を、半分の約50程度まで下げた場合のハーモニー明瞭度及び低域ビートレベルの値を表している。図9(A)及び(B)において、ハーモニー明瞭度及び低域ビートレベルの値は、殆ど変化がない。従って、シグナルパワー(SignalPower)を下げた場合では、ハーモニー明瞭度及び低域ビートレベルの値はその影響を受けず、楽曲の曲調を反映しているといえる。よって、上記仮説は実証されたことを示している。
 図10は、楽曲Bにおいて、シグナルパワー(SignalPower)を上げた場合のハーモニー明瞭度及び低域ビートレベルの時間方向遷移の例を示す。
 楽曲Bは、上述したとおり、ハーモニー明瞭度及び低域ビートレベルの算出により、楽曲Bの中盤までは、静かな印象を楽曲Bの中盤以降は、激しい印象を示すと判断された楽曲である。上記と同様に、楽曲の曲調は、シグナルパワー(SignalPower)の大きさによっては変化しないはずである。
 図10(A)は楽曲Aにおいて、シグナルパワー(SignalPower)を約20として再生した場合のハーモニー明瞭度及び低域ビートレベルの値を表している。図10(B)では、シグナルパワー(SignalPower)を、倍の約40程度まで上げた場合のハーモニー明瞭度及び低域ビートレベルの値を表している。図10(A)及び(B)において、ハーモニー明瞭度及び低域ビートレベルの値は、殆ど変化がない。従って、シグナルパワー(SignalPower)を上げた場合でも、ハーモニー明瞭度及び低域ビートレベルの値はその影響を受けず、楽曲の曲調を反映しているといえる。よって、上記仮説は実証されたことを示している。
 以上説明したように、上記実施形態によれば、入力された楽曲データから和音を算出し、算出された和音からハーモニー明瞭度等を算出し、算出されたハーモニー明瞭度等に基づいて楽曲の曲調を判別することにより、楽曲の曲調をより正確に判別することができ、曲調により楽曲を選曲することができる。
 また、ハーモニー明瞭度の時系列データを観察することにより、曲調の変化パターンを読み取ることも可能となる。これにより、曲の盛り上がりやアレンジなどが類似している曲や全く異なる曲などを検索することが出来る。
 また、楽曲の一部(例えば、イントロやサビ等、時系列データの安定している区間)のハーモニー明瞭度を算出し、算出されたハーモニー明瞭度に基づいて楽曲の曲調を判別することにより、曲の途中で曲調が変化する楽曲等の曲調をより正確に判別することができ、曲調により楽曲全体や一部を検索することができる。
 また、ハーモニー明瞭度に併せて、その他の特徴量、例えば、低域ビートレベルを用いて楽曲を解析することにより、詳細に楽曲の有する曲調をより正確に判別することができ、曲調により楽曲を選曲することができる。
 また、ハーモニー明瞭度そのもの(数値データ)を、レベル別に分類し楽曲のメタデータとして保存することにより、ハーモニー明瞭度そのものを指定することにより、楽曲の検索を行うこともできる。
 また、ハーモニー明瞭度等による曲調を決定するに当たっては、種々の方法によって行うことができる。例えば、多数の被験者による、主観的評価に基づいて行うこともできる。また、ユーザの任意の操作及び決定により行うこともできる。また、ユーザの楽曲に対する再生履歴や評価に応じて、曲調を自動的に決定するようにしてもよい。
 また、上記実施形態においては、本願を再生記録装置Sに対して適用した場合の例を説明したが、その他にも例えば、携帯電話機、パーソナルコンピュータ、及びその他車載用、家庭用等の電子機器に対しても適用可能である。

Claims (7)

  1.  入力された楽曲データから音程パワー加算レベルを算出する音程パワー加算レベル算出手段と、
     前記算出された音程パワーに基いて、ハーモニーが聴感上明確に聞こえるか否かの度合いを示すハーモニー明瞭度を算出するハーモニー明瞭度算出手段と、
     前記ハーモニー明瞭度を用いて、前記楽曲の曲調を判別する曲調判別手段と、
    を備えることを特徴とする楽曲判別装置。
  2.  請求項1に記載の楽曲判別装置において、
     前記ハーモニー明瞭度算出手段は、前記音程パワー加算レベルの偏差によって、前記ハーモニー明瞭度を算出することを特徴とする楽曲判別装置。
  3.  請求項1又は2に記載の楽曲判別装置において、
     前記音程パワー算出手段は、前記楽曲の一部分の音程パワー加算レベルを算出し、
     前記ハーモニー明瞭度検出手段は、前記楽曲の一部分の音程パワー加算レベルに基づいて前記ハーモニー明瞭度を算出することを特徴とする楽曲判別装置。
  4.  請求項1乃至3の何れか一項に記載の楽曲判別装置において、
     前記楽曲データの低域ビートレベルを検出する低域ビートレベル検出手段を更に備え、
     前記曲調判別手段は、前記ハーモニー明瞭度算出手段によって算出された値又は低域ビートレベル検出手段によって検出された値のうち少なくともいずれか一方の値を用いて前記曲調を判別することを特徴とする楽曲判別装置。
  5.  入力された楽曲データから音程パワー加算レベルを算出する音程パワー加算レベル算出工程と、
     前記算出された音程パワー加算レベルに基いて、ハーモニーが聴感上明確に聞こえるか否かの度合いを示すハーモニー明瞭度を算出するハーモニー明瞭度算出工程と、
     前記ハーモニー明瞭度を用いて、前記楽曲の曲調を判別する曲調判別工程と、
    を備えることを特徴とする楽曲判別方法。
  6.  楽曲判別装置に含まれるコンピュータを、
     入力された楽曲データから音程パワー加算レベルを算出する音程パワー加算レベル算出手段、
     前記算出された音程パワー加算レベルに基いて、ハーモニーが聴感上明確に聞こえるか否かの度合いを示すハーモニー明瞭度を算出するハーモニー明瞭度算出手段、
     前記ハーモニー明瞭度を用いて、前記楽曲の曲調を判別する曲調判別手段、
    として機能させることを特徴とする楽曲判別プログラム。
  7.  請求項6に記載の楽曲判別プログラムがコンピュータに読み取り可能に記録されていることを特徴とする記録媒体。
PCT/JP2008/053031 2008-02-22 2008-02-22 楽曲判別装置、楽曲判別方法、楽曲判別プログラム及び記録媒体 WO2009104269A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009554175A JPWO2009104269A1 (ja) 2008-02-22 2008-02-22 楽曲判別装置、楽曲判別方法、楽曲判別プログラム及び記録媒体
PCT/JP2008/053031 WO2009104269A1 (ja) 2008-02-22 2008-02-22 楽曲判別装置、楽曲判別方法、楽曲判別プログラム及び記録媒体
US12/918,962 US20110011247A1 (en) 2008-02-22 2008-02-22 Musical composition discrimination apparatus, musical composition discrimination method, musical composition discrimination program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2008/053031 WO2009104269A1 (ja) 2008-02-22 2008-02-22 楽曲判別装置、楽曲判別方法、楽曲判別プログラム及び記録媒体

Publications (1)

Publication Number Publication Date
WO2009104269A1 true WO2009104269A1 (ja) 2009-08-27

Family

ID=40985164

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2008/053031 WO2009104269A1 (ja) 2008-02-22 2008-02-22 楽曲判別装置、楽曲判別方法、楽曲判別プログラム及び記録媒体

Country Status (3)

Country Link
US (1) US20110011247A1 (ja)
JP (1) JPWO2009104269A1 (ja)
WO (1) WO2009104269A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017116964A (ja) * 2017-03-29 2017-06-29 カシオ計算機株式会社 コード抽出装置、および方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2829497A1 (en) * 2011-03-24 2012-09-27 Sanofi-Aventis Deutschland Gmbh Device and method for detecting an actuation action performable with a medical device
AU345903S (en) * 2012-03-05 2012-12-05 Apple Inc Display screen for an electronic device
US10143830B2 (en) * 2013-03-13 2018-12-04 Crisi Medical Systems, Inc. Injection site information cap
USD748671S1 (en) * 2014-03-17 2016-02-02 Lg Electronics Inc. Display panel with transitional graphical user interface
USD757093S1 (en) * 2014-03-17 2016-05-24 Lg Electronics Inc. Display panel with transitional graphical user interface
USD748669S1 (en) * 2014-03-17 2016-02-02 Lg Electronics Inc. Display panel with transitional graphical user interface
USD748670S1 (en) * 2014-03-17 2016-02-02 Lg Electronics Inc. Display panel with transitional graphical user interface
USD748134S1 (en) * 2014-03-17 2016-01-26 Lg Electronics Inc. Display panel with transitional graphical user interface
US10610651B2 (en) 2014-06-09 2020-04-07 Aerami Therapeutics, Inc. Self-puncturing liquid drug cartridges and associated dispenser

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0837700A (ja) * 1994-07-21 1996-02-06 Kenwood Corp 音場補正回路
JPH08298418A (ja) * 1995-04-25 1996-11-12 Matsushita Electric Ind Co Ltd 音質調整装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4331058A (en) * 1980-11-24 1982-05-25 Kawai Musical Instrument Mfg. Co., Ltd. Adaptive accompaniment level in an electronic musical instrument
DE69616139T2 (de) * 1995-04-25 2002-03-14 Matsushita Electric Ind Co Ltd System zum Einstellen der Tonqualität
JP4244133B2 (ja) * 2002-11-29 2009-03-25 パイオニア株式会社 楽曲データ作成装置及び方法
JP2006195384A (ja) * 2005-01-17 2006-07-27 Matsushita Electric Ind Co Ltd 楽曲調性算出装置および選曲装置
JP5507997B2 (ja) * 2006-04-14 2014-05-28 コーニンクレッカ フィリップス エヌ ヴェ 調音およびキー分析のためのオーディオスペクトル中の音成分の選択

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0837700A (ja) * 1994-07-21 1996-02-06 Kenwood Corp 音場補正回路
JPH08298418A (ja) * 1995-04-25 1996-11-12 Matsushita Electric Ind Co Ltd 音質調整装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017116964A (ja) * 2017-03-29 2017-06-29 カシオ計算機株式会社 コード抽出装置、および方法

Also Published As

Publication number Publication date
JPWO2009104269A1 (ja) 2011-06-16
US20110011247A1 (en) 2011-01-20

Similar Documents

Publication Publication Date Title
WO2009104269A1 (ja) 楽曲判別装置、楽曲判別方法、楽曲判別プログラム及び記録媒体
US8471135B2 (en) Music transcription
CN112382257B (zh) 一种音频处理方法、装置、设备及介质
EP2661743B1 (en) Input interface for generating control signals by acoustic gestures
Eggink et al. Instrument recognition in accompanied sonatas and concertos
JP5229998B2 (ja) コード名検出装置及びコード名検出用プログラム
Lerch Software-based extraction of objective parameters from music performances
JP6288197B2 (ja) 評価装置及びプログラム
JP6102076B2 (ja) 評価装置
JP5292702B2 (ja) 楽音信号生成装置及びカラオケ装置
JP6056799B2 (ja) プログラム、情報処理装置、及びデータ生成方法
JP5618743B2 (ja) 歌唱音声評価装置
JP2016071188A (ja) 採譜装置、及び採譜システム
JP6036800B2 (ja) 音信号生成装置及びプログラム
JP5776205B2 (ja) 音信号生成装置及びプログラム
JP5659501B2 (ja) 電子音楽装置及びプログラム
CN113270081A (zh) 调整歌伴奏音的方法及调整歌伴奏音的电子装置
Chaisri Extraction of sound by instrument type and voice from music files
Cuesta et al. Audio Melody Extraction
Nunn Analysis and resynthesis of polyphonic music
JP2007041488A (ja) 音声信号の音階的特性分析方法ならびに、その装置

Legal Events

Date Code Title Description
DPE2 Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08711805

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2009554175

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 12918962

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 08711805

Country of ref document: EP

Kind code of ref document: A1