WO2011125203A1 - 情報処理装置及び方法、並びにコンピュータプログラム - Google Patents

情報処理装置及び方法、並びにコンピュータプログラム Download PDF

Info

Publication number
WO2011125203A1
WO2011125203A1 PCT/JP2010/056385 JP2010056385W WO2011125203A1 WO 2011125203 A1 WO2011125203 A1 WO 2011125203A1 JP 2010056385 W JP2010056385 W JP 2010056385W WO 2011125203 A1 WO2011125203 A1 WO 2011125203A1
Authority
WO
WIPO (PCT)
Prior art keywords
beat
music
information
count
output
Prior art date
Application number
PCT/JP2010/056385
Other languages
English (en)
French (fr)
Inventor
康夫 城▲崎▼
英幸 大久保
章雄 福島
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to PCT/JP2010/056385 priority Critical patent/WO2011125203A1/ja
Publication of WO2011125203A1 publication Critical patent/WO2011125203A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/076Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/021Indicator, i.e. non-screen output user interfacing, e.g. visual or tactile instrument status or guidance information using lights, LEDs, seven segments displays
    • G10H2220/086Beats per minute [bpm] indicator, i.e. displaying a tempo value, e.g. in words or as numerical value in beats per minute

Definitions

  • the present invention relates to an information processing apparatus and method for reproducing audio information and the like, and a technical field of a computer program for executing such information processing.
  • an apparatus such as a CD player that reproduces sound information recorded on an information recording medium such as a CD and outputs a music indicated by the sound information as sound.
  • an application of such a device not only listening to the music to be output, but also as a model for performance is generally performed.
  • information recording media such as CDs on which audio information of music is recorded are widely available and easy to handle, there is a demand to perform using such audio information as a model.
  • the user senses the beat or tempo of the music from the received music and matches his performance with the music.
  • the user can grasp the beat and tempo of the music before the start of the music output, and the user can easily perform.
  • audio information recorded on a CD or the like can be easily created, for example, by recording an artist's performance, and has an advantage that it is superior to MIDI data as a performance model.
  • audio information recorded on a CD or the like generally does not include information indicating the beat or tempo of the music, and the above-described configuration cannot present the beat and tempo.
  • the present invention has been made in view of the above-described technical problems, and can provide assistance for performing timing adjustment to a user who performs by using music recorded on a CD as an example. It is an object to provide an information processing apparatus and method, and a computer program.
  • an information processing apparatus includes a beat detection unit that detects beat information indicating a beat of a music included in audio information, and a beat synchronized with the beat of the music based on the beat information.
  • Beat count information generating means for generating the beat count information indicating, and output means for outputting the generated beat count information.
  • an information processing method of the present invention includes a beat detection step of detecting beat information indicating a beat of a music included in audio information, and a beat synchronized with the beat of the music based on the beat information.
  • a beat count information generating step for generating beat count information indicating the above and an output step for outputting the generated beat count information.
  • a computer program includes a beat detection step of detecting beat information indicating a beat of a music included in audio information, and a beat synchronized with the beat of the music based on the beat information. Causing the information processing apparatus to execute a beat count information generating step of generating the beat count information to be shown and an output step of outputting the generated beat count information.
  • An embodiment according to the information processing apparatus of the present invention includes a beat detection unit that detects beat information indicating a beat of a music included in audio information, and a beat count indicating a beat synchronized with the beat of the music based on the beat information.
  • Beat count information generating means for generating information, and output means for outputting the generated beat count information.
  • the information processing apparatus detects the beat of the music included in the sound information from the sound information by the operation of the beat detecting means.
  • the audio information used is, for example, WAVE data recorded on a recording medium such as a CD or DVD, and the music included in the audio information is music having a predetermined tempo and beat.
  • the beat detection means detects beat information of the music included in the audio information.
  • the beat information of the music is information indicating the time series of each beat in the music, and is acquired by the tempo and playback time, the number of samples, the sample rate, or the like of the music included in the audio information.
  • a method for obtaining these various types of information from audio information may be a known one, and is performed, for example, by analyzing the frequency length of music data or the frequency spectrum of music data obtained from the envelope.
  • the beat detection means can detect the beat information of the music included in the sound information even if the sound information is not provided with information related to the beat information of the music in advance.
  • the beat detection means may be configured to acquire the beat information of the music based on information included in audio information such as MIDI data and related information.
  • the beat count information generation means generates beat count information indicating the beat information of the music in synchronization with the beat information of the music detected by the beat detection means.
  • the beat count information is preferably any information that can notify the beat according to the tempo of the music, for example, information for outputting a sound according to each beat in the music included in the audio information. .
  • the output means outputs the generated beat count information to the outside.
  • the output unit may be configured to output the beat count information to a signal processing device provided outside, thereby notifying the beat of the music based on the beat count information.
  • the configuration may be such that the beat of the music is notified to the user by some means such as a recognition sound, light emission, and image display.
  • the output means may have a function of reading audio information and outputting the music included in the audio information as audio as the second function. According to such a function of the output means, it becomes possible to notify the user of the beat of the music along with the output of the music.
  • the beat information of the music can be detected even for the music included in the audio information having no information related to the tempo and the beat.
  • the beat count information synchronized with the beat it is possible to notify the user of the beat information of the music.
  • the output means performs an output for reporting a beat synchronized with the beat of the music based on the beat count information.
  • the output means performs an output for notifying the beat of the music at an output timing corresponding to the beat count information.
  • the output means outputs the recognition sound in a cycle synchronized with the beat of the music, thereby notifying the user of the tempo and beat of the music.
  • the output unit may perform output for notification in other modes, for example, may perform notification by light emission, image display, vibration, or the like. Thus, by performing the output for notification using the beat count information, it becomes possible to suitably notify the user of the beat of the music.
  • One aspect of the embodiment of the information processing apparatus of the present invention further includes an adding unit that adds the beat count information to the audio information, and the output unit adds the beat count information to the audio information. Based on this, an output for notifying the beat synchronized with the beat of the music is performed.
  • the beat count information generated as described above is added to the audio information.
  • the sound information to which such beat count information is added includes beat count information for outputting a recognition sound synchronized with the beat information of the music in addition to data indicating the originally included music. For this reason, when the output means outputs the sound information as sound, the recognition sound indicated by the beat count information is output together with the music originally included in the sound information.
  • the adding means may add the beat count information to the audio information so that a beat synchronized with the beat of the music is notified before the output means outputs the music.
  • the adding means may add beat count information so that the beat of the music is notified by the output of the recognition sound in the bar before the first bar of the music included in the audio information.
  • the recognition sound can be used as a so-called pre-count sound when outputting the music.
  • the adding means may add beat count information to the entire music. By reproducing the audio information with the beat count information added in this way, it becomes possible to simultaneously notify the tempo and beat of the music during reproduction of the music, which is useful for the user to grasp the tempo of the music.
  • the output means starts outputting the music after the output means notifies the beat synchronized with the beat of the music.
  • the output unit of this aspect performs beat notification such as outputting a recognition sound before outputting the music included in the sound information as sound. Specifically, after receiving an instruction from the user to output the music as sound, the output means reads the beat information and reads the beat count information before actually outputting the music as sound. The recognition sound based on is output.
  • the recognition sound is output as the pre-count sound before the output of the music is started without adding the beat count information to the audio information as described above. It is possible to notify the user of the tempo and beat. As a result, when the user performs a performance practice using the reproduced audio information as a model, the timing can be appropriately adjusted before the performance of the music starts. In addition, there is no need for processing for adding beat count information to audio information, and processing in the entire information processing apparatus is reduced.
  • the beat detecting means detects a measure of the music based on the beat information, and the output means is for each beat in the measure of the music.
  • the notification mode is changed and output.
  • the output means in this mode changes the notification mode for each beat, such as the first beat, the second beat, and the third beat, for each measure of the music and outputs it.
  • the output means may output a recognition sound indicating the first beat of each measure of the music with a tone different from other recognition sounds.
  • a predetermined beat for each measure as a recognition sound having a tone different from the others it is possible to notify the user of the measure configuration of the music. For this reason, it is effective as an aid for practicing performance using the output audio information as a model.
  • the embodiment according to the information processing method of the present invention includes a beat detection step of detecting beat information of a music included in audio information, and a beat count information generation step of generating beat count information synchronized with the beat information.
  • An embodiment according to the computer program of the present invention is a computer program for operating an information processing apparatus, a beat detection step of detecting beat information of a music included in audio information, and a beat count synchronized with the beat information
  • the information processing apparatus is caused to execute a beat count information generation step for generating information.
  • the computer program is read from a recording medium such as a ROM, a CD-ROM, a DVD-ROM, and a hard disk that stores the computer program, and executed. If the computer program is executed after being downloaded to the computer via the communication means, the information processing apparatus can execute various operations in the embodiment of the information processing method of the present invention described above.
  • the embodiment according to the information processing apparatus of the present invention includes the beat detection means, the beat count information generation means, and the output means.
  • the embodiment according to the information processing method of the present invention includes a beat detection step, a beat count information generation step, and an output step.
  • the embodiment according to the computer program of the present invention causes the information processing apparatus to execute a beat detection step, a beat count information generation step, and an output step.
  • beat count information it is possible to acquire a beat corresponding to the tempo of the music, and for example, to notify the user of the beat of the music.
  • FIG. 1 is a block diagram showing a basic configuration of the information processing apparatus 1.
  • the information processing apparatus 1 includes an input unit 10, a beat data detection unit 11, a precount calculation unit 12, a precount data generation unit 13, a precount addition unit 14, and an output unit 15.
  • the input unit 10 is configured to input music data, and is connected to a drive device that reads information recorded on, for example, a CD or a DVD, receives the input of the read music data, and receives the beat data detection unit 11. And supplied to the beat count data adding unit 14.
  • the music data is, for example, data obtained by converting the sound information of the music, and the music data is subjected to predetermined data processing such as processing related to known music reproduction, for example, to obtain the sound of the original music. Information can be output.
  • the beat data detection unit 11 is a specific example of the “beat information detection unit” of the present invention, and analyzes the music data supplied from the input unit 10 to detect the beat data of the music.
  • the beat data is data in which the timing of each beat in the music is associated with the time series in the music data, for example, the number of samples from the beginning of each beat.
  • the beat data detector 11 detects the beat of the music by analyzing the envelope of the music data as shown in FIG. 2, for example. More specifically, after generating the envelope of music data, the DC component is removed and FFT (FiniteFiFourier transform) processing is performed to obtain the frequency spectrum of the audio information contained in the music data. . Thereafter, the beat output timing of the music is detected based on a predetermined frequency component in the frequency spectrum (for example, a frequency component that is periodically detected in the music and generated by a musical instrument that reports the beat). The beat data detection unit 11 adds a unique beat number (beat #) s1, s2,... To each detected beat at each timing, and combines the number of samples from the beginning of the music of each beat. Is acquired as beat data.
  • beat # unique beat number
  • the number of samples from the beginning of beat # s1 is 28800
  • the number of samples from the beginning of beat # s2 is 61056
  • the number of samples from the beginning of beat # s3 is 93312
  • the number of samples from the beginning of beat # s4 is 125588
  • the number of samples from the beginning of beat # s5 is 157824
  • the number of samples from the beginning of beat # s6 is 190080
  • the number of samples from the beginning of beat # s7 The beat data is generated assuming that the number is 222336 and the number of samples from the beginning of the beat # s8 is 254592.
  • the beat data detection part 11 may acquire beat data as the data length of one beat.
  • the beat data detection unit 11 calculates the time per beat from the tempo of the music, and multiplies the sampling rate (in other words, the number of samples per unit time) to calculate the number of samples per beat. , Get as beat data.
  • the beat data detection unit 11 determines whether or not each beat is the head of a measure constituting the music, and includes the determination result in the beat data. In the example shown in FIG. 2, it is determined that beats # s1 and # s5 are the heads of measures. In addition, not only the first beat in a measure but the structure which includes in the beat data the information of how many beats are in a measure about each beat may be sufficient.
  • the beat count calculation unit 12 receives the beat data input from the beat data detection unit 11 and calculates a beat count indicating a beat corresponding to the tempo of the music based on the beat data.
  • the beat count indicates the timing of each beat indicated by the beat information in the music data.
  • the beat count data generation unit 13 is audio information for outputting a count sound for informing the user at the timing of each beat indicated by the beat count based on the beat count calculated by the beat count detection unit 12. .
  • Such audio information is data including a rectangular wave or a triangular wave for outputting a count sound at the timing indicated by the beat count, or a signal for outputting other sound.
  • the beat count data adding unit 14 receives the beat count data and the music data, and executes data processing for adding the beat count data to the music data. Specifically, the beat count data adding unit 14 adds the beat count data at the timing such that the count sound included in the beat count data is output in accordance with each beat of the music in the music data.
  • the beat count data adding unit 14 preferably outputs a count sound at a timing according to the beat information of the music before the music starting music. Add beat count data.
  • FIG. 3 is a diagram showing the beats of the music when the beat count data is added to the music data. As shown in FIG. 3 (a), when there is a music composed of 4 beats in each bar, the beat count data adding unit 14 proceeds with the beat of the music in the bar before the first beat of the music. Beat count data is added so that a synchronized count sound is output.
  • the beat count data adding unit 14 not only outputs the count sound as a so-called pre-count sound before outputting the music, but also outputs the count sound according to the beat of the music during the output of the music data. Beat count data may be added. As shown in FIG. 3 (c), it is easier for the user to synchronize the beat of the music by always outputting the count sound while outputting the music.
  • the output unit 15 is a speaker for outputting the music data to which the beat count data is added by the beat count data adding unit 14 as voice. According to the operation of the output unit 15, reproduction data composed of a count sound based on music and beat count data included in the music data is output.
  • music data recorded on a recording medium such as a CD may not always start from the beginning of the music data.
  • the music data shown in FIG. 4A has a silent portion at the beginning of the music data, and the audio information of the music is recorded continuously.
  • the beat count data adding unit 14 simply beats the music data so that the music data is output from the head after the count sound as shown in FIG.
  • the count data is added to the music data, a silent part is output after the count sound, making it difficult for the user to grasp the beat of the music.
  • beat count data is added so that the head portion of the music data is output after the count sound. Therefore, the beat count data adding unit 14 adds the beat count data so that the beat count is output before the first sound from the output start position of the music is output when the music data is output. There may be. At this time, when a silence part is detected at the output start position of the music data, beat count data is added so that a count sound is output over the silence part as shown in FIG.
  • the count sound is output before the start of the output of the music regardless of the output start position of the music data, such as when output is started from the middle of the music instead of the beginning of the music data. Is possible. For this reason, it is useful for a user who uses the output music data as a practice model.
  • the beat count data adding unit 14 may appropriately change the output period of the count sound and add the beat count data to the music data. For example, as shown in FIG. 5A, the beat count data adding unit 14 adds beat count data generated to output a one-measure count sound before the first measure of the music to be output. Alternatively, as shown in FIG. 5B, the number of bars may be set to two bars. Moreover, the aspect in which the count sound of a specific beat number is output irrespective of a measure may be sufficient. In the example of FIG. 5C, a count sound for 3 beats is output before the first measure of the music to be output. Note that the number of measures or the number of beats of the output count sound may be appropriately set to other modes so that the user can easily adjust the timing.
  • the beginning of the song may not start from the first beat.
  • the first note of the music is the second beat of the first measure.
  • beat count data is added so that the count sound is output to the measure before the first measure as described above, 1 is output from the output of the actual count sound until the first sound of the music is output.
  • the beat count data adding unit 14 determines from the information detected by the beat data detecting unit 11 that the first note of the music does not start from the first beat in the first measure, the beat count data adding unit 14 In addition to the specified measure, beat count data is added so that the count sound is output up to the beat before the first note of the music in the first measure.
  • beat count data is added so that a count sound is output.
  • beat count data may be added so that a count sound is output in units of measures, and it is preferable that it can be appropriately changed according to the user's preference.
  • FIG. 6 (b-1) when the first note of the music starts from the fourth beat of the fourth quarter of the first measure, as shown in FIG. 6 (b-1) A mode in which the count sound is output to the measure immediately before the first measure, as shown in FIG. 6B-2, the count sound is output up to the third measure before the first measure and the third beat of the first measure. Any one of a plurality of modes is selected according to the user's preference, such as a mode in which the count sound is output up to the third beat only in the first measure as shown in FIG. 6 (b-3).
  • the first note of music included in the music data may be a back beat.
  • the first note of the music is the back beat of the fourth beat of the first measure.
  • Such back beats can be discriminated from the beat data detected by the beat data detection unit 11 because the data length per beat (for example, the number of samples or time) is shorter than the normal beat.
  • beat count data may be added according to the user's preference from a plurality of modes. For example, as shown in FIG. 7 (a-1), the count sound is output up to the first measure before the first measure and the third beat of the first measure, as shown in FIG. 7 (a-2). In addition, the count sound is output up to the first beat of the first measure and the fourth beat of the first measure, as shown in FIG. Or, as shown in FIG. 7 (a-4), the beat count data addition method is selected according to the user's preference from the aspect in which the count sound is output only up to the fourth beat only at the first measure. .
  • FIG. 8 is a block diagram illustrating a basic configuration of the information processing apparatus 2.
  • the information processing apparatus 2 includes an input unit 10, a beat data detection unit 11, a precount calculation unit 12, a precount data generation unit 13, a first output unit 21, and a second output unit 22.
  • the same number is attached
  • the input unit 10 supplies the input music data to the beat data detection unit 11 and the first output unit 21.
  • the beat data detection unit 11 detects beat data from the supplied music data and supplies the beat data to the beat count calculation unit 12.
  • the beat count calculation unit 12 calculates a beat count from the beat data and supplies it to the beat count data generation unit 13.
  • the beat count data generation unit 13 generates beat count data for outputting a count sound from the beat count and supplies the beat count data to the second output unit 22.
  • the 1st output part 21 and the 2nd output part 22 are the speakers etc. which output the sound based on the supplied data, respectively, the 1st output part 21 is the reproduction data which consists of music, and the 2nd output part 22 Reproduction data composed of the count sound generated by the beat count data is output.
  • the first output unit 21 and the second output unit 22 synchronize data between control units (not shown) provided therein, and according to the music included in the music data output by the first output unit 21 At the timing, the second output unit 22 outputs a count sound.
  • the timing according to the music included in the music data at this time is based on, for example, a mode in which beat count data is added to the music data described above.
  • the first output unit 21 outputs the music so that the first bar of the music is output after the second output unit 22 outputs the count sound for one bar.
  • various aspects when adding beat count data to the music data described above may be appropriately employed.
  • the same effect as that obtained by the information processing device 1 described above can be obtained without adding the generated beat count data to the music data. Further, the information processing apparatus 2 has an advantage that the processing required for adding the beat count data to the music data can be omitted, and the processing amount can be reduced.
  • 1 Information processing device 2 Information processing device, 11 beat data detector, 12 beat count calculator, 13 beat count data generator, 14 beat count data adding part, 15 output section, 21 1st output part, 22 Second output unit.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

 情報処理装置(1)は、音声情報に含まれる楽曲の拍情報を検出する拍検出手段(11)と、拍情報と同期した拍カウント情報を生成する拍カウント情報生成手段(13)とを備える。従って、楽曲の演奏情報を含まない音声情報に対しても、楽曲の拍を検出し、該拍に同期した拍カウント情報を生成することが出来る。拍カウント情報によれば、楽曲のテンポに応じた拍を取得可能となり、例えばユーザに対して楽曲の拍を報知することが可能となる。

Description

情報処理装置及び方法、並びにコンピュータプログラム
 本発明は、音声情報などを再生する情報処理装置及び方法、並びにかかる情報処理を実行させるためのコンピュータプログラムの技術分野に関する。
 この種の情報処理装置として、CDなどの情報記録媒体に記録される音声情報を再生し、音声情報に示される楽曲を音声として出力するCDプレイヤなどの装置が知られている。このような装置の用途としては、出力される楽曲を聴取するだけでなく、演奏のための手本とすることも一般的に行われている。特に、楽曲の音声情報が記録されるCDなどの情報記録媒体は広く出回っており、扱いも容易であることから、このような音声情報を手本として演奏を行いたいという要求が存在する。
 また、他にもMIDI(Musical Instrument Digital Interface:電子楽器デジタルインタフェース)データなど、楽曲を自動演奏するための演奏情報を含むデータを用いて、楽曲の出力を行う装置の存在が知られている。例えば、下記の先行技術文献には、MIDIデータに含まれる演奏情報に基づいて、楽曲の出力位置に合わせて楽曲のテンポを報知する認識音を出力する、所謂カウントイン機能を提供する装置構成が開示されている。
特開2003-150163号公報
 再生又は出力される楽曲をユーザが演奏のための手本とする場合、例えばユーザは受聴した楽曲から楽曲の拍やテンポを感じ取り、自身の演奏を楽曲に合わせる。しかしながら、この場合、ユーザは、実際に楽曲が再生されるまでは拍やテンポを把握することが難しく、楽曲の再生開始と同時に楽曲の再生に合わせて演奏を行うことは困難である。また、演奏の初心者であるユーザにとっては、楽曲を受聴することで拍やテンポを感じ取ることが困難である場合もある。このようなユーザにとっては、楽曲の再生中にも拍やテンポの提示が行われることが好ましい。
 上述した先行技術文献に記載されるように、カウントイン機能を有する出力装置によれば、ユーザは楽曲の出力開始前から楽曲の拍やテンポを把握することが可能となり、ユーザが演奏し易くなるという利点がある。しかしながら、かかるカウントイン機能を提供する先行技術に記載される構成を用いるためには、楽曲の拍やテンポの情報を有するMIDIデータが予め作成されている必要がある。更に、演奏された楽曲を上述のように手本とする要望に対し、かかる演奏を正確に表現するMIDIデータを作成することが容易でないとの技術的な問題もある。このため、ユーザが手本としてMIDIデータを用いることは困難であった。
 他方で、CDなどに記録される音声情報は、例えばアーティストの演奏を録音することなどにより容易に作成することが出来、演奏の手本としてもMIDIデータに比べてより優れているという利点がある。しかしながら、CDなどに記録される音声情報には、楽曲の拍やテンポを示す情報が含まれていないことが一般的であり、上述した構成では拍やテンポの提示を行うことが出来ない。
 本発明は、上述した技術的な問題に鑑みて為されたものであり、CDなどに記録される楽曲を手本として演奏を行うユーザに対して、タイミング調整を行うための補助を提供可能な情報処理装置及び方法、並びにコンピュータプログラムを提供することを課題とする。
 上記課題を解決するために、本発明の情報処理装置は、音声情報に含まれる楽曲の拍を示す拍情報を検出する拍検出手段と、前記拍情報に基づき、前記楽曲の拍と同期した拍を示す拍カウント情報を生成する拍カウント情報生成手段と、生成された前記拍カウント情報を出力する出力手段とを備える。
 上記課題を解決するために、本発明の情報処理方法は、音声情報に含まれる楽曲の拍を示す拍情報を検出する拍検出工程と、前記拍情報に基づき、前記楽曲の拍と同期した拍を示す拍カウント情報を生成する拍カウント情報生成工程と、生成された前記拍カウント情報を出力する出力工程とを備える。
 上記課題を解決するために、本発明のコンピュータプログラムは、音声情報に含まれる楽曲の拍を示す拍情報を検出する拍検出工程と、前記拍情報に基づき、前記楽曲の拍と同期した拍を示す拍カウント情報を生成する拍カウント情報生成工程と、生成された前記拍カウント情報を出力する出力工程とを前記情報処理装置に実行させる。
 本発明の作用及び他の利得について、以下に示す実施の形態とともに説明する。
実施例の情報処理装置の基本的な構成例を示すブロック図である。 検出される拍データの態様を示す模式図である。 拍カウントデータの付加の態様を示す図である。 拍カウントデータの付加の態様を示す図である。 拍カウントデータの付加の態様を示す図である。 拍カウントデータの付加の態様を示す図である。 拍カウントデータの付加の態様を示す図である。 変形例の情報処理装置の基本的な構成例を示すブロック図である。
 本発明の情報処理装置に係る実施形態は、音声情報に含まれる楽曲の拍を示す拍情報を検出する拍検出手段と、前記拍情報に基づき、前記楽曲の拍と同期した拍を示す拍カウント情報を生成する拍カウント情報生成手段と、生成された前記拍カウント情報を出力する出力手段とを備える。
 本実施形態の情報処理装置は、音声情報から、該音声情報に含まれる楽曲の拍を拍検出手段の動作により検出する。用いられる音声情報とは、例えばCDやDVDなどの記録媒体に記録されるWAVEデータなどであり、また該音声情報に含まれる楽曲とは、所定のテンポ及び拍節を有する音楽などである。
 拍検出手段は、音声情報に含まれる楽曲の拍情報を検出する。かかる楽曲の拍情報とは、楽曲内の各拍の時系列を示す情報などであり、音声情報に含まれる楽曲のテンポ及び再生時間又はサンプル数やサンプルレートなどにより取得される。尚、音声情報からこれらの各種情報を取得する手法は公知のものであってよく、例えば音楽データのデータ長やエンベロープから求められる音楽データの周波数スペクトルの解析などによって実施される。このように拍検出手段は、MIDIデータと異なり、予め楽曲の拍情報に関連する情報が用意されていない音声情報であっても、該音声情報に含まれる楽曲の拍情報を検出することが出来る。尚、拍検出手段は、MIDIデータなどの音声情報や関連情報に含まれる情報に基づいて、楽曲の拍情報を取得する構成であってもよい。
 拍カウント情報生成手段は、拍検出手段によって検出された楽曲の拍情報に同期し、該楽曲の拍情報を示す拍カウント情報を生成する。かかる拍カウント情報とは、好適には楽曲のテンポに応じた拍を報知可能な何らかの情報であり、例えば音声情報に含まれる楽曲内の各拍に応じて音声を出力するための情報などである。
 出力手段は、生成された拍カウント情報を外部に出力する。例えば出力手段は、外部に備えられる信号処理装置に対して拍カウント情報を出力することで、拍カウント情報に基づく楽曲の拍の報知を行わせる構成であってもよい。また、後述するように、認識音、発光、画像表示などなんらかの手段で楽曲の拍をユーザに報知する構成であってもよい。
 また、出力手段は、第2の機能として、音声情報を読み込み、該音声情報に含まれる楽曲を音声として出力する機能を有していてもよい。このような出力手段の機能によれば、楽曲の出力とともに、ユーザに対して楽曲の拍の報知を行うことが可能となる。
 以上説明したように、情報処理装置に係る実施形態によれば、テンポや拍に関連する情報を持たない音声情報に含まれる楽曲に対しても、楽曲の拍情報を検出可能となる。また、該拍と同期した拍カウント情報を生成し、用いることで、楽曲の拍情報をユーザに報知することが可能となる。
 本発明の情報処理装置に係る実施形態の一の態様は、前記出力手段は、前記拍カウント情報に基づき、前記楽曲の拍と同期した拍を報知する出力を行う。
 この態様では、出力手段は、拍カウント情報に応じた出力タイミングで、楽曲の拍を報知するための出力を行う。例えば、出力手段は、楽曲の拍と同期した周期で認識音を出力することで、ユーザに対し楽曲のテンポと拍を報知する。尚、出力手段は、その他の態様で報知のための出力を行ってもよく、例えば、発光や画像表示、又は振動などによる報知を行ってもよい。このように拍カウント情報を用いた報知のための出力を行うことで、好適に楽曲の拍をユーザに報知することが可能となる。
 本発明の情報処理装置に係る実施形態の一の態様は、前記拍カウント情報を前記音声情報に付加する付加手段を更に備え、前記出力手段は、前記音声情報に付加される前記拍カウント情報に基づき、前記楽曲の拍と同期した拍を報知する出力を行う。
 この態様の付加手段の動作によれば、上述の通り生成された拍カウント情報が音声情報に付加される。このような拍カウント情報が付加された音声情報には、本来含まれる楽曲を示すデータに加えて、楽曲の拍情報と同期した認識音を出力するための拍カウント情報が含まれる。このため、出力手段が該音声情報を音声として出力する場合、該音声情報に元々含まれる楽曲とともに、拍カウント情報により示される認識音が出力される。
 このとき、前記付加手段は、前記出力手段が前記楽曲を出力する前に前記楽曲の拍と同期した拍を報知するように、前記拍カウント情報を前記音声情報に付加してもよい。
 例えば、付加手段は、音声情報に含まれる楽曲の先頭小節より前の小節において認識音の出力により楽曲の拍の報知が行われるよう、拍カウント情報を付加してもよい。このように拍カウント情報が付加された音声情報を再生することで、楽曲の出力が開始されるより先に、認識音により該楽曲のテンポや拍をユーザに報知することが可能となる。つまり、楽曲の出力に際して、認識音を所謂プリカウント音として用いることが出来る。結果、ユーザが該音声情報を再生したものを手本として演奏の練習を行う場合、楽曲の演奏開始前に適切にタイミングを合わせることが可能となる。
 また、付加手段は、楽曲全体に拍カウント情報を付加してもよい。このように拍カウント情報が付加された音声情報を再生することで、楽曲の再生中に該楽曲のテンポや拍も同時に報知可能となり、ユーザが楽曲のテンポを把握する上で有益となる。
 本発明の情報処理装置に係る実施形態の一の態様では、前記出力手段は、前記出力手段は、前記楽曲の拍と同期した拍を報知した後に、前記楽曲の出力を開始する。
 言い換えれば、この態様の出力手段は、音声情報に含まれる楽曲を音声として出力する前に、認識音を出力するなどの拍の報知を行う。具体的には、出力手段は、楽曲を音声として出力するとの指示をユーザから受けた後、音声情報を読み込んで実際に楽曲を音声として出力する前に、拍カウント情報を読み込んで該拍カウント情報に基づく認識音を出力する。
 このような出力手段の動作によれば、上述のように音声情報に拍カウント情報を付加することなく、楽曲の出力が開始される前に認識音をプリカウント音として出力することで、該楽曲のテンポや拍をユーザに報知することが可能となる。結果、ユーザが該音声情報を再生したものを手本として演奏の練習を行う場合、楽曲の演奏開始前に適切にタイミングを合わせることが可能となる。また、拍カウント情報を音声情報に付加するための処理の必要が無くなり、情報処理装置全体における処理が軽減される。
 本発明の情報処理装置に係る実施形態の一の態様では、前記拍検出手段は、前記拍情報に基づいて前記楽曲の小節を検出し、前記出力手段は、前記楽曲の小節内の拍ごとに報知の態様を変化させて出力する。
 この態様の出力手段は、楽曲の小節ごとに、一拍目、二拍目、三拍目など拍ごとの報知の態様を変化させて出力する。例えば出力手段は、楽曲の各小節の一拍目を示す認識音を他の認識音とは異なる音色で出力してもよい。このように小節ごとの所定の拍を他とは異なる音色の認識音とすることで、ユーザに対して楽曲の小節構成をも報知することが可能となる。このため、出力される音声情報を手本に演奏の練習をするための補助として有効である。
 本発明の情報処理方法に係る実施形態は、音声情報に含まれる楽曲の拍情報を検出する拍検出工程と、前記拍情報と同期した拍カウント情報を生成する拍カウント情報生成工程とを備える。
 本発明の情報処理方法に係る実施形態によれば、上述した本発明の情報処理装置に係る実施形態と同様の各種効果を享受することが出来る。
 尚、本発明の情報処理方法に係る実施形態においても、上述した本発明の情報処理装置に係る実施形態の各種態様と同様の各種態様を採ることが可能である。
 本発明のコンピュータプログラムに係る実施形態は、情報処理装置を動作させるためのコンピュータプログラムであって、音声情報に含まれる楽曲の拍情報を検出する拍検出工程と、前記拍情報と同期した拍カウント情報を生成する拍カウント情報生成工程とを前記情報処理装置に実行させる。
 本発明のコンピュータプログラムに係る実施形態によれば、当該コンピュータプログラムを格納するROM、CD-ROM、DVD-ROM、ハードディスク等の記録媒体から、当該コンピュータプログラムをコンピュータに読み込んで実行させれば、或いは、当該コンピュータプログラムを、通信手段を介してコンピュータにダウンロードさせた後に実行させれば、上述した本発明の情報処理方法に係る実施形態における各種動作を情報処理装置に実行させることが出来る。
 以上説明したように、本発明の情報処理装置に係る実施形態は、拍検出手段と、拍カウント情報生成手段と、出力手段とを備える。本発明の情報処理方法に係る実施形態は、拍検出工程と、拍カウント情報生成工程と、出力工程とを備える。本発明のコンピュータプログラムに係る実施形態は、拍検出工程と、拍カウント情報生成工程と、出力工程とを情報処理装置に実行させる。
 従って、楽曲の演奏情報を含まない音楽CDなどに記録される音声情報などに対しても、楽曲の拍を検出し、該拍に同期した拍カウント情報を生成することが出来る。拍カウント情報によれば、楽曲のテンポに応じた拍を取得可能となり、例えばユーザに対して楽曲の拍を報知することが可能となる。
 本発明の情報処理装置及び情報処理方法並びにコンピュータプログラムの夫々に係る各種実施形態の作用及び他の利得について、以下に示す実施例を用いてより詳細に説明する。
 以下、図面を参照して、本発明の実施例について説明する。
 (1)基本構成例
 図1を参照して、本発明の情報処理装置の実施例となる情報処理装置1の構成と動作について説明する。
 図1は、情報処理装置1の基本的な構成を示すブロック図である。情報処理装置1は、入力部10、拍データ検出部11、プリカウント計算部12、プリカウントデータ生成部13、プリカウント付加部14及び出力部15を備えて構成される。
 入力部10は、音楽データを入力するための構成であって、例えばCDやDVDなどに記録された情報を読み取るドライブ装置に接続され、読み取られた音楽データの入力を受け、拍データ検出部11及び拍カウントデータ付加部14へと供給する。尚、音楽データは、例えば楽曲の音声情報をデータ化したものであり、該音楽データに対して、例えば、公知の音楽再生に係る処理などの所定のデータ処理することで、元の楽曲の音声情報を出力可能なものである。
 拍データ検出部11は、本発明の「拍情報検出部」の一具体例であって、入力部10より供給される音楽データの解析を行い、楽曲の拍データを検出する。拍データとは、楽曲における各拍のタイミングを、音楽データにおける時系列に関連づけたデータであって、例えば各拍の先頭からのサンプル数などである。
 拍データ検出部11は、例えば図2に示されるように音楽データのエンベロープを解析することで、楽曲の拍の検出を行う。より具体的には、音楽データのエンベロープを生成した後、DC成分を取り除くとともにFFT(Finite Fourier transform:離散フーリエ変換)処理などを施すことで、音楽データに含まれる音声情報の周波数スペクトルを取得する。その後、周波数スペクトルにおける所定の周波数成分(例えば、楽曲において周期的に検出される、拍を報知する楽器が生じる周波数成分など)などに基づいて、楽曲の拍の出力タイミングを検出する。そして、拍データ検出部11は、検出された各タイミングの拍に固有の拍番号(拍#)s1、s2、・・・を付し、各拍の楽曲の先頭からのサンプル数を組み合わせたテーブルを拍データとして取得する。
 図2に示される例では、拍#s1の先頭からのサンプル数が28800であり、拍#s2の先頭からのサンプル数が61056であり、拍#s3の先頭からのサンプル数が93312であり、拍#s4の先頭からのサンプル数が125588であり、拍#s5の先頭からのサンプル数が157824であり、拍#s6の先頭からのサンプル数が190080であり、拍#s7の先頭からのサンプル数が222336であり、拍#s8の先頭からのサンプル数が254592であるとして拍データが生成される。
 尚、楽曲におけるテンポが全曲を通じて一定である場合、拍データ検出部11は、拍データを一拍のデータ長として取得しても良い。例えば、拍データ検出部11は、楽曲のテンポより1拍あたりの時間を算出し、サンプリングレート(言い換えれば、単位時間当たりのサンプル数)を乗算することで、1拍あたりのサンプル数を算出し、拍データとして取得する。
 更に拍データ検出部11は、各拍について楽曲を構成する小節の先頭であるか否かを判定し、判定結果を拍データに含める。図2に示される例では、拍#s1と拍#s5とが小節の先頭であると判定されている。尚、小節内の先頭の拍に限らず、各拍について小節内の何拍目にあたるかの情報を拍データに含める構成であってもよい。
 拍カウント計算部12は、拍データ検出部11より拍データの入力を受け、該拍データに基づく楽曲のテンポに応じた拍を示す拍カウントの算出を行う。拍カウントは、音楽データにおいて、拍情報に示される各拍のタイミングを示すものである。
 拍カウントデータ生成部13は、拍カウント検出部12において算出される拍カウントに基づき、該拍カウントに示される各拍のタイミングでユーザに報知するためのカウント音を出力するための音声情報である。かかる音声情報は、拍カウントに示されるタイミングでカウント音を出力するための矩形波や三角波、あるいはその他の音声を出力する信号を含むデータである。
 拍カウントデータ付加部14は、拍カウントデータ及び音楽データの入力を受け、拍カウントデータを音楽データに付加するデータ処理を実行する。具体的には、拍カウントデータ付加部14は、音楽データの楽曲の各拍に合わせて、拍カウントデータに含まれるカウント音が出力されるようタイミングを合わせて、拍カウントデータの付加を行う。
 拍カウントデータ付加部14は、好ましくは図3(b)に示されるように、音楽データの楽曲が開始する小節以前に、該楽曲の拍情報に応じたタイミングでカウント音が出力されるよう、拍カウントデータの付加を行う。ここに図3は、拍カウントデータを音楽データに付加する際の楽曲の拍を示す図である。図3(a)に示されるように、各小節が4拍から成る楽曲がある場合、拍カウントデータ付加部14は、該楽曲の最初の拍より前の小節において、該楽曲の拍の進行に同期したカウント音が出力されるよう、拍カウントデータを付加する。
 また、拍カウントデータ付加部14は、楽曲の出力前にカウント音を所謂プリカウント音として出力するだけでなく、音楽データの出力中にも楽曲の拍に合わせてカウント音が出力されるよう、拍カウントデータを付加してもよい。図3(c)に示されるように、楽曲の出力中に常時カウント音を併せて出力することで、ユーザが楽曲の拍を合わせることがより容易になる。
 出力部15は、拍カウントデータ付加部14において拍カウントデータが付加された音楽データを音声として出力するためのスピーカなどである。出力部15の動作によれば、音楽データに含まれる楽曲及び拍カウントデータに基づくカウント音より構成される再生データが出力される。
 (2)拍カウントデータの付加の態様の例
 ところで、CDなどの記録媒体に記録される音楽データは、必ずしも音楽データの先頭から楽曲が開始しない場合がある。例えば、図4(a)に示される音楽データは、音楽データの先頭に無音部分が存在し、続けて楽曲の音声情報が記録されている。
 このような無音部分が音楽データの先頭に含まれる場合、図4(b)に示されるように拍カウントデータ付加部14が、単純にカウント音の後に音楽データが先頭から出力されるように拍カウントデータを音楽データに付加すると、カウント音の後に無音部分が出力されることとなり、ユーザにとって楽曲の拍の把握が困難となる。
 尚、上述の例では、カウント音の後に音楽データの先頭部分が出力されるよう拍カウントデータが付加されている。そこで、拍カウントデータ付加部14は、音楽データの出力の実行時に、楽曲の出力開始位置からの最初の一音が出力される前に拍カウントが出力されるよう拍カウントデータを付加する態様であってもよい。このとき、音楽データの出力開始位置に無音部分が検出される場合、図4(c)に示されるように該無音部分に重ねてカウント音が出力されるよう、拍カウントデータが付加される。
 このように拍カウントデータの付加の態様を変更することで、音楽データの先頭に無音部分が含まれる場合にも、ユーザに対し好適にタイミング調整が可能となるカウント音を報知出来る。
 また、この効果によれば、音楽データの先頭部分ではなく、楽曲の途中から出力を開始する場合など、音楽データの出力開始位置に拠らず、楽曲の出力開始前にカウント音を出力することが可能となる。このため、出力される音楽データを練習の手本とするユーザにとって、有益である。
 また、拍カウントデータ付加部14は、カウント音の出力期間を適宜変更して、拍カウントデータを音楽データに付加してもよい。例えば、拍カウントデータ付加部14は、図5(a)に示されるように、出力される楽曲の最初の小節の前に一小節分カウント音が出力されるよう生成される拍カウントデータを付加してもよく、また図5(b)に示されるように小節数を2小節に設定してもよい。また、小節に拘らず、特定の拍数のカウント音が出力される態様であってもよい。図5(c)の例では、出力される楽曲の最初の小節の前に、3拍分のカウント音が出力される。尚、出力されるカウント音の小節数又は拍数などは、ユーザがタイミングを合わせやすいよう、適宜その他の態様に設定されてもよい。
 また、音楽データに含まれる楽曲の中には、楽曲の先頭が1拍目から始まらない場合がある。例えば、図6(a-1)に示される例では、楽曲の最初の一音は先頭小節の2拍目である。この場合、上述したように先頭小節の前の小節にカウント音を出力させるよう拍カウントデータを付加させると、実際のカウント音の出力から楽曲の最初の一音が出力されるまでの間に1拍分間隙が生じ、ユーザによってはタイミングを合わせ難いと感じる場合がある。
 他方で、拍カウントデータ付加部14は、拍データ検出部11において検出される情報により、楽曲の最初の一音が先頭小節内の1拍目から始まらないと判断される場合、先頭小節前の指定小節分に加えて、先頭小節における楽曲の最初の1音の前の拍までカウント音を出力するよう、拍カウントデータを付加する。
 例えば、図6(a-2)では、楽曲の最初の一音が先頭小節の2拍目から開始される音楽データに対し、先頭小節前の1小節に加えて、先頭小節における1拍目までカウント音が出力されるよう、拍カウントデータが付加されている。尚、図6(a-1)に示されるように、小節単位でカウント音が出力されるよう、拍カウントデータが付加されてもよく、ユーザの好みに応じて適宜変更可能であることが好ましい。
 図6(b-1)に示されるように、楽曲の最初の一音が先頭小節の4分の4拍子の4拍目から開始される場合、図6(b-1)に示されるように、先頭小節の一つ前の小節にカウント音が出力される態様、図6(b-2)に示されるように、先頭小節の一つ前の小節及び先頭小節の3拍目までカウント音が出力される態様、また図6(b-3)に示されるように、先頭小節のみ3拍目までカウント音が出力される態様など、複数の態様のいずれかがユーザの好みに合わせて選択される。
 また、音楽データに含まれる楽曲の最初の一音が裏拍である場合がある。例えば、図7(a-1)に示される例では、楽曲の最初の一音は先頭小節の4拍目の裏拍となる。かかる裏拍は、通常の拍に比べて一拍あたりのデータ長(例えば、サンプル数又は時間)が短くなるため、拍データ検出部11により検出される拍データから判別可能となる。
 このような裏拍から楽曲が開始する場合にも、複数通りの態様からユーザの好みに合わせて拍カウントデータの付加が行われてよい。例えば、図7(a-1)に示されるように、先頭小節の一つ前の小節及び先頭小節の3拍目までカウント音が出力される態様、図7(a-2)に示されるように、先頭小節の一つ前の小節及び先頭小節の4拍目までカウント音が出力される態様、図7(a-3)に示されるように、先頭小節のみ3拍目までカウント音が出力される態様、または図7(a-4)に示されるように、先頭小節のみ4拍目までカウント音が出力される態様などからユーザの好みに合わせて拍カウントデータの付加方法が選択される。
 (3)変形例
 続いて、図8を参照して、本実施例における情報処理装置1の変形例である情報処理装置2の構成と動作について説明する。図8は、情報処理装置2の基本的な構成を示すブロック図である。情報処理装置2は、入力部10、拍データ検出部11、プリカウント計算部12、プリカウントデータ生成部13、第1出力部21及び第2出力部22を備えて構成される。尚、図8に示される情報処理装置2について、図1に示される情報処理装置1と同様の構成については、同一の番号を付して説明を省略する。
 入力部10は、入力される音楽データを拍データ検出部11と第1出力部21とに供給する。
 拍データ検出部11は、供給された音楽データから拍データを検出し、拍カウント算出部12へと供給する。拍カウント算出部12は、拍データより拍カウントを算出し、拍カウントデータ生成部13へと供給する。拍カウントデータ生成部13は、拍カウントからカウント音を出力するための拍カウントデータを生成、第2出力部22へと供給する。
 第1出力部21及び第2出力部22は、夫々供給されたデータに基づく音声を出力するスピーカなどであり、第1出力部21は楽曲より構成される再生データを、第2出力部22は拍カウントデータに音づくカウント音より構成される再生データを夫々出力する。
 このとき、第1出力部21と第2出力部22とは内部に備えられる不図示の制御ユニット間でデータの同期を行い、第1出力部21が出力する音楽データに含まれる楽曲に応じたタイミングで第2出力部22がカウント音を出力する。このときの音楽データに含まれる楽曲に応じたタイミングとは、例えば上述した音楽データに対して拍カウントデータを付加する際の態様に準じるものである。
 例えば、第1出力部21は、第2出力部22が1小節分のカウント音を出力した後に、楽曲の先頭小節が出力されるよう楽曲の出力を行う。また、カウント音と楽曲との出力の態様は、上述した音楽データに対して拍カウントデータを付加する際の種々の態様が適宜採用されてよい。
 変形例の情報処理装置2によれば、生成された拍カウントデータを音楽データに付加することなく、上述した情報処理装置1により得られるものと同様の効果を得ることが出来る。また、情報処理装置2においては、拍カウントデータを音楽データに付加するために要する処理を省くことが出来、処理量を軽減できるという利点もある。
 本発明は、上述した実施例に限られるものではなく、請求の範囲及び明細書全体から読み取れる発明の要旨または思想に反しない範囲で適宜変更可能であり、そのような変更を伴なう情報処理装置及び方法並びにコンピュータプログラムなどもまた本発明の技術的範囲に含まれるものである。
1 情報処理装置、
2 情報処理装置、
11 拍データ検出部、
12 拍カウント算出部、
13 拍カウントデータ生成部、
14 拍カウントデータ付加部、
15 出力部、
21 第1出力部、
22 第2出力部。

Claims (8)

  1.  音声情報に含まれる楽曲の拍を示す拍情報を検出する拍検出手段と、
     前記拍情報に基づき、前記楽曲の拍と同期した拍を示す拍カウント情報を生成する拍カウント情報生成手段と、
     生成された前記拍カウント情報を出力する出力手段と
     を備えることを特徴とする情報処理装置。
  2.  前記出力手段は、前記拍カウント情報に基づき、前記楽曲の拍と同期した拍を報知する出力を行うことを特徴とする請求項1に記載の情報処理装置。
  3.  前記拍カウント情報を前記音声情報に付加する付加手段を更に備え、
     前記出力手段は、前記音声情報に付加される前記拍カウント情報に基づき、前記楽曲の拍と同期した拍を報知する出力を行うことを特徴とする請求項2に記載の情報処理装置。
  4.  前記付加手段は、前記出力手段が前記楽曲を出力する前に前記楽曲の拍と同期した拍を報知するための認識音を出力するように、前記拍カウント情報を前記音声情報に付加することを特徴とする請求項3に記載の情報処理装置。
  5.  前記出力手段は、前記楽曲の拍と同期した拍を報知した後に、前記楽曲の出力を開始することを特徴とする請求項2に記載の情報処理装置。
  6.  前記拍検出手段は、前記拍情報に基づいて前記楽曲の小節を検出し、
     前記出力手段は、前記楽曲の小節内の拍ごとに報知の態様を変化させて出力することを特徴とする請求項2に記載の情報処理装置。
  7.  音声情報に含まれる楽曲の拍を示す拍情報を検出する拍検出工程と、
     前記拍情報に基づき、前記楽曲の拍と同期した拍を示す拍カウント情報を生成する拍カウント情報生成工程と、
     生成された前記拍カウント情報を出力する出力工程と
     を備えることを特徴とする情報処理方法。
  8.  情報処理装置を動作させるためのコンピュータプログラムであって、
     音声情報に含まれる楽曲の拍を示す拍情報を検出する拍検出工程と、
     前記拍情報に基づき、前記楽曲の拍と同期した拍を示す拍カウント情報を生成する拍カウント情報生成工程と、
     生成された前記拍カウント情報を出力する出力工程と
     を前記情報処理装置に実行させることを特徴とするコンピュータプログラム。
PCT/JP2010/056385 2010-04-08 2010-04-08 情報処理装置及び方法、並びにコンピュータプログラム WO2011125203A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/056385 WO2011125203A1 (ja) 2010-04-08 2010-04-08 情報処理装置及び方法、並びにコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/056385 WO2011125203A1 (ja) 2010-04-08 2010-04-08 情報処理装置及び方法、並びにコンピュータプログラム

Publications (1)

Publication Number Publication Date
WO2011125203A1 true WO2011125203A1 (ja) 2011-10-13

Family

ID=44762189

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/056385 WO2011125203A1 (ja) 2010-04-08 2010-04-08 情報処理装置及び方法、並びにコンピュータプログラム

Country Status (1)

Country Link
WO (1) WO2011125203A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06214565A (ja) * 1993-01-14 1994-08-05 Yamaha Corp 記録媒体再生装置
JP2004347522A (ja) * 2003-05-23 2004-12-09 Seiko Instruments Inc 電子メトロノーム及び電子式メトロノームの表示方法
JP2006226718A (ja) * 2005-02-15 2006-08-31 Kawai Musical Instr Mfg Co Ltd メトロノーム、その拍子設定方法及び電子楽器
JP2008040283A (ja) * 2006-08-09 2008-02-21 Kawai Musical Instr Mfg Co Ltd コード名検出装置及びコード名検出用プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06214565A (ja) * 1993-01-14 1994-08-05 Yamaha Corp 記録媒体再生装置
JP2004347522A (ja) * 2003-05-23 2004-12-09 Seiko Instruments Inc 電子メトロノーム及び電子式メトロノームの表示方法
JP2006226718A (ja) * 2005-02-15 2006-08-31 Kawai Musical Instr Mfg Co Ltd メトロノーム、その拍子設定方法及び電子楽器
JP2008040283A (ja) * 2006-08-09 2008-02-21 Kawai Musical Instr Mfg Co Ltd コード名検出装置及びコード名検出用プログラム

Similar Documents

Publication Publication Date Title
JP4823804B2 (ja) コード名検出装置及びコード名検出用プログラム
JP3835324B2 (ja) 楽曲再生装置
US20110015767A1 (en) Doubling or replacing a recorded sound using a digital audio workstation
JP2007292847A (ja) 楽曲編集・再生装置
JP2012002858A (ja) タイムスケーリング方法、ピッチシフト方法、オーディオデータ処理装置およびプログラム
JP2009063714A (ja) オーディオ再生装置およびオーディオ早送り再生方法
JP7367835B2 (ja) 録音再生装置、録音再生装置の制御方法及び制御プログラム並びに電子楽器
JP4203750B2 (ja) 電子音楽装置および同装置に適用されるコンピュータプログラム
JP3750533B2 (ja) 波形データ録音装置および録音波形データ再生装置
JP3909985B2 (ja) オーディオ情報再生方法及びオーディオ情報再生装置並びに情報記録媒体
JP5245973B2 (ja) 採点装置,プログラム
WO2011125203A1 (ja) 情報処理装置及び方法、並びにコンピュータプログラム
JP2006268936A (ja) オーディオ信号再生装置
JP4107212B2 (ja) 楽曲再生装置
JP4537490B2 (ja) オーディオ再生装置およびオーディオ早送り再生方法
JP6168649B2 (ja) コード検出装置及びプログラム
KR101244289B1 (ko) Mp3 곡 데이터와 미디용 가사 데이터의 동기방법
JP2010185973A (ja) 発音制御装置
JP3804536B2 (ja) 楽音再生記録装置、記録装置及び記録方法
JP2002268637A (ja) 拍子判定装置、及びプログラム
JP5375869B2 (ja) 楽曲再生装置、楽曲再生方法及びプログラム
JP6464853B2 (ja) オーディオ再生装置及びオーディオ再生プログラム
JP2007181135A (ja) 特定楽器信号分離方法ならびに装置、およびこれらを備えた楽器スピーカシステムならびに音楽再生システム
JP2009204907A (ja) 同期再生装置、楽曲自動リミックスシステム、同期再生方法および同期再生プログラム
JP2004085610A (ja) 音声データと演奏データの同期再生を行うための装置および方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10849446

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10849446

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP