WO2013024514A1 - 情報処理装置、情報処理方法、及び情報処理制御用のコンピュータプログラム、並びに、再生装置、再生方法、及び再生制御用のコンピュータプログラム - Google Patents

情報処理装置、情報処理方法、及び情報処理制御用のコンピュータプログラム、並びに、再生装置、再生方法、及び再生制御用のコンピュータプログラム Download PDF

Info

Publication number
WO2013024514A1
WO2013024514A1 PCT/JP2011/068445 JP2011068445W WO2013024514A1 WO 2013024514 A1 WO2013024514 A1 WO 2013024514A1 JP 2011068445 W JP2011068445 W JP 2011068445W WO 2013024514 A1 WO2013024514 A1 WO 2013024514A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
information processing
processing apparatus
image portion
unit
Prior art date
Application number
PCT/JP2011/068445
Other languages
English (en)
French (fr)
Inventor
康夫 城▲崎▼
明 宮田
清水 晃
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to JP2013528849A priority Critical patent/JP5867933B2/ja
Priority to PCT/JP2011/068445 priority patent/WO2013024514A1/ja
Publication of WO2013024514A1 publication Critical patent/WO2013024514A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B15/00Teaching music

Definitions

  • the present invention relates to an information processing apparatus, an information processing method, a computer program for information processing control, and a playback apparatus used in a playback system in which, for example, content data such as music is played back in synchronization with image data such as a score.
  • the present invention relates to a reproduction method and a technical field of a computer program for reproduction control.
  • a karaoke system in which accompaniment music based on karaoke data is played back in synchronization with lyrics is known.
  • the karaoke system described in Patent Literature 1 can generate score data by phrase for each phrase category of karaoke data, and can specify a high difficulty phrase category having a relatively low score. Therefore, the karaoke system described in Patent Literature 1 can notify the user of the karaoke system of the high difficulty phrase classification that is difficult to obtain a score for many users because of the high degree of difficulty.
  • the user who uses the karaoke system not only has a desire to specify a phrase category that is difficult (in other words, difficult to sing), but also a phrase category that allows more effective or efficient practice.
  • a phrase category that allows more effective or efficient practice.
  • the user wants to specify phrase categories that are easy to improve their singing ability by practicing intensively (for example, phrase categories that are popular because other users are also intensively practicing). May have a desire.
  • phrase classification that is, identification of a high difficulty phrase classification
  • the user can only determine whether the specified phrase segment is a phrase segment that is easy for a user to sing or a phrase segment that is difficult to sing. Therefore, in the karaoke system described in the above-described Patent Document 1, the user has a phrase segment that is specified as a phrase segment that is highly popular (in other words, other users are also practicing intensively) or There is a technical problem that it is impossible to determine whether the phrase classification is low (in other words, other users are not practicing intensively).
  • a similar technical problem is not only in a karaoke system that specifies a predetermined phrase segment, but also in a playback system in which music data and score data are played back in synchronization, for example, a predetermined score portion (for example, other The same may occur in the case of specifying the musical score portion that the user is practicing intensively.
  • the above-described technical problem is that, for example, arbitrary content data (for example, arbitrary video, arbitrary music, etc.) and arbitrary image data corresponding to the arbitrary content data are reproduced while being synchronized. In some cases, this can occur as well.
  • the present invention provides an information processing apparatus, an information processing method, and an information processing apparatus that can suitably specify an image portion that is highly likely to be a reference for a user from among image portions of image data that are reproduced in synchronization with content data. It is another object of the present invention to provide a computer program for controlling information processing, a playback device, a playback method, and a computer program for playback control.
  • an information processing apparatus includes a plurality of image portions that constitute image data that is image data that is reproduced in synchronization with content data and that visually indicates information unique to the content data.
  • An acquisition unit that acquires number-of-times information indicating the number of times each has been played by the user, and a part of the plurality of image portions that satisfies a predetermined criterion based on the number-of-times information acquired by the acquisition unit Specifying means for specifying the image portion.
  • an information processing method includes a plurality of image portions that are image data that is reproduced while being synchronized with content data, and that constitute image data that visually indicates information unique to the content data.
  • a specifying step for specifying the image portion is a predetermined criterion based on the frequency information acquired by the acquisition step.
  • a computer program for information processing control causes a computer to function as the information processing apparatus described above.
  • a reproducing apparatus includes a receiving unit that receives the partial image portion specified by the information processing apparatus, and a reproducing unit that reproduces the partial image portion received by the receiving unit.
  • a reproducing method includes a receiving step of receiving the partial image portion specified by the information processing apparatus, and a reproducing step of reproducing the partial image portion received by the receiving step.
  • the computer program for playback control causes the computer to function as the playback device described above.
  • each of a plurality of image portions constituting image data that is image data reproduced in synchronization with content data and visually indicates information unique to the content data is performed by a user.
  • An acquisition unit that acquires frequency information indicating the number of times of reproduction, and a part of the image portions in which the number of times satisfies a predetermined criterion based on the frequency information acquired by the acquisition unit.
  • Specifying means for specifying are specified.
  • the acquisition unit acquires the number information.
  • the acquisition unit may acquire the number-of-times information stored inside the information processing apparatus, or may acquire the number-of-times information from outside the information processing apparatus.
  • “Number-of-times information” indicates the number of times each of a plurality of image portions constituting the image data has been reproduced by the user (in other words, the number of times displayed). In other words, the “number of times information” indicates the number of times each image portion is reproduced by some device provided by the user.
  • “Image data” is image data that is reproduced in synchronization with content data. Therefore, the image data is reproduced (displayed) at an appropriate timing according to the content data being reproduced.
  • the “image data” is image data that visually indicates information unique to the content data. Examples of content data include music data (in other words, audio data), video data (in other words, moving image data), and the like.
  • image data examples include, for example, musical score data, lyrics data, code data, and the like, which will be described later.
  • the “image data” may be data that is reproduced as an image at the time of reproduction while being synchronized with the content data. That is, the “image data” may be data that directly indicates an image such as a JPEG image or a GIF image, for example, or data that indirectly indicates an image such as MusicXML (more specifically, for example, Although the data itself is text data, it may be data that is converted into an image when reproduced).
  • the specifying unit specifies a part of the image portions in which the number of times reproduced by the user satisfies a predetermined criterion among the plurality of image portions based on the number of times information acquired by the acquiring unit.
  • the specified part of the image portion may be reproduced by the information processing apparatus itself.
  • the specified part of the image portion may be transmitted (or transferred) to another information processing apparatus and then reproduced by the other information processing apparatus itself. As a result, the specified part of the image portion is presented to the user.
  • the information processing apparatus can specify a part of an image portion in which the number of times played by the user satisfies a predetermined criterion.
  • the number of times played by the user can be an index indicating whether or not the image portion is attracting attention by the user (in other words, whether or not the user is playing mainly). Therefore, the information processing apparatus according to the present exemplary embodiment can preferably specify a part of the image portion that is likely to be useful for the user from among the image portions of the image data that is reproduced in synchronization with the content data. it can. That is, the information processing apparatus according to the present embodiment is highly popular among users among image portions of image data reproduced in synchronization with content data (for example, other users are also practicing intensively). The image part of the part can be specified suitably.
  • the number of times information generated by the generation means is stored by generating means for generating the number of times by monitoring the reproduction mode of each image portion by the user.
  • the acquisition unit can acquire the number-of-times information generated by the generation unit and stored by the storage unit.
  • the specifying unit can specify a part of the plurality of image portions in which the number of times reproduced by the user satisfies a predetermined criterion.
  • the aspect of the information processing apparatus including the generation unit as described above may be configured such that the generation unit generates the number-of-times information indicating the number of times each image portion is counted up each time the image part is reproduced by the user. Good.
  • the generation unit can suitably generate the number information.
  • the generation unit generates the number-of-times information indicating the number of times the loop reproduction is performed for a predetermined reproduction period including a reproduction period corresponding to each image portion. You may comprise.
  • generation means will produce
  • the number of times the loop reproduction is performed can be an index indicating whether or not the image portion is attracting attention by the user (in other words, whether or not the user is reproducing mainly). Therefore, the specifying unit can preferably specify a part of the image portion that is likely to be referred to by the user from among the image portions of the image data reproduced in synchronization with the content data.
  • the generation unit may be configured to generate the number-of-times information indicating the number of times each image portion has been reproduced by the user for a specific use. Good.
  • generation means will produce
  • the number of times that the image portion is reproduced for the purpose of specific use indicates, in other words, whether or not the image portion is attracting attention by the user (in other words, whether or not the user is reproducing mainly). It can be an indicator to show. Therefore, the specifying unit can preferably specify a part of the image portion that is likely to be referred to by the user from among the image portions of the image data reproduced in synchronization with the content data.
  • the generation unit is configured so that the number of times each image portion is reproduced by the user in a state where an additional performance is performed by the user with respect to the reproduction of the content data.
  • the number information indicating the above may be generated.
  • generation means will show the frequency
  • Information can be generated suitably.
  • the number of times that the image portion is reproduced in a state where an additional performance is made by the user is, in other words, whether or not the image portion is attracting attention by the user (in other words, the image portion is reproduced mainly by the user). Or not). Therefore, the specifying unit can preferably specify a part of the image portion that is likely to be referred to by the user from among the image portions of the image data reproduced in synchronization with the content data.
  • the specifying unit specifies the part of the image portion that has the maximum number of times.
  • the specifying unit suitably specifies the image portion that is the largest number of times played by the user (that is, the image portion that is most noticed by the user or that is being played back by the user). be able to.
  • the specifying unit specifies the part of the image portion in which the number of times exceeds a predetermined threshold.
  • the specifying means may be an image portion where the number of times played by the user is an appropriate number of times (that is, the degree of attention being given to the user is relatively high, or the user may be playing mainly.
  • the image portion having a relatively high property) can be suitably specified.
  • the specifying unit specifies the part of the image portion in which the deviation value of the number of times is equal to or greater than a predetermined value.
  • the specifying means may be an image portion where the number of times played by the user is an appropriate number of times (that is, the degree of attention being given to the user is relatively high, or the user may be playing mainly.
  • the image portion having a relatively high property) can be suitably specified.
  • the content data is music data
  • the image data includes music score data that visually indicates music score information unique to the music data.
  • the specifying means can preferably specify a part of the musical score portion that is likely to be referred to by the user from the respective musical score portions of the musical score data reproduced in synchronization with the music data. .
  • the content data is music data
  • the image data includes lyric data that visually indicates lyrics information unique to the music data.
  • the specifying unit can preferably specify a part of lyrics that is likely to be helpful to the user from the lyrics of the lyrics data that is reproduced in synchronization with the music data. .
  • the content data is music data
  • the image data includes code data that visually indicates code information unique to the music data.
  • the specifying means can preferably specify a part of the chord portion that is likely to be helpful to the user from among the chord portions of the score data reproduced in synchronization with the music data. .
  • the information processing apparatus further includes a reproducing unit that reproduces the partial image portion specified by the specifying unit.
  • the information processing apparatus can suitably reproduce a part of the image portion that is likely to be helpful to the user among the image portions of the image data that is reproduced in synchronization with the content data. it can.
  • the information processing apparatus includes a notification unit that notifies the other information processing apparatus of the partial image portion specified by the specifying unit. The part of the image portion notified by the notification means is reproduced.
  • the information processing apparatus is a part of each image portion of the image data that is reproduced in synchronization with the content data with respect to another information processing apparatus, and is likely to be helpful to the user.
  • the image portion can be suitably reproduced.
  • each of a plurality of image portions that constitute image data that is image data that is reproduced in synchronization with the content data and that visually indicates information unique to the content data is performed by the user.
  • the information processing method of the present embodiment can also adopt various aspects.
  • the computer program for information processing control causes the computer to function as the above-described information processing apparatus according to the present embodiment (including various aspects thereof).
  • the computer program for information processing control of the present embodiment can also adopt various aspects.
  • the computer program for information processing control of the present embodiment may be recorded on a computer-readable recording medium.
  • the reproduction apparatus includes a receiving unit that receives the partial image portion specified by the information processing apparatus according to the present embodiment described above (including various aspects thereof), and the one received by the receiving unit.
  • Reproducing means for reproducing the image portion of the image includes a receiving unit that receives the partial image portion specified by the information processing apparatus according to the present embodiment described above (including various aspects thereof), and the one received by the receiving unit.
  • the playback device of the present embodiment it is possible to preferably play back an image portion that is likely to be helpful to the user from among the image portions of the image data that are played back in synchronization with the content data.
  • the playback apparatus of the present embodiment can also adopt various aspects.
  • the reproduction method according to the present embodiment includes a receiving process for receiving the partial image portion specified by the information processing apparatus according to the present embodiment described above (including various aspects thereof), and the one received by the receiving process.
  • the reproduction method of the present embodiment can also adopt various aspects.
  • the computer program for playback control according to the present embodiment causes the computer to function as the playback device according to the present embodiment described above (including various aspects thereof).
  • the reproduction control computer program of the present embodiment can also adopt various aspects.
  • the computer program for playback control of the present embodiment may be recorded on a computer-readable recording medium.
  • the information processing apparatus of this embodiment includes an acquisition unit and a specification unit.
  • the information processing method of the present embodiment includes an acquisition process and a specific process.
  • the computer program for information processing control of this embodiment makes a computer function as the information processing apparatus of this embodiment. Therefore, the information processing apparatus, the information processing method, and the computer program according to the present embodiment preferably select an image portion that is highly likely to be referred to by the user from among the image portions of the image data that is reproduced in synchronization with the content data. Can be identified.
  • the playback device of this embodiment includes a receiving unit and a playback unit.
  • the reproduction method of this embodiment includes a receiving process and a reproduction process.
  • the computer program for playback control according to this embodiment causes a computer to function as the playback device according to this embodiment. Therefore, the playback apparatus, playback method, and computer program of this embodiment suitably play back image portions that are likely to be useful to the user from among the image portions of the image data that are played back in synchronization with the content data. be able to.
  • an information processing apparatus an information processing method, and a computer program for information processing control
  • a playback apparatus a playback method, and a computer program for playback control
  • a description will be given using a music server 10 that distributes music (more specifically, a plurality of part data constituting the music) and a score of the music.
  • a playback apparatus the description will be given using a client terminal 20 that downloads music and a score distributed from the music server 10 and plays back the music and the score while synchronizing.
  • an information processing device and a playback device an information processing device that distributes arbitrary content other than music (for example, video, still images, text data, and other arbitrary data) and a playback device that plays back the content May be adopted.
  • FIG. 1 is a block diagram showing the configuration of the music distribution system 1 of this embodiment.
  • the music distribution system 1 includes a music server 10, a client terminal 20, and a network 30.
  • the music server 10 stores a plurality of part data 1111 constituting music.
  • the part data 1111 stored in the music server 10 is, for example, part data 1111 uploaded (in other words, transmitted) from the client terminal 20 to the music server 10.
  • the music server 10 may store the part data 1111 acquired in other modes.
  • Each part data 1111 corresponds to performance data corresponding to one of a plurality of parts (that is, one of a plurality of instrument parts or performance parts) constituting the music. Part data 1111 will be described later in detail (see FIG. 3 and the like).
  • the music server 10 distributes (in other words, transmits) desired part data 1111 to the client terminal 20 in response to a request from the client terminal 20.
  • the music server 10 stores a plurality of score image data 1121 corresponding to the plurality of part data 1111.
  • the musical score image data 1121 is image data that visually indicates a musical score indicating a performance mode of the corresponding part data 1111.
  • the music server 10 distributes (in other words, transmits) desired musical score image data 1121 to the client terminal 20 in response to a request from the client terminal 20.
  • the client terminal 20 uploads the part data 1111 to the music server 10.
  • the part data 1111 uploaded by the client terminal 20 is, for example, part data 1111 created (in other words, recorded) by the user of the client terminal 20 actually playing a musical instrument.
  • the client terminal 20 may upload the part data 1111 created or acquired in another manner.
  • the client terminal 20 provides the music server 10 with the desired part data 1111 among the plurality of part data 1111 stored in the music server 10 and the desired musical score image among the plurality of musical score image data 1121. Request distribution of data 1121.
  • the client terminal 20 downloads (in other words, obtains or receives) desired part data 1111 and desired score image data 1121 distributed from the music server 10. Thereafter, the client terminal 20 may reproduce the acquired part data 1111 and score image data 1121 while synchronizing them.
  • the network 30 is a network line that connects the music server 10 and the client terminal 20.
  • the network 30 may be a wired network line, a wireless network line, or a combination of a wired network line and a wireless network line.
  • FIG. 1 shows an example in which the music distribution system 1 includes one music server 10.
  • the music distribution system 1 may include a plurality of music servers 10.
  • the client terminal 20 uploads the part data 1111 to at least one of the plurality of music servers 10, and the part data 1111 and the score image data 1121 from at least one of the plurality of music servers 10. May be downloaded.
  • FIG. 1 shows an example in which the music distribution system 1 includes one client terminal 20.
  • the music distribution system 1 may include a plurality of client terminals 20.
  • a certain client terminal 20 may download the part data 1111 uploaded by another client terminal 20.
  • FIG. 2 is a block diagram showing the configuration of the music server 10 of this embodiment.
  • the music server 10 includes a database 110, a control unit 120, a display unit 130, and a data communication unit 140.
  • the database 110 includes a part data storage unit 111, a score data storage unit 112, and a frequency data storage unit 113.
  • the part data storage unit 111 stores a plurality of part data 1111 uploaded from the client terminal 20.
  • Each of the plurality of part data 1111 constitutes a specific example of “content data”.
  • FIGS. FIG. 3 and FIG. 4 are schematic diagrams showing the modes of the plurality of part data 1111 stored in the part data storage unit 111, respectively.
  • the part data storage unit 111 preferably stores a plurality of part data 1111 in a state of being classified according to a predetermined rule.
  • the rules there are the song name of the music composed of the part data 1111, the tempo of the music composed of the part data 1111, and the like. Accordingly, it is preferable that one or a plurality of part data 1111 constituting music pieces having the same music title and having the same tempo constitute a data group classified by the same rule. For example, in the example shown in FIG.
  • part data 1111 constituting a song having a song name “XXX” and a tempo “102 bpm (Beat Per Minute)” In a state in which a data group classified into the category A is configured, it is stored in the part data storage unit 111.
  • part data storage unit 111 In a state in which a data group classified into the category A is configured, it is stored in the part data storage unit 111.
  • one or a plurality of part data 1111 constituting a song having a song name “xxx” and a tempo “88 bpm” is classified into a rule B.
  • the data group is stored in the part data storage unit 111 in a state where the data group is configured.
  • the part data storage unit 111 stores the song name and tempo of the new part data 1111.
  • the new part data 1111 may be classified according to the rule by analyzing the same (that is, the characteristic characterizing the rule).
  • the new part data 1111 is stored on the client terminal 20 by recording the user's own performance with other part data 1111 downloaded from the music server 10 as an accompaniment. Is relatively often the timing at which is generated. In this case, the song name and tempo of the new part data 1111 coincide with the song names and tempos of the other part data 1111 as the accompaniment.
  • the part data storage unit 111 does not analyze the song name, tempo, etc. of the new part data 1111, and other part data 1111 that accompanies the new part data 1111. It may be determined that it is classified into the same rule as the rule to be classified.
  • a plurality of part data 1111 constituting a data group classified according to the same rule is stored in the part data storage unit 111 in a state classified for each part.
  • a plurality of part data 1111 constituting a data group classified into the category of rule A includes one or more part data 1111 corresponding to a lead guitar and one or more corresponding to chorus. Are classified into one part data 1111 corresponding to a bass, one part data 1111 corresponding to a drum, and one part data 1111 corresponding to a vocal. Stored.
  • FIG. 3 a plurality of part data 1111 constituting a data group classified into the category of rule A
  • a plurality of part data 1111 constituting a data group classified into the category of rule B includes one or more part data 1111 corresponding to the lead guitar and one or more corresponding to the base. Stored in a state of being classified into a plurality of part data 1111, one or more part data 1111 corresponding to the drum, and one or more part data 1111 corresponding to the vocal.
  • the part data storage unit 111 stores a part corresponding to the new part data 1111 each time new part data 1111 is stored. It is preferable to classify the new part data 1111 for each part by analysis.
  • the part data storage unit 111 may store a plurality of part data 1111 constituting a data group classified by the same rule in a state of being grouped in units of bands.
  • the “band” refers to a set of one or a plurality of parts for constituting one musical piece. That is, a plurality of part data 1111 collected in units of bands are reproduced while being mixed on the client terminal 20, so that a state where one piece of music is played by a virtual band is substantially realized.
  • FIG. 4 the example shown in FIG.
  • one part data 1111 corresponding to the lead guitar, one part data 1111 corresponding to the drum, and one part data corresponding to the vocal A data group from a combination of part data 1111 and one part data 1111 corresponding to the base is stored in a state of being grouped in units of band # 1.
  • one part data 1111 corresponding to the lead guitar, one part data 1111 corresponding to the drum, and the base A data group from a combination with one part data 1111 is stored in a state of being grouped in a unit of band # 2.
  • the band # 2 data group corresponds to a so-called “minus one” data group that does not include the part data 1111 corresponding to the vocal as compared to the band # 1 data group.
  • each part data 1111 stored in a state of being grouped in units of bands is stored together with mixing information indicating a setting mode (for example, volume, pan, etc.) when mixing with other part data 1111. It may be. Therefore, when mixing a plurality of part data 1111 collected in units of bands, the client terminal 20 preferably mixes with reference to the mixing information recorded together with the part data 1111. Thereby, the client terminal 20 can perform appropriate mixing of the plurality of part data 1111.
  • a setting mode for example, volume, pan, etc.
  • FIG. 4 shows an example in which a plurality of part data 1111 that are grouped in units of bands but not yet mixed are stored in the part data storage unit 111.
  • a plurality of part data 1111 collected in units of bands may be stored in a mixed state.
  • the part data storage unit 111 may store one mix data obtained by mixing a plurality of part data 1111.
  • Such storage of each part data or each band or each band of the part data 1111 by the part data storage unit 111 is logically performed by predetermined management information stored in the part data storage unit 111 together with the part data 1111, for example. It is preferable to be realized.
  • the part data storage unit 111 stores a plurality of part data 1111 itself as they are without being directly distinguished, and classifies each part or band for each rule of the stored part data 1111. It is preferable to separately store management information for management.
  • the music server 10 can recognize that a plurality of part data 1111 is stored on the part data storage unit 111 in the manner shown in FIGS. 3 and 4 by referring to the management information.
  • the part data storage unit 111 may physically realize storage for each part, for each part, or for each band, by dividing a physical partition.
  • the score data storage unit 112 stores one or a plurality of score image data 1121 indicating each score of the plurality of part data 1111 stored in the part data storage unit 111.
  • the score image data 1121 constitutes a specific example of “image data”.
  • FIG. 5 is an image showing the score image data 1121 stored in the score data storage unit 112.
  • the score image data 1121 is image data (for example, JPEG data, bitmap data, MusicXML data, etc.) indicating a score image.
  • FIG. 5 shows an example of the score image data 1121 showing a two-stage score including five bars each.
  • Each point (each position) in the score image data 1121 is preferably assigned a coordinate whose origin is a predetermined position in the image (for example, the upper left corner of the image).
  • “124” is assigned to the upper Y coordinate of the upper staff (that is, the vertical coordinate in FIG. 5)
  • “207” is assigned to the lower Y coordinate of the upper staff.
  • “490” is assigned to the upper Y coordinate of the lower staff, and “573” is assigned to the lower Y coordinate of the lower staff.
  • “1319”, “1741”, and “2163” are assigned.
  • Such musical score image data 1121 is preferably displayed on the client terminal 20 in synchronization with the reproduction of the corresponding part data 1111 (or music composed of the corresponding part data 1111).
  • the part data 1111 and the score image data 1121 are reproduced so that the playback location of the corresponding part data 1111 and the display location (or highlight location) of the score image data 1121 are synchronized (that is, temporally match).
  • Regeneration is preferably performed.
  • the score data storage unit 112 stores one or a plurality of score image data 1121 individually corresponding to each of the plurality of part data 1111 stored in the part data storage unit 111. Illustrated. However, the score data storage unit 112 stores one or a plurality of score image data 1121 individually corresponding to one or a plurality of pieces of music composed of a plurality of part data 1111 stored in the part data storage unit 111. May be. Alternatively, in the score data storage unit 112, one or a plurality of score image data 1121 distinguished for each rule, each part, or each band, which is a unit for classifying the plurality of part data 1111 stored in the part data storage unit 111. May be stored.
  • the score data storage unit 112 may store one or a plurality of score image data 1121 individually corresponding to the mix data stored in the part data storage unit 111.
  • the score data storage unit 112 may store one or a plurality of score image data 1121 corresponding to the plurality of part data 1111 stored in the part data storage unit 111 in another manner.
  • the number-of-times data storage unit 113 stores number-of-times data 1131 indicating the number of reproductions of each of the plurality of score image data 1121 stored in the score data storage unit 112.
  • the number-of-times data 1131 preferably indicates the number of times of reproduction of each of the plurality of score image portions obtained by subdividing each score image data 1121 in terms of time for each score image data 1121.
  • the frequency data storage unit 113 is a specific example of “storage means”, and the frequency data 1131 is a specific example of “frequency information”.
  • FIG. 6 is a data structure diagram showing the data structure of the number data 1131 stored in the number data storage unit 113.
  • FIG. 6 shows an example in which “bars” are used as a unit for subdividing the score image data 1121.
  • the musical score image data 1121 may be subdivided into arbitrary units other than “bars” (for example, units delimited by rests, units delimited by the number of notes, units delimited by playback time, etc.). Good.
  • the number-of-times data 1131 may indicate “total number of reproductions” obtained by counting one reproduction of the score image portion by the user as one reproduction.
  • the number-of-times data 1131 indicates that the user performs the practice (for example, practice the performance while viewing the score image portion) in addition to or instead of at least one of the “total number of times of reproduction” and the “number of times of loop reproduction”.
  • the “playback number for practice” obtained by counting the number of times of reproduction only when the purpose is (in other words, the number of times of reproduction is not counted when the user does not intend to practice) may be indicated.
  • the number data 1131 is played by the user along with the reproduction of the musical score image portion in addition to or instead of at least one of “the total number of reproductions”, “the number of reproductions for loop”, and “the number of reproductions for practice”.
  • the “playback number during performance” obtained by counting the number of playbacks only in other cases (in other words, when the performance by the user is not performed along with the playback of the score image portion) may be indicated.
  • total number of playbacks “total number of playbacks”, “number of loop playbacks”, “number of playbacks for practice”, and “number of playbacks during performance” are examples of the “number of playbacks” included in the number data 1131, and any other playback Data indicating the number of times may be included in the number of times data 1131.
  • the number-of-times data storage unit 113 may store one or a plurality of number-of-times data 1131 that individually correspond to each of the plurality of score image data 1121. Alternatively, the number-of-times data storage unit 113 may store one or a plurality of number-of-times data 1131 individually corresponding to one or a plurality of music pieces. Alternatively, the number-of-times data storage unit 113 may store one or a plurality of number-of-times data 1131 that is distinguished for each rule, for each part, or for each band. Alternatively, the number-of-times data storage unit 113 may store one or a plurality of number of times data 1131 individually corresponding to the mix data. Alternatively, the number data storage unit 113 may store one or a plurality of number data 1131 corresponding to the plurality of score image data 1131 in another manner.
  • each or at least one of the part data storage unit 111, the score data storage unit 112, and the number data storage unit 113 may be distributed across the plurality of databases 110 included in the plurality of music servers 10. That is, each or at least one of the part data storage unit 111, the score data storage unit 112, and the number data storage unit 113 may be distributed and arranged in a plurality of music servers 10 so as to adopt a so-called cloud form.
  • control unit 120 is a central control device (for example, CPU: Central Processing Unit) that controls the overall operation of the music server 10.
  • the control unit 120 includes a data communication control unit 121, a practice number collection unit 122, and a practice point presentation unit 123 as physical, logical, or functional processing blocks realized therein. .
  • the data communication control unit 121 controls the data communication unit 140 to distribute one or more part data 1111 requested from the client terminal 20. In addition, the data communication control unit 121 controls the data communication unit 140 to distribute one or a plurality of score image data 1121 requested by the client terminal 20. In addition, the data communication control unit 121 controls the data communication unit 140 to distribute arbitrary data requested by the client terminal 20.
  • the data communication control unit 121 controls the data communication unit 140 so as to receive the part data 1111 uploaded from the client terminal 20.
  • the data communication control unit 121 stores the received part data 1111 in the part data storage unit 111.
  • the data communication control unit 121 receives arbitrary data uploaded from the client terminal 20 (for example, notification data for notifying the music server 10 of a reproduction state in the client terminal 20 described later).
  • the data communication unit 140 is controlled.
  • the data communication control unit 121 stores the received arbitrary data in the database 110 as it is or after being analyzed as necessary.
  • the practice number collection unit 122 is a specific example of “generating means” and generates the number data 1131 based on the reproduction state of the client terminal 20 notified from the client terminal 20.
  • the practice number collection unit 122 stores the generated number data 1131 in the number data storage unit 113.
  • the practice point presentation unit 123 is a specific example of “specifying means” and should be presented to the user of the client terminal 20 based on the number of times data 1131 stored in the number of times data storage unit 113 (or The musical score image portion to be presented with particular emphasis or priority or to be emphasized is specified.
  • the practice point presentation unit 123 controls the data communication unit 140 so as to notify (or distribute) the identified image portion. As a result, the score image portion specified by the practice point presentation unit 123 is distributed to the client terminal 20 and reproduced (displayed) on the client terminal 20.
  • the display information generation unit 130 generates display information (for example, GUI (Graphic User Interface) information) necessary for the client terminal 20 to display a predetermined screen.
  • the display information generation unit 130 transmits the generated display information to the client terminal 20 via the data communication unit 140.
  • the client terminal 20 displays a screen generated based on the display information transmitted from the music server 10.
  • the data communication unit 140 performs communication with the client terminal 20 via the network 30 under the control of the data communication control unit 121. Accordingly, the part data 1111 or arbitrary data uploaded from the client terminal 20 is acquired by the data communication unit 140. The acquired part data 1111 or arbitrary data is stored in the database 110 by the data communication control unit 121. Also, the part data or arbitrary data requested from the client terminal 20 is read from the database 110 by the data communication control unit 121. The read part data 1111 or arbitrary data is distributed from the data communication unit 140 to the client terminal 20 under the control of the data communication control unit 121.
  • FIG. 7 is a block diagram showing the configuration of the client terminal 20 of this embodiment.
  • the client terminal 20 includes a storage device 210, a control unit 220, a display unit 230, a data communication unit 240, a voice input unit 250, a voice output unit 260, and an operation unit 270.
  • a storage device 210 the client terminal 20 includes a storage device 210, a control unit 220, a display unit 230, a data communication unit 240, a voice input unit 250, a voice output unit 260, and an operation unit 270.
  • the storage device 210 temporarily or permanently stores data used in the process of data processing in the client terminal 20.
  • Examples of the storage device 210 include a semiconductor memory such as a ROM, a RAM, and a flash memory, a hard disk, and the like.
  • the control unit 220 is a central control device (for example, CPU: Central Processing Unit) that controls the operation of the entire client terminal 20.
  • the control unit 220 includes a display control unit 221, an audio control unit 222, an operation control unit 223, and a data communication control unit 224 as physical, logical, or functional processing blocks implemented therein.
  • a reproduction state notification unit 225 is a central control device (for example, CPU: Central Processing Unit) that controls the operation of the entire client terminal 20.
  • the control unit 220 includes a display control unit 221, an audio control unit 222, an operation control unit 223, and a data communication control unit 224 as physical, logical, or functional processing blocks implemented therein.
  • a reproduction state notification unit 225 for example, CPU: Central Processing Unit
  • the display control unit 221 constitutes a specific example of “reproducing means” together with the display unit 230, and the display unit 230 performs a predetermined screen (for example, based on display information transmitted from the display information generation unit 130 of the music server 10).
  • the operation of the display unit 230 is controlled so as to display a screen for receiving an operation instruction of the client terminal 20 from the user, a screen showing the state of the client terminal 20 to the user, or the like.
  • the display control unit 221 controls the operation of the display unit 230 so as to display the score image data 1121 downloaded from the music server 10.
  • the display control unit 221 instructs the user to record performance data (that is, part data 1111) via the audio input unit 250, and sends the recorded part data 1111 to the music server 10.
  • a screen for accepting an upload instruction from the user may be displayed.
  • the display control unit 221 may display a screen for accepting an instruction to download a desired part data 1111 out of a plurality of part data 1111 stored in the music server 10 from the user.
  • the display information transmitted from the display information generation unit 130 of the music server 10 includes various information necessary for displaying such a screen.
  • the display control unit 221 may generate various kinds of information necessary for displaying the screen from scratch without being based on the display information transmitted from the display information generation unit 130 of the music server 10.
  • the voice control unit 222 controls recording of voice (for example, voice of vocal or chorus, voice by performance of each instrument, etc.) via the voice input unit 250.
  • the recorded sound may be temporarily or permanently stored in the storage device 210.
  • the audio control unit 222 controls the output of the part data 1111 downloaded from the music server 10 as audio from the audio output unit 260.
  • the operation control unit 223 receives a user operation using the operation unit 270 and notifies each unit in the client terminal 20 of the content of the received user operation so that an operation according to the received operation is performed. For example, when the operation control unit 223 receives a user operation for instructing recording of the performance data (that is, the part data 1111) of the user via the audio input unit 250, the operation control unit 223 performs audio control indicating that the operation has been received. Notification to the unit 222. As a result, the voice control unit 222 controls the operation of the voice input unit 250 so as to record user performance data.
  • the operation control unit 223 when the operation control unit 223 receives an operation of a user who requests downloading of desired musical score image data 1121, the operation control unit 223 notifies the data communication control unit 224 that the operation has been received. As a result, the data communication control unit 224 controls the operation of the data communication unit 240 so as to transmit a message requesting downloading of the desired musical score image data 1121 to the music server 10.
  • the data communication control unit 224 receives a notification from the operation control unit 223 that the user's operation instructing the upload of the part data 1111 is accepted, the data communication control unit 224 is recorded under the control of the voice control unit 222.
  • the data communication unit 240 is controlled to upload the part data 1111 to the music server 10.
  • the part data 1111 recorded under the control of the voice control unit 222 is uploaded from the client terminal 20 to the music server 10 via the data communication unit 240.
  • the data communication control unit 224 receives an instruction from the operation control unit 223 that has received a user's instruction requesting download of desired part data 1111 among the plurality of part data 1111 stored in the music server 10.
  • the data communication unit 240 is controlled to transmit a message requesting the music server 10 to download the desired part data 1111.
  • desired part data 1111 is downloaded from the music server 10 to the client terminal 20 via the data communication unit 240.
  • the data communication control unit 224 receives, for example, an instruction from the user who requests downloading of the desired score image data 1121 among the plurality of score image data 1121 stored in the music server 10 from the operation control unit 223.
  • the data communication unit 240 is controlled to transmit a message requesting the music server 10 to download the desired musical score image data 1121.
  • the desired musical score image data 1121 is downloaded from the music server 10 to the client terminal 20 via the data communication unit 240.
  • FIG. 8 is a schematic diagram schematically showing a manner of downloading and playing back the desired part data 1111 and the desired musical score image data 1121 realized by the control of the control unit 220.
  • the client terminal 20 has a plurality of part data 1111 corresponding to the lead guitar included in the data group classified into the classification of rule A under the control of the data communication control unit 224.
  • the user may request download of one desired part data 1111.
  • the client terminal 20 selects a desired part from a plurality of part data 1111 corresponding to the chorus included in the data group classified into the category of rule A. Download of data 1111 may be requested.
  • the client terminal 20 selects a desired part from among a plurality of part data 1111 corresponding to the base included in the data group classified into the category of rule A.
  • Download of data 1111 may be requested. Similarly, under the control of the data communication control unit 224, the client terminal 20 selects a desired part from among a plurality of part data 1111 corresponding to the drums included in the data group classified into the rule A. Download of data 1111 may be requested. Similarly, under the control of the data communication control unit 224, the client terminal 20 selects a desired part from among a plurality of part data 1111 corresponding to vocals included in the data group classified into the rule A. Download of data 1111 may be requested.
  • the client terminal 20 may request download of the musical score image data 1121 corresponding to the part data 1111 requested to be downloaded under the control of the data communication control unit 224.
  • the client terminal 20 under the control of the data communication control unit 224, the client terminal 20 has one part data 1111 corresponding to the lead guitar, one part data 1111 corresponding to the chorus, and one part data corresponding to the base. 1111, one part data 1111 corresponding to the drum, and one part data 1111 corresponding to the vocal are downloaded.
  • the client terminal 20 downloads the musical score image data 1121 corresponding to the part data 1111 requested to be downloaded under the control of the data communication control unit 224.
  • the client terminal 20 may reproduce the downloaded part data 1111 while mixing under the control of the audio control unit 222. Further, as shown in the lower part of FIG.
  • the client terminal 20 can reproduce the downloaded musical score image data 1121 in synchronization with the mixing reproduction of the downloaded part data 1111 under the control of the display control unit 221.
  • the display control unit 221 controls the display unit 230 to additionally display a predetermined display object (for example, a bar or the like) that specifies the current reproduction time on the reproduced musical score image data 1121. Also good.
  • the display control unit 221 further displays a playback slider for specifying the current playback time with respect to the entire playback period of the part data 1111. May be controlled.
  • the reproduction state notification unit 225 notifies the data communication control unit 224 of the reproduction state of the client terminal 20 (particularly, the reproduction state of the musical score image data 1121 by the client terminal 20).
  • the data communication control unit 224 controls the operation of the data communication unit 240 so as to transmit a message for notifying the reproduction state of the client terminal 20 to the music server 10.
  • the playback state of the client terminal 20 is notified to the music server 10.
  • the data communication unit 240 performs communication with the music server 10 via the network 30 under the control of the data communication control unit 224. Accordingly, the part data 1111 or arbitrary data uploaded from the client terminal 20 is transmitted to the music server 10 via the data communication unit 240. Further, part data 1111 or arbitrary data distributed from the music server 10 in response to a request from the client terminal 20 is acquired by the data communication unit 240. The acquired part data 1111 or arbitrary data may be temporarily or permanently stored in the storage device 210 by the data communication control unit 224, or may be output from the audio output unit 260.
  • the voice input unit 250 is a device that accepts voice input such as a microphone.
  • the audio output unit 260 is a device that outputs audio such as a speaker, for example.
  • the operation unit 270 is a device that receives user operations such as a keyboard, a mouse, and a touch panel.
  • FIG. 9 is a flowchart showing the flow of the operation (particularly, the operation in which the musical score image data 1121 is distributed from the music server 10 to the client terminal 20) in the music distribution system 1 of the present embodiment.
  • step S101 to step S107 in FIG. 9 may be realized by the music server 10 or may be executed on the control unit 120 provided in the music server 10. May be realized by software (for example, a computer program activated on the control unit 120). Similarly, part or all of the operations illustrated in FIG. 9 may be realized by hardware (for example, a dedicated IC chip) provided in the client terminal 20, or on the control unit 220 provided in the client terminal 20. It may be realized by software to be executed (for example, a computer program activated on the control unit 220).
  • a dedicated IC chip for example, a dedicated IC chip
  • the practice number collection unit 122 included in the music server 10 notifies the reproduction state of the client terminal 20 (particularly, the reproduction state of the score image data 1121 by the client terminal 20) transmitted from the client terminal 20. Messages to be collected are collected (step S101). Thereafter, the practice number collection unit 122 generates the number data 1131 by analyzing the collected messages (step S102). The practice number collection unit 122 stores the generated number data 1131 in the number data storage unit 113.
  • the reproduction state notifying unit 225 of the client terminal 20 displays a message for notifying the reproduced musical score image portion as a music piece. It is preferable to transmit to the server 10.
  • the practice number collection unit 122 included in the music server 10 updates the number data 1131 so that every time a message is received, the total number of reproductions of the corresponding score image portion is incremented by one.
  • the reproduction state notification unit 225 may transmit a message notifying the reproduced musical score image portion and the number of reproductions thereof to the music server 10. In this case, each time the practice number collection unit 122 receives a message, the practice number collection unit 122 updates the number data 1131 based on the received message.
  • the reproduction state notifying unit 225 notifies the musical score image portion that has been reproduced in a loop and the loop reproduction is performed. It is preferable to transmit a message in which a loop reproduction flag indicating that is turned on to the music server 10. In this case, every time the message is received, the practice count collection unit 122 updates the count data 1131 so as to increment the loop playback count of the corresponding score image portion by one.
  • the playback state notifying unit 225 notifies a message in which a loop playback flag indicating that loop playback is being performed and a musical score image portion that has been played back in a loop and the number of times of loop playback are set to ON You may transmit with respect to the server 10.
  • FIG. each time the practice number collection unit 122 receives a message, the practice number collection unit 122 updates the number data 1131 based on the received message.
  • the playback state notifying unit 225 notifies the reproduced score image portion and performs the practice for the user's practice. It is preferable to transmit to the music server 10 a message in which the practice playback flag indicating that the score image portion is being played is set to ON. In this case, every time the message is received, the practice count collection unit 122 updates the count data 1131 so as to increment the practice playback count of the corresponding score image portion by one.
  • the playback state notifying unit 225 notifies the played score image portion and the number of times of playback thereof, and the practice playback flag indicating that the score image portion is being played for the purpose of practice by the user is set on. May be transmitted to the music server 10.
  • the practice number collection unit 122 each time the practice number collection unit 122 receives a message, the practice number collection unit 122 updates the number data 1131 based on the received message.
  • the reproduction state notifying unit 225 notifies the reproduced musical score image portion and performs the performance by the user.
  • a message with a performance flag set to ON indicating that the musical score image portion is being reproduced and being played or recorded by the user at the same time on the client terminal 20 is sent to the music server 10 It is preferable to transmit.
  • the practice number collection unit 122 each time the practice number collection unit 122 receives a message, the practice number collection unit 122 updates the number data 1131 so that the number of reproductions of the corresponding musical score image portion is increased by one.
  • the playback state notifying unit 225 notifies the music server 10 of a message in which the performance flag indicating that the user's performance is being performed is set to ON while notifying the reproduced score image portion and the number of times of playback. You may transmit to.
  • the practice number collection unit 122 each time the practice number collection unit 122 receives a message, the practice number collection unit 122 updates the number data 1131 based on the received message.
  • a playback state notification unit 225 preferably transmits a message that can directly or indirectly specify the number of times of reproduction to the music server 10. Moreover, it is preferable that the practice frequency collection unit 122 updates the frequency data 1131 based on the received message each time a message is received.
  • the practice point presentation unit 123 included in the music server 122 determines whether or not a message requesting download of the desired musical score image data 1121 is transmitted from the client terminal 20 (step S103). Further, the practice point presentation unit 123 determines whether or not a message requesting download of the desired part data 1111 is transmitted from the client terminal 20 (step S104).
  • Step S103 As a result of the determination in step S103 and step S104, it is determined that a message requesting download of desired musical score image data 1121 has not been transmitted and a message requesting download of desired part data 1111 has not been transmitted. (Step S103: No and Step S104: No), the music server 10 repeats the operations of Step S101 and Step S102.
  • step S103 it is determined whether a message requesting download of desired musical score image data 1121 is transmitted or a message requesting download of desired part data 1111 is transmitted. If it is determined (step S103: Yes or step S104: Yes), the practice point presentation unit 123 included in the music server 10 reads the number data 1131 stored in the number data storage unit 113 (step S105). In particular, it is preferable that the practice point presentation unit 123 reads the number-of-times data 1131 corresponding to the score image data 1121 that the client terminal 20 requests to download. Alternatively, it is preferable that the practice point presentation unit 123 reads the number-of-times data 1131 corresponding to the score image data 1121 corresponding to the part data 1111 that the client terminal 20 requests to download.
  • the practice point presentation unit 123 plays the number of times of reproduction (for example, “total number of times of reproduction”, “number of times of loop reproduction”, “number of times of reproduction for practice”, and “number of times of reproduction during performance”).
  • a part of the musical score image that satisfies a predetermined criterion is specified (step S106).
  • the practice point presentation unit 123 may specify a part of the score image part that maximizes the number of times of reproduction.
  • the practice point presentation unit 123 may specify a part of the image portion whose number of reproductions exceeds an average value (that is, the average value of the number of reproductions of all score image portions).
  • the practice point presentation unit 123 identifies a part of the image portion whose number of reproductions exceeds a predetermined threshold (for example, a minimum value, a maximum value, a median value, or an arbitrary value set in advance). May be.
  • a predetermined threshold for example, a minimum value, a maximum value, a median value, or an arbitrary value set in advance.
  • the practice location presenting unit 123 has a deviation value of the number of reproductions (that is, a deviation value of the number of reproductions of each musical score image portion obtained as a result of performing statistical processing on the number of reproductions of all musical score image portions).
  • a part of the image that exceeds a predetermined threshold (for example, an arbitrary value set in advance) may be specified.
  • the practice point presentation unit 123 indicates “total playback count”, “loop playback count”, “practice playback count”, “playback count during performance”, and “any other playback count” included in the count data 1131.
  • the determination in step S106 may be performed on at least one of “data”. In this case, the practice point presentation unit 123 performs “total playback count”, “loop playback count”, “practice playback count”, “playback count during performance”, and “data indicating any other playback count”.
  • a priority order may be set, and the determination in step S106 may be performed in the order indicated by the priority order.
  • the practice point presentation unit 123 notifies the client terminal 20 of the musical score image part specified in step S106 (step S107). That is, the practice point presentation unit 123 notifies the client terminal 20 of information used for the client terminal 20 to recognize the score image portion specified in step S106.
  • the display control unit 221 of the client terminal 20 controls the operation of the display unit 230 so as to display the score image portion specified by the song server 10 in the score image data 1121 downloaded from the song server 10.
  • the score image portion specified by the music server 10 is displayed on the display unit 230 (step S108).
  • the display unit 230 may display only the musical score image portion specified by the music server 10.
  • the display part 230 may display the score image part specified by the music server 10 in the aspect distinguishable from other score image parts.
  • An example of a display mode in which the musical score image portion specified by the music server 10 can be distinguished is, for example, highlight display.
  • the music server 10 can specify a part of the score image portion of the score image data 1121 displayed on the client terminal 20. .
  • the music server 10 can specify a part of the score image portion based on the number of times of reproduction of each score image portion. Therefore, the client terminal 20 can selectively display a part of the score image portion specified in this way.
  • the music server 10 is popular with the user from among the score image portions of the score image data 1121 reproduced in synchronization with the part data 1111 (for example, other users also practice with emphasis).
  • a part of the image portion can be suitably specified. Accordingly, a user who wants to practice while watching the score displayed by playing the score image data 1121 can practice efficiently or effectively because other users are practicing intensively.
  • the estimated score image portion can be preferably recognized.
  • the music server 10 is popular with the user from among the score image portions of the score image data 1121 reproduced in synchronization with the part data 1111 (for example, other users also practice with emphasis).
  • a part of the image portion can be suitably specified. Accordingly, a user who wants to practice while watching the score displayed by playing the score image data 1121 can practice efficiently or effectively because other users are practicing intensively.
  • the estimated score image portion can be preferably recognized.
  • the number of times of practice playback that indicates the number of times the score image part is played for the purpose of practicing performance can be an index that directly indicates the score image part that the user is focusing on. Therefore, the music server 10 according to the present embodiment is popular with the user from among the score image portions of the score image data 1121 reproduced in synchronization with the part data 1111 (for example, other users also practice with emphasis).
  • a part of the image portion can be suitably specified. Accordingly, a user who wants to practice while watching the score displayed by playing the score image data 1121 can practice efficiently or effectively because other users are practicing intensively.
  • the estimated score image portion can be preferably recognized.
  • the number of performance playbacks indicating the number of times the user is performing at the same time as the reproduction of the score image data 1121 can be an index that directly indicates the part of the score image that the user is focusing on. Therefore, the music server 10 according to the present embodiment is popular with the user from among the score image portions of the score image data 1121 reproduced in synchronization with the part data 1111 (for example, other users also practice with emphasis). A part of the image portion can be suitably specified. Accordingly, a user who wants to practice while watching the score displayed by playing the score image data 1121 can practice efficiently or effectively because other users are practicing intensively.
  • the estimated score image portion can be preferably recognized.
  • the description is made using an example in which the musical score image data 1121 is reproduced in synchronization with the reproduction of the plurality of part data 1111.
  • any image data other than the musical score image data 1121 preferably, image data that visually indicates information unique to the corresponding part data 1111 or the like
  • lyrics image data indicating the lyrics of the corresponding part data 1111 may be displayed.
  • the database 110 of the music server 10 preferably includes a lyrics data storage unit that stores lyrics image data in addition to or instead of the score data storage unit 112.
  • the music server 10 is the aspect mentioned above,
  • the part may be specified.
  • the same effects as the various effects described above are suitably realized.
  • code image data indicating the code of the corresponding part data 1111 may be displayed.
  • the database 110 of the music server 10 preferably includes a code data storage unit that stores code image data in addition to or instead of the score data storage unit 112.
  • the music server 10 is a code image which should be shown to a user based on each reproduction
  • the part may be specified.
  • the present invention can be changed as appropriate without departing from the spirit or idea of the invention that can be read from the claims and the entire specification, and a playback device, a playback method, and information processing that involve such a change.
  • the computer program, the playback device, the playback method, and the computer program for playback control are also included in the technical idea of the present invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

コンテンツデータと同期して再生される画像データの各画像部分の中からユーザにとって参考となる可能性の高い画像部分を好適に特定する。 情報処理装置(10)は、コンテンツデータ(1111)と同期しながら再生される画像データ(1121)であって且つコンテンツデータに特有の情報を視覚的に示す画像データを構成する複数の画像部分の夫々がユーザによって再生された回数を示す回数情報(1131)を取得する取得手段(123)と、取得手段によって取得された回数情報に基づいて、複数の画像部分のうち回数が所定の基準を満たす一部の画像部分を特定する特定手段(123)とを備える。

Description

情報処理装置、情報処理方法、及び情報処理制御用のコンピュータプログラム、並びに、再生装置、再生方法、及び再生制御用のコンピュータプログラム
 本発明は、例えば楽曲等のコンテンツデータが楽譜等の画像データと同期しながら再生される再生システムにおいて用いられる情報処理装置、情報処理方法、及び情報処理制御用のコンピュータプログラム、並びに、再生装置、再生方法、及び再生制御用のコンピュータプログラムの技術分野に関する。
 この種の再生システムとして、例えば特許文献1に記載されているように、カラオケデータに基づく伴奏音楽が、歌詞と同期しながら再生されるカラオケシステムが知られている。特許文献1に記載されたカラオケシステムは、カラオケデータのフレーズ区分毎のフレーズ別得点データを生成すると共に、相対的に得点が低い高難易度フレーズ区分を特定することができる。従って、特許文献1に記載されたカラオケシステムは、カラオケシステムのユーザに対して、難易度が高いがゆえに多くのユーザにとって得点を得にくい高難易度フレーズ区分を報知することができる。
特開2009-8861号公報
 ここで、カラオケシステムを利用するユーザは、単に難易度が高い(言い換えれば、歌いにくい)フレーズ区分等を特定したいという欲求のみならず、より効果的なないしは効率的な練習ができるフレーズ区分等を特定したいという欲求を有している場合もある。言い換えれば、ユーザは、重点的なに練習することで歌唱力の上達につなげやすいフレーズ区分(例えば、他のユーザも重点的に練習しているがゆえに人気があるフレーズ区分)等を特定したいという欲求を有している場合もある。しかしながら、上述した特許文献1に記載されたカラオケシステムでは、ユーザの歌唱力の巧拙を示す得点に基づいてフレーズ区分の分類(つまり、高難易度フレーズ区分の特定)が行われる。このため、ユーザは、特定されたフレーズ区分がユーザにとって歌いやすいフレーズ区分であるのか又は歌いにくいフレーズ区分であるかを判定することができるに過ぎない。従って、上述した特許文献1に記載されたカラオケシステムでは、ユーザは、特定されたフレーズ区分が、人気が高い(言い換えれば、他のユーザも重点的に練習している)フレーズ区分であるのか又は人気が低い(言い換えれば、他のユーザが重点的に練習していない)フレーズ区分であるかを判定することができないという技術的な問題点を有している。
 尚、同様の技術的問題点は、所定のフレーズ区分を特定するカラオケシステムのみならず、例えば楽曲データと楽譜データとが同期しながら再生される再生システムにおいて、所定の楽譜部分(例えば、他のユーザが重点的に練習している楽譜部分)を特定する場合にもおいても同様に生じ得る。更には、上述した技術的な問題点は、例えば任意のコンテンツデータ(例えば、任意の映像や任意の楽曲等)と当該任意のコンテンツデータに対応する任意の画像データとが同期しながら再生される場合においても同様に生じ得る。
 本発明が解決しようとする課題には上記のようなものが一例として挙げられる。本発明は、コンテンツデータと同期して再生される画像データの各画像部分の中からユーザにとって参考となる可能性の高い画像部分を好適に特定することが可能な情報処理装置、情報処理方法、及び情報処理制御用のコンピュータプログラム、並びに、再生装置、再生方法、及び再生制御用のコンピュータプログラムを提供することを課題とする。
 上記課題を解決するために、情報処理装置は、コンテンツデータと同期しながら再生される画像データであって且つ前記コンテンツデータに特有の情報を視覚的に示す画像データを構成する複数の画像部分の夫々がユーザによって再生された回数を示す回数情報を取得する取得手段と、前記取得手段によって取得された前記回数情報に基づいて、前記複数の画像部分のうち前記回数が所定の基準を満たす一部の画像部分を特定する特定手段とを備える。
 上記課題を解決するために、情報処理方法は、コンテンツデータと同期しながら再生される画像データであって且つ前記コンテンツデータに特有の情報を視覚的に示す画像データを構成する複数の画像部分の夫々がユーザによって再生された回数を示す回数情報を取得する取得工程と、前記取得工程によって取得された前記回数情報に基づいて、前記複数の画像部分のうち前記回数が所定の基準を満たす一部の画像部分を特定する特定工程とを備える。
 上記課題を解決するために、情報処理制御用のコンピュータプログラムは、コンピュータを上述した情報処理装置として機能させる。
 上記課題を解決するために、再生装置は、上述の情報処理装置によって特定された前記一部の画像部分を受け取る受取手段と、前記受取手段が受け取った前記一部の画像部分を再生する再生手段とを備える。
 上記課題を解決するために、再生方法は、上述の情報処理装置によって特定された前記一部の画像部分を受け取る受取工程と、前記受取工程が受け取った前記一部の画像部分を再生する再生工程とを備える。
 上記課題を解決するために、再生制御用のコンピュータプログラムは、コンピュータを上述した再生装置として機能させる。
本実施例の楽曲配信システムの構成を示すブロック図である。 本実施例の楽曲サーバの構成を示すブロック図である。 パートデータ格納部に格納される複数のパートデータの態様を示す模式図である。 パートデータ格納部に格納される複数のパートデータの態様を示す模式図である。 楽譜データ格納部に格納される楽譜画像データを示す画像である。 回数データ格納部に格納される回数データを示す画像である。 本実施例のクライアント端末の構成を示すブロック図である。 制御部の制御によって実現される所望のパートデータ及び所望の楽譜画像データのダウンロード及び再生の態様を概略的に示す模式図である。 本実施例の楽曲配信システムにおける動作(特に、楽曲サーバからクライアント端末に対して楽譜画像データが配信される動作)の流れを示すフローチャートである。 歌詞画像データ又はコード画像データが表示されている場合の表示部230の表示態様を示す平面図である。
 以下、情報処理装置、情報処理方法、及び情報処理用のコンピュータプログラム、並びに、再生装置、再生方法、及び再生制御用のコンピュータプログラムの実施形態について順に説明する。
 (情報処理装置の実施形態)
 本実施形態の情報処理装置は、コンテンツデータと同期しながら再生される画像データであって且つ前記コンテンツデータに特有の情報を視覚的に示す画像データを構成する複数の画像部分の夫々がユーザによって再生された回数を示す回数情報を取得する取得手段と、前記取得手段によって取得された前記回数情報に基づいて、前記複数の画像部分のうち前記回数が所定の基準を満たす一部の画像部分を特定する特定手段とを備える。
 本実施形態の情報処理装置によれば、取得手段は、回数情報を取得する。尚、取得手段は、情報処理装置の内部に格納されている回数情報を取得してもよいし、情報処理装置の外部から回数情報を取得してもよい。
 「回数情報」は、画像データを構成する複数の画像部分の夫々がユーザによって再生された回数(言い換えれば、表示された回数)を示す。言い換えれば、「回数情報」は、ユーザが備える何らかの装置によって各画像部分が再生された回数を示す。「画像データ」は、コンテンツデータと同期しながら再生される画像データである。従って、画像データは、再生されているコンテンツデータに合わせて、適切なタイミングで再生(表示)される。また、「画像データ」は、コンテンツデータに特有の情報を視覚的に示す画像データである。尚、コンテンツデータの一例として、例えば、楽曲データ(言い換えれば、音声データ)や映像データ(言い換えれば、動画像データ)等があげられる。また、画像データの一例として、例えば、後述する楽譜データや歌詞データやコードデータ等があげられる。尚、「画像データ」は、コンテンツデータと同期しながら再生される時点で画像として再生されるデータであれば足りる。つまり、「画像データ」としては、例えばJPEG画像やGIF画像等の画像を直接的に示すデータであってもよいし、例えばMusicXML等の画像を間接的に示すデータ(より具体的には、例えば、データ自体はテキストデータであるものの、再生される際に画像に変換されるデータ)であってもよい。
 その後、特定手段は、取得手段が取得した回数情報に基づいて、複数の画像部分のうちユーザによって再生された回数が所定の基準を満たす一部の画像部分を特定する。特定された一部の画像部分は、情報処理装置自身によって再生されてもよい。或いは、特定された一部の画像部分は、他の情報処理装置に送信(或いは、転送)された後に当該他の情報処理装置自身によって再生されてもよい。その結果、特定された一部の画像部分は、ユーザに提示される。
 以上説明したように、本実施形態の情報処理装置は、ユーザによって再生された回数が所定の基準を満たす一部の画像部分を特定することができる。ユーザによって再生された回数は、いわばその画像部分がユーザに注目されているか否かを(言い換えれば、ユーザが重点的に再生しているか否か)を示す指標となり得る。従って、本実施形態の情報処理装置は、コンテンツデータと同期して再生される画像データの各画像部分の中からユーザにとって参考となる可能性の高い一部の画像部分を好適に特定することができる。つまり、本実施形態の情報処理装置は、コンテンツデータと同期して再生される画像データの各画像部分の中からユーザにとって人気が高い(例えば、他のユーザも重点的に練習している)一部の画像部分を好適に特定することができる。
 本実施形態の情報処理装置の一の態様では、各画像部分の前記ユーザによる再生の態様を監視することで、前記回数情報を生成する生成手段と、前記生成手段が生成した前記回数情報を格納する格納手段とを更に備え、前記取得手段は、前記格納手段に格納されている前記回数情報を取得する。
 この態様によれば、取得手段は、生成手段が生成し且つ格納手段が格納している回数情報を取得することができる。その結果、特定手段は、複数の画像部分のうちユーザによって再生された回数が所定の基準を満たす一部の画像部分を特定することができる。
 上述の如く生成手段を備える情報処理装置の態様は、前記生成手段は、各画像部分が前記ユーザによって再生される毎にカウントアップされる回数を示す前記回数情報を生成するように構成してもよい。
 このように構成すれば、生成手段は、回数情報を好適に生成することができる。
 上述の如く生成手段を備える情報処理装置の態様では、前記生成手段は、各画像部分に対応する再生期間を含む所定の再生期間を対象としたループ再生が行われる回数を示す前記回数情報を生成するように構成してもよい。
 所定の再生期間を対象としてループ再生が行われている場合には、当該所定の再生期間に対応する画像部分に対するユーザの注目度が相対的に高いと推定される。このため、このように構成すれば、生成手段は、ループ再生が行われている回数(つまり、ユーザの注目度の高さと関連する指標となり得る回数)を示す回数情報を好適に生成することができる。その結果、ループ再生が行われている回数は、いわばその画像部分がユーザに注目されているか否かを(言い換えれば、ユーザが重点的に再生しているか否か)を示す指標となり得る。従って、特定手段は、コンテンツデータと同期して再生される画像データの各画像部分の中からユーザにとって参考となる可能性の高い一部の画像部分を好適に特定することができる。
 上述の如く生成手段を備える情報処理装置の態様では、前記生成手段は、特定の利用を目的として各画像部分が前記ユーザによって再生された回数を示す前記回数情報を生成するように構成してもよい。
 このように構成すれば、生成手段は、特定の利用(例えば、後述するように、画像部分を用いた練習等)を目的として画像部分が再生されている回数を示す回数情報を好適に生成することができる。ここで、特定の利用を目的として画像部分が再生されている回数は、いわばその画像部分がユーザに注目されているか否かを(言い換えれば、ユーザが重点的に再生しているか否か)を示す指標となり得る。従って、特定手段は、コンテンツデータと同期して再生される画像データの各画像部分の中からユーザにとって参考となる可能性の高い一部の画像部分を好適に特定することができる。
 上述の如く生成手段を備える情報処理装置の態様では、前記生成手段は、前記コンテンツデータの再生に対して前記ユーザによる付加的な演奏がなされた状態で各画像部分が前記ユーザによって再生された回数を示す前記回数情報を生成するように構成してもよい。
 このように構成すれば、生成手段は、ユーザによる付加的な演奏(例えば、後述するように、画像部分を用いた練習等)が行われた状態で画像部分が再生されている回数を示す回数情報を好適に生成することができる。ここで、ユーザによる付加的な演奏がなされた状態で画像部分が再生されている回数は、いわばその画像部分がユーザに注目されているか否かを(言い換えれば、ユーザが重点的に再生しているか否か)を示す指標となり得る。従って、特定手段は、コンテンツデータと同期して再生される画像データの各画像部分の中からユーザにとって参考となる可能性の高い一部の画像部分を好適に特定することができる。
 本実施形態の情報処理装置の他の態様では、前記特定手段は、前記回数が最大となる前記一部の画像部分を特定する。
 この態様によれば、特定手段は、ユーザによって再生された回数が最大となる画像部分(つまり、ユーザに最も注目されている又はユーザが重点的に再生している画像部分)を好適に特定することができる。
 本実施形態の情報処理装置の他の態様では、前記特定手段は、前記回数が所定の閾値を超える前記一部の画像部分を特定する。
 この態様によれば、特定手段は、ユーザによって再生された回数が相応の回数となる画像部分(つまり、ユーザに注目されている度合いが相対的に高い又はユーザが重点的に再生している可能性が相対的に高い画像部分)を好適に特定することができる。
 本実施形態の情報処理装置の他の態様では、前記特定手段は、前記回数の偏差値が所定値以上となる前記一部の画像部分を特定する。
 この態様によれば、特定手段は、ユーザによって再生された回数が相応の回数となる画像部分(つまり、ユーザに注目されている度合いが相対的に高い又はユーザが重点的に再生している可能性が相対的に高い画像部分)を好適に特定することができる。
 本実施形態の情報処理装置の他の態様では、前記コンテンツデータは、楽曲データであり、前記画像データは、前記楽曲データに特有の楽譜情報を視覚的に示す楽譜データを含む。
 この態様によれば、特定手段は、楽曲データと同期して再生される楽譜データの各楽譜部分の中からユーザにとって参考となる可能性の高い一部の楽譜部分を好適に特定することができる。
 本実施形態の情報処理装置の他の態様では、前記コンテンツデータは、楽曲データであり、前記画像データは、前記楽曲データに特有の歌詞情報を視覚的に示す歌詞データを含む。
 この態様によれば、特定手段は、楽曲データと同期して再生される歌詞データの各歌詞部分の中からユーザにとって参考となる可能性の高い一部の歌詞部分を好適に特定することができる。
 本実施形態の情報処理装置の他の態様では、前記コンテンツデータは、楽曲データであり、前記画像データは、前記楽曲データに特有のコード情報を視覚的に示すコードデータを含む。
 この態様によれば、特定手段は、楽曲データと同期して再生される楽譜データの各コード部分の中からユーザにとって参考となる可能性の高い一部のコード部分を好適に特定することができる。
 本実施形態の情報処理装置の他の態様では、前記特定手段よって特定される前記一部の画像部分を再生する再生手段を更に備える。
 この態様によれば、情報処理装置は、コンテンツデータと同期して再生される画像データの各画像部分のうちのユーザにとって参考となる可能性の高い一部の画像部分を好適に再生することができる。
 本実施形態の情報処理装置の他の態様では、前記特定手段よって特定される前記一部の画像部分を他の情報処理装置に対して通知する通知手段を備え、前記他の情報処理装置は、前記通知手段によって通知される前記一部の画像部分を再生する。
 この態様によれば、情報処理装置は、他の情報処理装置に対して、コンテンツデータと同期して再生される画像データの各画像部分のうちのユーザにとって参考となる可能性の高い一部の画像部分を好適に再生させることができる。
 (情報処理方法の実施形態)
 本実施形態の情報処理方法は、コンテンツデータと同期しながら再生される画像データであって且つ前記コンテンツデータに特有の情報を視覚的に示す画像データを構成する複数の画像部分の夫々がユーザによって再生された回数を示す回数情報を取得する取得工程と、前記取得工程によって取得された前記回数情報に基づいて、前記複数の画像部分のうち前記回数が所定の基準を満たす一部の画像部分を特定する特定工程とを備える。
 本実施形態の情報処理方法によれば、上述した本実施形態の情報処理装置が享受することができる各種効果と同様の効果を好適に享受することができる。
 尚、上述した本実施形態の情報処理装置における各種態様に対応して、本実施形態の情報処理方法も各種態様を採ることが可能である。
 (情報処理制御用のコンピュータプログラムの実施形態)
 本実施形態の情報処理制御用のコンピュータプログラムは、コンピュータを上述した本実施形態の情報処理装置(但し、その各種態様を含む)として機能させる。
 本実施形態の情報処理制御用のコンピュータプログラムによれば、上述した本実施形態の情報処理装置が享受することができる各種効果と同様の効果を好適に享受することができる。
 尚、上述した本実施形態の情報処理装置における各種態様に対応して、本実施形態の情報処理制御用のコンピュータプログラムも各種態様を採ることが可能である。
 また、本実施形態の情報処理制御用のコンピュータプログラムは、コンピュータ読取可能な記録媒体に記録されていてもよい。
 (再生装置の実施形態)
 本実施形態の再生装置は、上述した本実施形態の情報処理装置(但し、その各種態様を含む)によって特定された前記一部の画像部分を受け取る受取手段と、前記受取手段が受け取った前記一部の画像部分を再生する再生手段とを備える。
 本実施形態の再生装置によれば、コンテンツデータと同期して再生される画像データの各画像部分の中からユーザにとって参考となる可能性の高い画像部分を好適に再生することができる。
 尚、上述した本実施形態の情報処理装置における各種態様に対応して、本実施形態の再生装置も各種態様を採ることが可能である。
 (再生方法の実施形態)
 本実施形態の再生方法は、上述した本実施形態の情報処理装置(但し、その各種態様を含む)によって特定された前記一部の画像部分を受け取る受取工程と、前記受取工程が受け取った前記一部の画像部分を再生する再生工程とを備える。
 本実施形態の再生方法によれば、上述した本実施形態の再生装置が享受することができる各種効果と同様の効果を好適に享受することができる。
 尚、上述した本実施形態の再生装置における各種態様に対応して、本実施形態の再生方法も各種態様を採ることが可能である。
 (再生制御用のコンピュータプログラムの実施形態)
 本実施形態の再生制御用のコンピュータプログラムは、コンピュータを上述した本実施形態の再生装置(但し、その各種態様を含む)として機能させる。
 本実施形態の再生制御用のコンピュータプログラムによれば、上述した本実施形態の再生装置が享受することができる各種効果と同様の効果を好適に享受することができる。
 尚、上述した本実施形態の再生装置における各種態様に対応して、本実施形態の再生制御用のコンピュータプログラムも各種態様を採ることが可能である。
 また、本実施形態の再生制御用のコンピュータプログラムは、コンピュータ読取可能な記録媒体に記録されていてもよい。
 本実施形態のこのような作用及び他の利得は次に説明する実施例から更に明らかにされる。
 以上説明したように、本実施形態の情報処理装置は、取得手段と、特定手段とを備える。本実施形態の情報処理方法は、取得工程と、特定工程とを備える。本実施形態の情報処理制御用のコンピュータプログラムは、コンピュータを本実施形態の情報処理装置として機能させる。従って、本実施形態の情報処理装置、情報処理方法及びコンピュータプログラムは、コンテンツデータと同期して再生される画像データの各画像部分の中からユーザにとって参考となる可能性の高い画像部分を好適に特定することができる。
 また、本実施形態の再生装置は、受取手段と、再生手段とを備える。本実施形態の再生方法は、受取工程と、再生工程とを備える。本実施形態の再生制御用のコンピュータプログラムは、コンピュータを本実施形態の再生装置として機能させる。従って、本実施形態の再生装置、再生方法及びコンピュータプログラムは、コンテンツデータと同期して再生される画像データの各画像部分の中からユーザにとって参考となる可能性の高い画像部分を好適に再生することができる。
 以下、図面を参照しながら、情報処理装置、情報処理方法、及び情報処理制御用のコンピュータプログラム、並びに再生装置、再生方法、及び再生制御用のコンピュータプログラムの実施例について説明する。尚、以下では、情報処理装置の一例として、楽曲(より具体的には、楽曲を構成する複数のパートデータ)及び当該楽曲の楽譜を配信する楽曲サーバ10を用いて説明を進める。また、再生装置の一例として、楽曲サーバ10から配信される楽曲及び楽譜をダウンロードすると共に、当該楽曲及び楽譜を同期させながら再生するクライアント端末20を用いて説明を進める。但し、情報処理装置及び再生装置として、楽曲以外の任意のコンテンツ(例えば、映像や、静止画や、テキストデータや、その他の任意のデータ)を配信する情報処理装置及び当該コンテンツを再生する再生装置を採用してもよい。
 (1)楽曲配信システムの構成
 はじめに、図1を参照して、本実施例の楽曲配信システム1の構成について説明する。ここに、図1は、本実施例の楽曲配信システム1の構成を示すブロック図である。
 図1に示すように、楽曲配信システム1は、楽曲サーバ10と、クライアント端末20と、ネットワーク網30とを備えている。
 楽曲サーバ10は、楽曲を構成する複数のパートデータ1111を格納する。楽曲サーバ10が格納するパートデータ1111は、例えば、クライアント端末20から楽曲サーバ10に対してアップロード(言い換えれば、送信)されたパートデータ1111である。但し、楽曲サーバ10は、その他の態様で取得したパートデータ1111を格納してもよい。各パートデータ1111は、楽曲を構成する複数のパートのうちのいずれか(つまり、複数の楽器パートないしは演奏パートのうちのいずれか)に対応する演奏データに相当する。尚、パートデータ1111については、後に詳述する(図3等参照)。
 加えて、楽曲サーバ10は、クライアント端末20からの要求に応じて、クライアント端末20に対して所望のパートデータ1111を配信(言い換えれば、送信)する。
 また、楽曲サーバ10は、複数のパートデータ1111に対応する複数の楽譜画像データ1121を格納する。楽譜画像データ1121は、対応するパートデータ1111の演奏の態様を示す楽譜を視覚的に示す画像データである。楽曲サーバ10は、クライアント端末20からの要求に応じて、クライアント端末20に対して所望の楽譜画像データ1121を配信(言い換えれば、送信)する。
 クライアント端末20は、楽曲サーバ10に対してパートデータ1111をアップロードする。クライアント端末20がアップロードするパートデータ1111は、例えば、クライアント端末20のユーザが実際に楽器を演奏することで作成(言い換えれば、録音)したパートデータ1111である。但し、クライアント端末20は、その他の態様で作成ないしは取得したパートデータ1111をアップロードしてもよい。
 加えて、クライアント端末20は、楽曲サーバ10に対して、楽曲サーバ10が格納している複数のパートデータ1111のうちの所望のパートデータ1111及び複数の楽譜画像データ1121のうちの所望の楽譜画像データ1121の配信を要求する。その結果、クライアント端末20は、楽曲サーバ10から配信される所望のパートデータ1111及び所望の楽譜画像データ1121をダウンロード(言い換えれば、取得ないしは受信)する。その後、クライアント端末20は、取得したパートデータ1111及び楽譜画像データ1121を同期させながら再生してもよい。
 ネットワーク網30は、楽曲サーバ10とクライアント端末20との間を接続するネットワーク回線である。ネットワーク網30は、有線のネットワーク回線であってもよいし、無線のネットワーク回線であってもよいし、有線のネットワーク回線と無線のネットワーク回線との組み合わせであってもよい。
 尚、図1は、楽曲配信システム1が1つの楽曲サーバ10を備える例を示している。しかしながら、楽曲配信システム1は、複数の楽曲サーバ10を備えていてもよい。この場合、クライアント端末20は、複数の楽曲サーバ10のうちの少なくとも1つに対してパートデータ1111をアップロードすると共に、複数の楽曲サーバ10のうちの少なくとも1つからパートデータ1111や楽譜画像データ1121をダウンロードしてもよい。
 また、図1は、楽曲配信システム1が1つのクライアント端末20を備える例を示している。しかしながら、楽曲配信システム1は、複数のクライアント端末20を備えていてもよい。この場合、あるクライアント端末20は、他のクライアント端末20がアップロードしたパートデータ1111をダウンロードしてもよい。
 (2)楽曲サーバの構成
 続いて、図2を参照して、本実施例の楽曲サーバ10の構成について説明する。ここに、図2は、本実施例の楽曲サーバ10の構成を示すブロック図である。
 図2に示すように、楽曲サーバ10は、データベース110と、制御部120と、表示部130と、データ通信部140と備えている。
 データベース110は、パートデータ格納部111と、楽譜データ格納部112と、回数データ格納部113とを備えている。
 パートデータ格納部111は、クライアント端末20からアップロードされた複数のパートデータ1111を格納する。尚、複数のパートデータ1111の夫々は、「コンテンツデータ」の一具体例を構成する。
 ここで、図3及び図4を参照して、パートデータ格納部111に格納される複数のパートデータ1111について説明する。ここに、図3及び図4は、夫々、パートデータ格納部111に格納される複数のパートデータ1111の態様を示す模式図である。
 図3に示すように、パートデータ格納部111には、複数のパートデータ1111が、所定のルールに応じて分類された状態で格納されていることが好ましい。ここで、ルールの一例として、パートデータ1111が構成する楽曲の曲名や、パートデータ1111が構成する楽曲のテンポ等があげられる。従って、同一の曲名を有する楽曲であって且つテンポが同じ楽曲を構成する一又は複数のパートデータ1111が、同一のルールによって分類されるデータ群を構成することが好ましい。例えば、図3に示す例では、曲名が「○○○○」である楽曲であって且つテンポが「102bpm(Beat Per Minute)」となる楽曲を構成する一又は複数のパートデータ1111が、ルールAという区分に分類されるデータ群を構成した状態で、パートデータ格納部111に格納される。同様に、図3に示す例では、曲名が「×××」である楽曲であって且つテンポが「88bpm」となる楽曲を構成する一又は複数のパートデータ1111が、ルールBという区分に分類されるデータ群を構成した状態で、パートデータ格納部111に格納される。
 このようなルールに応じて分類された状態で複数のパートデータ1111を格納するために、パートデータ格納部111は、新たなパートデータ1111を格納する都度、当該新たなパートデータ1111の曲名やテンポ等(つまり、ルールを特徴づける特性)を分析することで、当該新たなパートデータ1111をルールに応じて分類してもよい。但し、新たなパートデータ1111が格納されるのは、クライアント端末20上で、楽曲サーバ10からダウンロードした他のパートデータ1111を伴奏にしながらユーザ自身の演奏が録音されることで新たなパートデータ1111が生成されるタイミングであることが相対的に多い。この場合、新たなパートデータ1111の曲名やテンポは、伴奏にしている他のパートデータ1111の曲名やテンポと一致する。従って、このような場合には、パートデータ格納部111は、当該新たなパートデータ1111の曲名やテンポ等を分析することなく、当該新たなパートデータ1111を、伴奏にした他のパートデータ1111が分類されるルールと同一のルールに分類されると判定してもよい。
 加えて、パートデータ格納部111には、同一のルールによって分類されるデータ群を構成する複数のパートデータ1111が、パート毎に分類された状態で格納されていることが好ましい。例えば、図3に示す例では、ルールAという区分に分類されるデータ群を構成する複数のパートデータ1111が、リードギターに対応する一又は複数のパートデータ1111と、コーラスに対応する一又は複数のパートデータ1111と、ベースに対応する一又は複数のパートデータ1111と、ドラムに対応する一又は複数のパートデータ1111と、ボーカルに対応する一又は複数のパートデータ1111とに分類された状態で格納される。同様に、図3に示す例では、ルールBという区分に分類されるデータ群を構成する複数のパートデータ1111が、リードギターに対応する一又は複数のパートデータ1111と、ベースに対応する一又は複数のパートデータ1111と、ドラムに対応する一又は複数のパートデータ1111と、ボーカルに対応する一又は複数のパートデータ1111とに分類された状態で格納される。
 このようなパート毎に分類された状態で複数のパートデータ1111を格納するために、パートデータ格納部111は、新たなパートデータ1111を格納する都度、当該新たなパートデータ1111に対応するパートを分析することで、当該新たなパートデータ1111をパート毎に分類することが好ましい。
 或いは、図4に示すように、パートデータ格納部111には、同一のルールによって分類されるデータ群を構成する複数のパートデータ1111が、バンドという単位で取りまとめられた状態で格納されていてもよい。ここで、「バンド」とは、一つの楽曲を構成するための一又は複数のパートの集合を示す。つまり、バンドという単位で取りまとめられた複数のパートデータ1111がクライアント端末20上でミキシングされながら再生されることで、仮想的なあるバンドによって一つの楽曲が演奏されている状態が実質的に実現される。図3に示す例では、ルールAという区分に分類されるデータ群の中で、リードギターに対応する1つのパートデータ1111と、ドラムに対応する1つのパートデータ1111と、ボーカルに対応する1つのパートデータ1111と、ベースに対応する1つのパートデータ1111との組み合わせからデータ群が、バンド#1という単位で取りまとめられた状態で格納されている。同様に、図3に示す例では、ルールAという区分に分類されるデータ群の中で、リードギターに対応する1つのパートデータ1111と、ドラムに対応する1つのパートデータ1111と、ベースに対応する1つのパートデータ1111との組み合わせからデータ群が、バンド#2という単位で取りまとめられた状態で格納されている。尚、バンド#2のデータ群は、バンド#1のデータ群と比較して、ボーカルに対応するパートデータ1111が含まれていない、いわゆる「マイナスワン」のデータ群に相当する。
 このとき、バンドという単位で取りまとめられた状態で格納される各パートデータ1111は、他のパートデータ1111とミキシングされる時の設定の態様(例えば、音量やパン等)を示すミキシング情報と共に格納されていてもよい。従って、クライアント端末20は、バンドという単位で取りまとめられた複数のパートデータ1111をミキシングする際には、各パートデータ1111と共に記録されているミキシング情報を参照しながらミキシングすることが好ましい。これにより、クライアント端末20は、複数のパートデータ1111の適切なミキシングを行うことができる。
 尚、図4は、バンドという単位で取りまとめられている一方で未だミキシングされていない複数のパートデータ1111がパートデータ格納部111に格納されている例を示している。しかしながら、パートデータ格納部111には、バンドという単位で取りまとめられる複数のパートデータ1111が、既にミキシングされた状態で格納されていてもよい。言い換えれば、パートデータ格納部111には、複数のパートデータ1111をミキシングすることで得られる1つのミックスデータが格納されていてもよい。
 このようなパートデータ格納部111による複数のパートデータ1111のルール毎の、パート毎の又はバンド毎の格納は、例えばパートデータ1111と共にパートデータ格納部111に格納される所定の管理情報によって論理的に実現されることが好ましい。例えば、パートデータ格納部111は、複数のパートデータ1111自体を直接的に区別することなくそのまま格納すると共に、当該格納しているパートデータ1111のルール毎の、パート毎の又はバンド毎の分類を管理するための管理情報を別途格納することが好ましい。この場合、楽曲サーバ10は、管理情報を参照することで、複数のパートデータ1111があたかも図3及び図4に示す態様でパートデータ格納部111上に格納されていると認識することができる。但し、パートデータ格納部111は、物理的なパーティションを区切ることで、複数のパートデータ1111のルール毎の、パート毎の又はバンド毎の格納を、物理的に実現してもよい。
 再び図2において、楽譜データ格納部112は、パートデータ格納部111に格納される複数のパートデータ1111の夫々の楽譜を示す一又は複数の楽譜画像データ1121を格納する。尚、楽譜画像データ1121は、「画像データ」の一具体例を構成する。
 ここで、図5を参照して、楽譜データ格納部112に格納される楽譜画像データ1121について説明する。ここに、図5は、楽譜データ格納部112に格納される楽譜画像データ1121を示す画像である。
 図5に示すように、楽譜画像データ1121は、楽譜の画像を示す画像データ(例えば、JPEGデータやビットマップデータやMusicXMLデータ等)である。尚、図5は、夫々5つの小節を含む2段の楽譜を示す楽譜画像データ1121の例を示している。尚、楽譜画像データ1121中の各点(各位置)には、画像中の所定の位置(例えば、画像の左上端)を原点とする座標が割り当てられることが好ましい。図5に示す例では、例えば、上段の五線譜の上部Y座標(つまり、図5中縦方向の座標)に「124」が割り当てられ、上段の五線譜の下部Y座標に「207」が割り当てられ、下段の五線譜の上部Y座標に「490」が割り当てられ、下段の五線譜の下部Y座標に「573」が割り当てられている。また、図5に示す例では、例えば、上段及び下段の五線譜の小節線のX座標(つまり、図5中横方向の座標)に、左側から順に、「38」、「509」、「903」、「1319」、「1741」及び「2163」が割り当てられている。
 このような楽譜画像データ1121は、クライアント端末20上で、対応するパートデータ1111(或いは、対応するパートデータ1111が構成する楽曲)の再生と同期しながら表示されることが好ましい。つまり、対応するパートデータ1111の再生箇所と楽譜画像データ1121の表示箇所(或いは、ハイライト箇所)とが同期する(つまり、時間的に一致する)ように、パートデータ1111及び楽譜画像データ1121の再生が行われることが好ましい。
 尚、上述の説明では、楽譜データ格納部112には、パートデータ格納部111に格納される複数のパートデータ1111の夫々に個別に対応する一又は複数の楽譜画像データ1121が格納される構成が例示されている。しかしながら、楽譜データ格納部112には、パートデータ格納部111に格納される複数のパートデータ1111によって構成される一又は複数の楽曲の夫々に個別に対応する一又は複数の楽譜画像データ1121が格納されていてもよい。或いは、楽譜データ格納部112には、パートデータ格納部111に格納される複数のパートデータ1111を分類する単位であるルール毎、パート毎又はバンド毎に区別される一又は複数の楽譜画像データ1121が格納されていてもよい。或いは、楽譜データ格納部112には、パートデータ格納部111に格納されるミックスデータに個別に対応する一又は複数の楽譜画像データ1121が格納されていてもよい。或いは、楽譜データ格納部112には、パートデータ格納部111に格納される複数のパートデータ1111に対してその他の態様で対応する一又は複数の楽譜画像データ1121が格納されていてもよい。
 再び図2において、回数データ格納部113は、楽譜データ格納部112に格納される複数の楽譜画像データ1121の夫々の再生回数を示す回数データ1131を格納する。特に、回数データ1131は、楽譜画像データ1121毎に、各楽譜画像データ1121を時間的に細分化することで得られる複数の楽譜画像部分の夫々の再生回数を示すことが好ましい。尚、回数データ格納部113は、「格納手段」の一具体例であり、回数データ1131は、「回数情報」の一具体例である。
 ここで、図6を参照して、回数データ格納部113に格納される回数データ1131について説明する。ここに、図6は、回数データ格納部113に格納される回数データ1131のデータ構造を示すデータ構造図である。
 図6に示すように、回数データ1131は、対応する楽譜画像データ1121を対象として、小節という単位で区分される楽譜画像部分毎に、当該楽譜画像部分がユーザによって再生(つまり、表示)された回数を示す。例えば、図6に示す回数データ1131の例は、小節番号=1番となる楽譜画像部分の再生回数と、小節番号=2番となる楽譜画像部分の再生回数と、小節番号=3番となる楽譜画像部分の再生回数と、小節番号=4番となる楽譜画像部分の再生回数とを示している。もちろん、回数データ1131は、小節番号=5番以上となる楽譜画像部分の再生回数を示してもよい。
 尚、図6は、楽譜画像データ1121を細分化する単位として「小節」を用いる例を示している。しかしながら、楽譜画像データ1121は、「小節」以外の任意の単位(例えば、休符で区切られる単位や、音符の数で区切られる単位や、再生時間で区切られる単位等)で細分化されてもよい。
 このとき、回数データ1131は、ユーザによる楽譜画像部分の1回の再生を1回の再生回数としてカウントすることで得られる「全再生回数」を示してもよい。例えば、図6に示す回数データ1131の例は、小節番号=1番となる楽譜画像部分の全再生回数が「55回」であり、小節番号=2番となる楽譜画像部分の全再生回数が「50回」であり、小節番号=3番となる楽譜画像部分の全再生回数が「50回」であり、小節番号=4番となる楽譜画像部分の全再生回数が「44回」であることを示している。
 或いは、回数データ1131は、「全再生回数」に加えて又は代えて、ループ再生が行われている場合のみ再生回数をカウントする(言い換えれば、ループ再生が行われていない場合には再生回数がカウントされない)ことで得られる「ループ再生回数」を示してもよい。例えば、図6に示す回数データ1131の例は、小節番号=1番となる楽譜画像部分のループ再生回数が「25回」であり、小節番号=2番となる楽譜画像部分のループ再生回数が「0回」であり、小節番号=3番となる楽譜画像部分のループ再生回数が「0回」であり、小節番号=4番となる楽譜画像部分のループ再生回数が「0回」であることを示している。
 或いは、回数データ1131は、「全再生回数」及び「ループ再生回数」の少なくとも一つに加えて又は代えて、練習を行う(例えば、楽譜画像部分を見ながら演奏の練習を行う)ことをユーザが目的としている場合のみ再生回数をカウントする(言い換えれば、練習を行うことをユーザが目的としていない場合には再生回数がカウントされない)ことで得られる「練習用再生回数」を示してもよい。例えば、図6に示す回数データ1131の例は、小節番号=1番となる楽譜画像部分の練習用再生回数が「40回」であり、小節番号=2番となる楽譜画像部分の練習用再生回数が「10回」であり、小節番号=3番となる楽譜画像部分の練習用再生回数が「10回」であり、小節番号=4番となる楽譜画像部分の練習用再生回数が「0回」であることを示している。
 或いは、回数データ1131は、「全再生回数」、「ループ再生回数」及び「練習用再生回数」の少なくとも一つに加えて又は代えて、楽譜画像部分の再生と共にユーザによる演奏が行われている場合のみ再生回数をカウントする(言い換えれば、楽譜画像部分の再生と共にユーザによる演奏が行われていない場合には再生回数がカウントされない)ことで得られる「演奏時再生回数」を示してもよい。例えば、図6に示す回数データ1131の例は、小節番号=1番となる楽譜画像部分の演奏時再生回数が「20回」であり、小節番号=2番となる楽譜画像部分の演奏時再生回数が「5回」であり、小節番号=3番となる楽譜画像部分の演奏時再生回数が「5回」であり、小節番号=4番となる楽譜画像部分の演奏時再生回数が「0回」であることを示している。
 尚、「全再生回数」、「ループ再生回数」、「練習用再生回数」及び「演奏時再生回数」は、回数データ1131に含まれる「再生回数」の一例であって、これら以外の何らかの再生回数を示すデータが、回数データ1131に含まれていてもよい。
 また、回数データ格納部113は、複数の楽譜画像データ1121の夫々に個別に対応する一又は複数の回数データ1131を格納してもよい。或いは、回数データ格納部113は、一又は複数の楽曲の夫々に個別に対応する一又は複数の回数データ1131を格納してもよい。或いは、回数データ格納部113は、ルール毎、パート毎又はバンド毎に区別される一又は複数の回数データ1131を格納してもよい。或いは、回数データ格納部113は、ミックスデータに個別に対応する一又は複数の回数データ1131を格納してもよい。或いは、回数データ格納部113は、複数の楽譜画像データ1131に対してその他の態様で対応する一又は複数の回数データ1131を格納してもよい。
 尚、図2では、1つの楽曲サーバ10が備えるデータベース110中に、パートデータ格納部111、楽譜データ格納部112及び回数データ格納部113が備えられている例を示している。しかしながら、パートデータ格納部111、楽譜データ格納部112及び回数データ格納部113の夫々又は少なくとも一つが、複数の楽曲サーバ10が備える複数のデータベース110に跨って分散して備えられていてもよい。つまり、パートデータ格納部111、楽譜データ格納部112及び回数データ格納部113の夫々又は少なくとも一つは、いわゆるクラウドの形態を採用するように複数の楽曲サーバ10に分散配置されていてもよい。
 再び図2において、制御部120は、楽曲サーバ10全体の動作を制御する中央制御装置(例えば、CPU:Central Processing Unit)である。制御部120は、その内部に実現される物理的な、論理的な又は機能的な処理ブロックとして、データ通信制御部121と、練習回数収集部122と、練習箇所提示部123とを備えている。
 データ通信制御部121は、クライアント端末20から要求があった一又は複数のパートデータ1111を配信するようにデータ通信部140を制御する。加えて、データ通信制御部121は、クライアント端末20から要求があった一又は複数の楽譜画像データ1121を配信するようにデータ通信部140を制御する。加えて、データ通信制御部121は、クライアント端末20から要求があった任意のデータを配信するようにデータ通信部140を制御する。
 更に、データ通信制御部121は、クライアント端末20からアップロードされるパートデータ1111を受信するようにデータ通信部140を制御する。データ通信制御部121は、受信したパートデータ1111をパートデータ格納部111に格納する。加えて、データ通信制御部121は、クライアント端末20からアップロードされる任意のデータ(例えば、後述するクライアント端末20における再生状態を楽曲サーバ10に対して通知するための通知データ等)を受信するようにデータ通信部140を制御する。データ通信制御部121は、受信した任意のデータをそのまま又は必要に応じて解析した後にデータベース110に格納する。
 練習回数収集部122は、「生成手段」の一具体例であって、クライアント端末20から通知されるクライアント端末20の再生状態に基づいて、回数データ1131を生成する。練習回数収集部122は、生成した回数データ1131を回数データ格納部113に格納する。
 練習箇所提示部123は、「特定手段」の一具体例であって、回数データ格納部113に格納されている回数データ1131に基づいて、クライアント端末20のユーザに対して提示するべき(或いは、特に重点的に若しくは優先的に提示するべき、又は強調して提示するべき)楽譜画像部分を特定する。練習箇所提示部123は、特定した画像部分を通知する(或いは、配信する)ようにデータ通信部140を制御する。その結果、練習箇所提示部123によって特定された楽譜画像部分は、クライアント端末20に配信されると共にクライアント端末20上で再生(表示)される。
 表示情報生成部130は、所定の画面をクライアント端末20が表示するために必要な表示情報(例えば、GUI(Graphic User Interface)情報等)を生成する。表示情報生成部130は、データ通信部140を介して、生成した表示情報をクライアント端末20に送信する。その結果、クライアント端末20は、楽曲サーバ10から送信される表示情報に基づいて生成される画面を表示する。
 データ通信部140は、データ通信制御部121の制御の下で、ネットワーク網30を介したクライアント端末20との間の通信を行う。従って、クライアント端末20からアップロードされるパートデータ1111ないしは任意のデータは、データ通信部140によって取得される。取得されたパートデータ1111ないしは任意のデータは、データ通信制御部121によってデータベース110に格納される。また、クライアント端末20から要求されたパートデータないしは任意のデータは、データ通信制御部121によってデータベース110から読み出される。読み出されたパートデータ1111ないしは任意のデータは、データ通信制御部121の制御の下で、データ通信部140からクライアント端末20に対して配信される。
 (3)クライアント端末の構成
 続いて、図7を参照して、本実施例のクライアント端末20の構成について説明する。ここに、図7は、本実施例のクライアント端末20の構成を示すブロック図である。
 図7に示すように、クライアント端末20は、記憶装置210と、制御部220と、表示部230と、データ通信部240と、音声入力部250と、音声出力部260と、操作部270とを備える。
 記憶装置210は、クライアント端末20内におけるデータ処理の過程で用いられるデータを一時的に又は恒久的に格納する。記憶装置210として、例えば、ROMやRAMやフラッシュメモリ等の半導体メモリや、ハードディスク等が一例としてあげられる。
 制御部220は、クライアント端末20全体の動作を制御する中央制御装置(例えば、CPU:Central Processing Unit)である。制御部220は、その内部に実現される物理的な、論理的な又は機能的な処理ブロックとして、表示制御部221と、音声制御部222と、操作制御部223と、データ通信制御部224と、再生状態通知部225とを備えている。
 表示制御部221は、表示部230と共に「再生手段」の一具体例を構成し、楽曲サーバ10の表示情報生成部130から送信される表示情報に基づいて、表示部230が所定の画面(例えば、クライアント端末20の操作の指示をユーザから受け付けるための画面や、クライアント端末20の状態をユーザに示す画面等)を表示するように、表示部230の動作を制御する。本実施例では、表示制御部221は、楽曲サーバ10からダウンロードした楽譜画像データ1121を表示するように表示部230の動作を制御する。更に、本実施例では、表示制御部221は、音声入力部250を介したユーザの演奏データ(つまり、パートデータ1111)の録音の指示や、当該録音されたパートデータ1111の楽曲サーバ10へのアップロードの指示をユーザから受け付けるための画面を表示してもよい。また、表示制御部221は、楽曲サーバ10に格納されている複数のパートデータ1111のうちの所望のパートデータ1111のダウンロードの要求の指示をユーザから受け付けるための画面を表示してもよい。このため、楽曲サーバ10の表示情報生成部130から送信される表示情報は、このような画面を表示するために必要な各種情報を含んでいることが好ましい。但し、表示制御部221は、楽曲サーバ10の表示情報生成部130から送信される表示情報に基づくことなく、自身で一から画面を表示するために必要な各種情報を生成してもよい。
 音声制御部222は、音声入力部250を介した音声(例えば、ボーカルないしはコーラスの音声や、各楽器の演奏による音声等)の録音を制御する。録音された音声は、一時的に又は恒久的に記憶装置210に格納されてもよい。加えて、音声制御部222は、楽曲サーバ10からダウンロードしたパートデータ1111の、音声出力部260からの音声としての出力を制御する。
 操作制御部223は、操作部270を用いたユーザの操作を受け付けると共に、当該受け付けた操作に応じた動作が行われるよう、受け付けたユーザの操作の内容をクライアント端末20内の各部に通知する。例えば、操作制御部223は、音声入力部250を介したユーザの演奏データ(つまり、パートデータ1111)の録音を指示するユーザの操作を受け付けた場合には、当該操作を受け付けた旨を音声制御部222に通知する。その結果、音声制御部222は、ユーザの演奏データを録音するように音声入力部250の動作を制御する。或いは、例えば、操作制御部223は、所望の楽譜画像データ1121のダウンロードを要求するユーザの操作を受け付けた場合には、当該操作を受け付けた旨をデータ通信制御部224に通知する。その結果、データ通信制御部224は、所望の楽譜画像データ1121のダウンロードを要求するメッセージを楽曲サーバ10に対して送信するようにデータ通信部240の動作を制御する。
 データ通信制御部224は、例えば、操作制御部223からパートデータ1111のアップロードを指示するユーザの操作を受け付けた旨の通知を受けた場合には、音声制御部222の制御の下で録音されたパートデータ1111を楽曲サーバ10へアップロードするようにデータ通信部240を制御する。その結果、音声制御部222の制御の下で録音されたパートデータ1111は、データ通信部240を介して、クライアント端末20から楽曲サーバ10へとアップロードされる。
 また、データ通信制御部224は、例えば、操作制御部223から楽曲サーバ10に格納されている複数のパートデータ1111のうちの所望のパートデータ1111のダウンロードを要求するユーザの指示を受け付けた旨の通知を受けた場合には、所望のパートデータ1111のダウンロードを楽曲サーバ10に要求するメッセージを送信するようデータ通信部240を制御する。その結果、所望のパートデータ1111は、データ通信部240を介して、楽曲サーバ10からクライアント端末20へとダウンロードされる。
 また、データ通信制御部224は、例えば、操作制御部223から楽曲サーバ10に格納されている複数の楽譜画像データ1121のうちの所望の楽譜画像データ1121のダウンロードを要求するユーザの指示を受け付けた旨の通知を受けた場合には、所望の楽譜画像データ1121のダウンロードを楽曲サーバ10に要求するメッセージを送信するようデータ通信部240を制御する。その結果、所望の楽譜画像データ1121は、データ通信部240を介して、楽曲サーバ10からクライアント端末20へとダウンロードされる。
 ここで、図8を参照して、データ通信制御部224の制御によって実現される所望のパートデータ1111及び所望の楽譜画像データ1121のダウンロード及び再生について説明する。ここに、図8は、制御部220の制御によって実現される所望のパートデータ1111及び所望の楽譜画像データ1121のダウンロード及び再生の態様を概略的に示す模式図である。
 図8の上部に示すように、例えば、クライアント端末20は、データ通信制御部224の制御の下で、ルールAという区分に分類されるデータ群に含まれるリードギターに対応する複数のパートデータ1111の中から、所望の1つのパートデータ1111のダウンロードを要求してもよい。同様に、クライアント端末20は、データ通信制御部224の制御の下で、ルールAという区分に分類されるデータ群に含まれるコーラスに対応する複数のパートデータ1111の中から、所望の1つのパートデータ1111のダウンロードを要求してもよい。同様に、クライアント端末20は、データ通信制御部224の制御の下で、ルールAという区分に分類されるデータ群に含まれるベースに対応する複数のパートデータ1111の中から、所望の1つのパートデータ1111のダウンロードを要求してもよい。同様に、クライアント端末20は、データ通信制御部224の制御の下で、ルールAという区分に分類されるデータ群に含まれるドラムに対応する複数のパートデータ1111の中から、所望の1つのパートデータ1111のダウンロードを要求してもよい。同様に、クライアント端末20は、データ通信制御部224の制御の下で、ルールAという区分に分類されるデータ群に含まれるボーカルに対応する複数のパートデータ1111の中から、所望の1つのパートデータ1111のダウンロードを要求してもよい。
 加えて、クライアント端末20は、データ通信制御部224の制御の下で、ダウンロードを要求したパートデータ1111に対応する楽譜画像データ1121のダウンロードを要求してもよい。
 その結果、クライアント端末20は、データ通信制御部224の制御の下で、リードギターに対応する1つのパートデータ1111と、コーラスに対応する1つのパートデータ1111と、ベースに対応する1つのパートデータ1111と、ドラムに対応する1つのパートデータ1111と、ボーカルに対応する1つのパートデータ1111とをダウンロードする。加えて、クライアント端末20は、データ通信制御部224の制御の下で、ダウンロードを要求したパートデータ1111に対応する楽譜画像データ1121をダウンロードする。このとき、クライアント端末20は、音声制御部222の制御の下で、ダウンロードしたパートデータ1111をミキシングしながら再生してもよい。更に、図8の下部に示すように、クライアント端末20は、表示制御部221の制御の下で、ダウンロードしたパートデータ1111のミキシング再生に同期させながら、ダウンロードした楽譜画像データ1121を再生してもよい。このとき、表示制御部221は、再生された楽譜画像データ1121上で現在の再生時刻を特定する所定の表示物(例えば、バー等)を付加的に表示するように表示部230を制御してもよい。加えて、表示制御部221は、楽譜画像データ1121に加えて、パートデータ1111の全体の再生期間に対して今現在の再生時刻を特定する再生スライダを更に付加的に表示するように表示部230を制御してもよい。
 再び図7において、再生状態通知部225は、クライアント端末20の再生状態(特に、クライアント端末20による楽譜画像データ1121の再生状態)を、データ通信制御部224に対して通知する。その結果、データ通信制御部224は、クライアント端末20の再生状態を通知するためのメッセージを楽曲サーバ10に対して送信するようにデータ通信部240の動作を制御する。その結果、クライアント端末20の再生状態が楽曲サーバ10に対して通知される。
 データ通信部240は、データ通信制御部224の制御の下で、ネットワーク網30を介した楽曲サーバ10との間の通信を行う。従って、クライアント端末20からアップロードされるパートデータ1111ないしは任意のデータは、データ通信部240を介して楽曲サーバ10に送信される。また、クライアント端末20の要求に応じて楽曲サーバ10から配信されるパートデータ1111ないしは任意のデータは、データ通信部240によって取得される。取得されたパートデータ1111ないしは任意のデータは、データ通信制御部224によって、記憶装置210に一時的に又は恒久的に格納されてもよいし、音声出力部260から出力されてもよい。
 音声入力部250は、例えば、マイク等の音声の入力を受け付ける装置である。
 音声出力部260は、例えば、スピーカ等の音声の出力を行う装置である。
 操作部270は、例えば、キーボードやマウスやタッチパネル等のユーザの操作を受け付ける装置である。
 (4)楽曲配信システムにおける動作の流れ
 続いて、図9を参照して、本実施例の楽曲配信システム1における動作(特に、楽曲サーバ10からクライアント端末20に対して楽譜画像データ1121が配信される動作)の流れについて説明する。ここに、図9は、本実施例の楽曲配信システム1における動作(特に、楽曲サーバ10からクライアント端末20に対して楽譜画像データ1121が配信される動作)の流れを示すフローチャートである。
 尚、図9に示す動作の一部又は全部は、楽曲サーバ10が備えるハードウェア(例えば、専用のICチップ等)によって実現されてもよいし、或いは楽曲サーバ10が備える制御部120上で実行されるソフトウェア(例えば、制御部120上で起動するコンピュータプログラム)によって実現されてもよい。同様に、図9に示す動作の一部又は全部は、クライアント端末20が備えるハードウェア(例えば、専用のICチップ等)によって実現されてもよいし、或いはクライアント端末20が備える制御部220上で実行されるソフトウェア(例えば、制御部220上で起動するコンピュータプログラム)によって実現されてもよい。以下の説明では、図9のステップS101からステップS107までの動作が楽曲サーバ10によって行われ、図9のステップS108の動作がクライアント端末20によって行われる例を説明する。
 図9に示すように、楽曲サーバ10が備える練習回数収集部122は、クライアント端末20から送信されてくるクライアント端末20の再生状態(特に、クライアント端末20による楽譜画像データ1121の再生状態)を通知するためのメッセージを収集する(ステップS101)。その後、練習回数収集部122は、収集したメッセージを解析することで、回数データ1131を生成する(ステップS102)。尚、練習回数収集部122は、生成した回数データ1131を回数データ格納部113内に格納する。
 ここで、回数データ1131に「全再生回数(図6参照)」が含まれている場合には、クライアント端末20の再生状態通知部225は、再生された楽譜画像部分を通知するメッセージを、楽曲サーバ10に対して送信することが好ましい。この場合、楽曲サーバ10が備える練習回数収集部122は、メッセージを受け取る都度、対応する楽譜画像部分の全再生回数を1ずつインクリメントするように、回数データ1131を更新する。或いは、再生状態通知部225は、再生された楽譜画像部分とその再生回数を通知するメッセージを、楽曲サーバ10に対して送信してもよい。この場合、練習回数収集部122は、メッセージを受け取る都度、受け取ったメッセージに基づいて回数データ1131を更新する。
 或いは、回数データ1131に「ループ再生回数(図6参照)」が含まれている場合には、再生状態通知部225は、ループ再生された楽譜画像部分を通知すると共にループ再生が行われていることを示すループ再生フラグがオンに設定されているメッセージを、楽曲サーバ10に対して送信することが好ましい。この場合、練習回数収集部122は、メッセージを受け取る都度、対応する楽譜画像部分のループ再生回数を1ずつインクリメントするように、回数データ1131を更新する。或いは、再生状態通知部225は、ループ再生された楽譜画像部分とそのループ再生回数とを通知すると共にループ再生が行われていることを示すループ再生フラグがオンに設定されているメッセージを、楽曲サーバ10に対して送信してもよい。この場合、練習回数収集部122は、メッセージを受け取る都度、受け取ったメッセージに基づいて回数データ1131を更新する。
 或いは、回数データ1131に「練習用再生回数(図6参照)」が含まれている場合には、再生状態通知部225は、再生された楽譜画像部分を通知すると共にユーザによる練習を目的として当該楽譜画像部分が再生されていることを示す練習再生フラグがオンに設定されているメッセージを、楽曲サーバ10に対して送信することが好ましい。この場合、練習回数収集部122は、メッセージを受け取る都度、対応する楽譜画像部分の練習用再生回数を1ずつインクリメントするように、回数データ1131を更新する。或いは、再生状態通知部225は、再生された楽譜画像部分とその再生回数を通知すると共にユーザによる練習を目的として当該楽譜画像部分が再生されていることを示す練習再生フラグがオンに設定されているメッセージを、楽曲サーバ10に対して送信してもよい。この場合、練習回数収集部122は、メッセージを受け取る都度、受け取ったメッセージに基づいて回数データ1131を更新する。
 或いは、回数データ1131に「演奏時再生回数(図6参照)」が含まれている場合には、再生状態通知部225は、再生された楽譜画像部分を通知すると共にユーザによる演奏が行われている(つまり、クライアント端末20上で、楽譜画像部分の再生とユーザに演奏ないしは録音等が同時に行われている)ことを示す演奏フラグがオンに設定されているメッセージを、楽曲サーバ10に対して送信することが好ましい。この場合、練習回数収集部122は、メッセージを受け取る都度、対応する楽譜画像部分の演奏時再生回数を1ずつインクリメントするように、回数データ1131を更新する。或いは、再生状態通知部225は、再生された楽譜画像部分とその再生回数を通知すると共にユーザによる演奏が行われていることを示す演奏フラグがオンに設定されているメッセージを、楽曲サーバ10に対して送信してもよい。この場合、練習回数収集部122は、メッセージを受け取る都度、受け取ったメッセージに基づいて回数データ1131を更新する。
 尚、回数データ1131に「全再生回数」、「ループ再生回数」、「練習用再生回数」及び「演奏時再生回数」以外の何らかの再生回数を示すデータが含まれる場合には、再生状態通知部225は、当該何らかの再生回数を直接的に又は間接的に特定可能なメッセージを楽曲サーバ10に対して送信することが好ましい。また、練習回数収集部122は、メッセージを受け取る都度、受け取ったメッセージに基づいて回数データ1131を更新することが好ましい。
 その後、楽曲サーバ122が備える練習箇所提示部123は、クライアント端末20から、所望の楽譜画像データ1121のダウンロードを要求するメッセージが送信されているか否かを判定する(ステップS103)。更に、練習箇所提示部123は、クライアント端末20から、所望のパートデータ1111のダウンロードを要求するメッセージが送信されているか否かを判定する(ステップS104)。
 ステップS103及びステップS104の判定の結果、所望の楽譜画像データ1121のダウンロードを要求するメッセージが送信されておらず且つ所望のパートデータ1111のダウンロードを要求するメッセージが送信されていないと判定される場合には(ステップS103:No且つステップS104:No)、楽曲サーバ10は、ステップS101及びステップS102の動作を繰り返す。
 他方で、ステップS103及びステップS104の判定の結果、所望の楽譜画像データ1121のダウンロードを要求するメッセージが送信されているか又は所望のパートデータ1111のダウンロードを要求するメッセージが送信されているかと判定される場合には(ステップS103:Yes又はステップS104:Yes)、楽曲サーバ10が備える練習箇所提示部123は、回数データ格納部113に格納されている回数データ1131を読み出す(ステップS105)。特に、練習箇所提示部123は、クライアント端末20がダウンロードを要求している楽譜画像データ1121に対応する回数データ1131を読み出すことが好ましい。或いは、練習箇所提示部123は、クライアント端末20がダウンロードを要求しているパートデータ1111に対応する楽譜画像データ1121に対応する回数データ1131を読み出すことが好ましい。
 その後、練習箇所提示部123は、読み出した回数データ1131に基づいて、再生回数(例えば、上述した「全再生回数」、「ループ再生回数」、「練習用再生回数」及び「演奏時再生回数」の少なくとも一つ)が所定基準を満たす一部の楽譜画像部分を特定する(ステップS106)。例えば、練習箇所提示部123は、再生回数が最大となる一部の楽譜画像部分を特定してもよい。或いは、例えば、練習箇所提示部123は、再生回数が平均値(つまり、全ての楽譜画像部分の再生回数の平均値)を超える一部の画像部分を特定してもよい。或いは、例えば、練習箇所提示部123は、再生回数が所定の閾値(例えば、極小値や極大値や中央値等や、予め設定された任意の値等)を超える一部の画像部分を特定してもよい。或いは、例えば、練習箇所提示部123は、再生回数の偏差値(つまり、全ての楽譜画像部分の再生回数を対象として統計処理を行った結果得られる、各楽譜画像部分の再生回数の偏差値)が所定の閾値(例えば、予め設定された任意の値等)を超える一部の画像部分を特定してもよい。
 尚、練習箇所提示部123は、回数データ1131に含まれる「全再生回数」、「ループ再生回数」、「練習用再生回数」及び「演奏時再生回数」並びに「これら以外の何らかの再生回数を示すデータ」のうち少なくとも一つを対象として、ステップS106の判定を行ってもよい。この場合、練習箇所提示部123は、「全再生回数」、「ループ再生回数」、「練習用再生回数」及び「演奏時再生回数」並びに「これら以外の何らかの再生回数を示すデータ」に対して優先順位を設定し、当該優先順位が示す順番で順にステップS106の判定を行ってもよい。
 その後、練習箇所提示部123は、ステップS106で特定した楽譜画像部分を、クライアント端末20に対して通知する(ステップS107)。つまり、練習箇所提示部123は、ステップS106で特定した楽譜画像部分をクライアント端末20が認識するために用いられる情報を、クライアント端末20に対して通知する。
 その後、クライアント端末20の表示制御部221は、楽曲サーバ10からダウンロードした楽譜画像データ1121のうち楽曲サーバ10によって特定された楽譜画像部分を表示するように表示部230の動作を制御する。その結果、表示部230には、楽曲サーバ10によって特定された楽譜画像部分が表示される(ステップS108)。このとき、表示部230は、楽曲サーバ10によって特定された楽譜画像部分のみを表示してもよい。或いは、表示部230は、楽曲サーバ10によって特定された楽譜画像部分を、その他の楽譜画像部分と区別可能な態様で表示してもよい。楽曲サーバ10によって特定された楽譜画像部分を区別可能な表示態様としては、例えばハイライト表示等が一例としてあげられる。
 以上説明したように、本実施例の楽曲配信システム1によれば、楽曲サーバ10は、クライアント端末20上で表示される楽譜画像データ1121のうちの一部の楽譜画像部分を特定することができる。特に、楽曲サーバ10は、各楽譜画像部分の再生回数に基づいて、一部の楽譜画像部分を特定することができる。このため、クライアント端末20は、このように特定される一部の楽譜画像部分を選択的に表示することができる。
 ここで、ユーザによる各楽譜画像部分の全再生回数は、いわば、各楽譜画像部分がユーザに注目されているか否かを(言い換えれば、ユーザが重点的に再生しているか否か)を示す指標となり得る。従って、本実施例の楽曲サーバ10は、パートデータ1111と同期して再生される楽譜画像データ1121の各楽譜画像部分の中からユーザにとって人気が高い(例えば、他のユーザも重点的に練習している)一部の画像部分を好適に特定することができる。従って、楽譜画像データ1121の再生によって表示される楽譜を見ながら練習を行いたいユーザは、他のユーザが重点的に練習しているがゆえに効率的な又は効果的な練習を行うことができると推定される楽譜画像部分を好適に認識することができる。
 加えて、ループ再生が行われている場合には、当該ループ再生の間に再生されている楽譜画像部分に対するユーザの注目度が相対的に高いと推定される。加えて、ループ再生が行われている場合には、ユーザは、当該ループ再生の間に再生されている楽譜画像部分を見ながら繰り返し演奏の練習を行っているとも推定される。従って、ループ再生回数は、いわば、各楽譜画像部分がユーザに注目されているか否かを(言い換えれば、ユーザが重点的に再生しているか否か)を示す指標となり得る。従って、本実施例の楽曲サーバ10は、パートデータ1111と同期して再生される楽譜画像データ1121の各楽譜画像部分の中からユーザにとって人気が高い(例えば、他のユーザも重点的に練習している)一部の画像部分を好適に特定することができる。従って、楽譜画像データ1121の再生によって表示される楽譜を見ながら練習を行いたいユーザは、他のユーザが重点的に練習しているがゆえに効率的な又は効果的な練習を行うことができると推定される楽譜画像部分を好適に認識することができる。
 加えて、演奏の練習を目的として楽譜画像部分が再生される回数を示す練習用再生回数は、まさにユーザが重点的に練習している楽譜画像部分を直接的に示す指標となり得る。従って、本実施例の楽曲サーバ10は、パートデータ1111と同期して再生される楽譜画像データ1121の各楽譜画像部分の中からユーザにとって人気が高い(例えば、他のユーザも重点的に練習している)一部の画像部分を好適に特定することができる。従って、楽譜画像データ1121の再生によって表示される楽譜を見ながら練習を行いたいユーザは、他のユーザが重点的に練習しているがゆえに効率的な又は効果的な練習を行うことができると推定される楽譜画像部分を好適に認識することができる。
 加えて、楽譜画像データ1121の再生と同時にユーザが演奏を行っている回数を示す演奏時再生回数は、まさにユーザが重点的に練習している楽譜画像部分を直接的に示す指標となり得る。従って、本実施例の楽曲サーバ10は、パートデータ1111と同期して再生される楽譜画像データ1121の各楽譜画像部分の中からユーザにとって人気が高い(例えば、他のユーザも重点的に練習している)一部の画像部分を好適に特定することができる。従って、楽譜画像データ1121の再生によって表示される楽譜を見ながら練習を行いたいユーザは、他のユーザが重点的に練習しているがゆえに効率的な又は効果的な練習を行うことができると推定される楽譜画像部分を好適に認識することができる。
 尚、上述の説明では、複数のパートデータ1111の再生と同期しながら楽譜画像データ1121が再生される例を用いて説明を進めている。しかしながら、楽譜画像データ1121に加えて又は代えて、楽譜画像データ1121以外の任意の画像データ(好ましくは、対応するパートデータ1111等に特有の情報を視覚的に示す画像データ)が表示されてもよい。例えば、図10(a)に示すように、楽譜画像データ1121に加えて又は代えて、対応するパートデータ1111の歌詞を示す歌詞画像データが表示されてもよい。この場合、楽曲サーバ10のデータベース110は、楽譜データ格納部112に加えて又は代えて、歌詞画像データを格納する歌詞データ格納部を備えていることが好ましい。このように構成しても、楽曲サーバ10は、上述した態様で、歌詞画像データを細分化することで得られる複数の歌詞画像部分の夫々の再生回数に基づいて、ユーザに提示するべき歌詞画像部分を特定してもよい。その結果、上述した各種効果と同様の効果が好適に実現される。
 或いは、図10(b)に示すように、楽譜画像データ1121に加えて又は代えて、対応するパートデータ1111のコードを示すコード画像データが表示されてもよい。この場合、楽曲サーバ10のデータベース110は、楽譜データ格納部112に加えて又は代えて、コード画像データを格納するコードデータ格納部を備えていることが好ましい。このように構成しても、楽曲サーバ10は、上述した態様で、コード画像データを細分化することで得られる複数のコード画像部分の夫々の再生回数に基づいて、ユーザに提示するべきコード画像部分を特定してもよい。その結果、上述した各種効果と同様の効果が好適に実現される。
 また、本発明は、請求の範囲及び明細書全体から読み取ることのできる発明の要旨又は思想に反しない範囲で適宜変更可能であり、そのような変更を伴う再生装置、再生方法、及び情報処理用のコンピュータプログラム、並びに、再生装置、再生方法、及び再生制御用のコンピュータプログラムもまた本発明の技術思想に含まれる。
 1 楽曲配信システム
 10 楽曲サーバ
 110 データベース
 111 パートデータ格納部
 1111 パートデータ
 112 楽譜データ格納部
 1121 楽譜画像データ
 113 回数データ格納部
 1131 回数データ
 120 制御部
 121 データ通信制御部
 122 練習回数収集部
 123 練習箇所提示部
 140 データ通信部
 20 クライアント端末
 220 制御部
 222 音声制御部
 223 操作制御部
 225 再生状態通知部
 240 データ通信部
 260 音声出力部
 270 操作部

Claims (21)

  1.  コンテンツデータと同期しながら再生される画像データであって且つ前記コンテンツデータに特有の情報を視覚的に示す画像データを構成する複数の画像部分の夫々がユーザによって再生された回数を示す回数情報を取得する取得手段と、
     前記取得手段によって取得された前記回数情報に基づいて、前記複数の画像部分のうち前記回数が所定の基準を満たす一部の画像部分を特定する特定手段と
     を備える
     ことを特徴とする情報処理装置。
  2.  各画像部分の前記ユーザによる再生の態様を監視することで、前記回数情報を生成する生成手段と、
     前記生成手段が生成した前記回数情報を格納する格納手段と
     を更に備え、
     前記取得手段は、前記格納手段に格納されている前記回数情報を取得する
     ことを特徴とする請求項1に記載の情報処理装置。
  3.  前記生成手段は、各画像部分が前記ユーザによって再生される毎にカウントアップされる回数を示す前記回数情報を生成する
     ことを特徴とする請求項2に記載の情報処理装置。
  4.  前記生成手段は、各画像部分に対応する再生期間を含む所定の再生期間を対象としたループ再生が行われる回数を示す前記回数情報を生成する
     ことを特徴とする請求項2に記載の情報処理装置。
  5.  前記生成手段は、特定の利用を目的として各画像部分が前記ユーザによって再生された回数を示す前記回数情報を生成する
     ことを特徴とする請求項2に記載の情報処理装置。
  6.  前記生成手段は、前記コンテンツデータの再生に対して前記ユーザによる付加的な演奏がなされた状態で各画像部分が前記ユーザによって再生された回数を示す前記回数情報を生成する
     ことを特徴とする請求項2に記載の情報処理装置。
  7.  前記特定手段は、前記回数が最大となる前記一部の画像部分を特定する
     ことを特徴とする請求項1に記載の情報処理装置。
  8.  前記特定手段は、前記回数が所定の閾値を超える前記一部の画像部分を特定する
     ことを特徴とする請求項1に記載の情報処理装置。
  9.  前記特定手段は、前記回数の偏差値が所定値以上となる前記一部の画像部分を特定
     ことを特徴とする請求項1に記載の情報処理装置。
  10.  前記コンテンツデータは、楽曲データであり、
     前記画像データは、前記楽曲データに特有の楽譜情報を視覚的に示す楽譜データを含む
     ことを特徴とする請求項1に記載の情報処理装置。
  11.  前記コンテンツデータは、楽曲データであり、
     前記画像データは、前記楽曲データに特有の歌詞情報を視覚的に示す歌詞データを含む
     ことを特徴とする請求項1に記載の情報処理装置。
  12.  前記コンテンツデータは、楽曲データであり、
     前記画像データは、前記楽曲データに特有のコード情報を視覚的に示すコードデータを含む
     ことを特徴とする請求項1に記載の情報処理装置。
  13.  前記特定手段よって特定される前記一部の画像部分を再生する再生手段を更に備える
     ことを特徴とする請求項1に記載の情報処理装置。
  14.  前記特定手段よって特定される前記一部の画像部分を他の情報処理装置に対して通知する通知手段を備え、
     前記他の情報処理装置は、前記通知手段によって通知される前記一部の画像部分を再生する
     ことを特徴とする請求項1に記載の情報処理装置。
  15.  コンテンツデータと同期しながら再生される画像データであって且つ前記コンテンツデータに特有の情報を視覚的に示す画像データを構成する複数の画像部分の夫々がユーザによって再生された回数を示す回数情報を取得する取得工程と、
     前記取得工程によって取得された前記回数情報に基づいて、前記複数の画像部分のうち前記回数が所定の基準を満たす一部の画像部分を特定する特定工程と
     を備える
     ことを特徴とする情報処理方法。
  16.  コンピュータを請求項1に記載の情報処理装置として機能させる
     ことを特徴とする情報処理制御用のコンピュータプログラム。
  17.  コンピュータを請求項1に記載の情報処理装置として機能させる情報処理制御用のコンピュータプログラムが記録されたことを特徴とする記録媒体。
  18.  請求項1に記載の情報処理装置によって特定された前記一部の画像部分を受け取る受取手段と、
     前記受取手段が受け取った前記一部の画像部分を再生する再生手段と
     を備える
     ことを特徴とする再生装置。
  19.  請求項1に記載の情報処理装置によって特定された前記一部の画像部分を受け取る受取工程と、
     前記受取工程が受け取った前記一部の画像部分を再生する再生工程と
     を備える
     ことを特徴とする再生方法。
  20.  コンピュータを請求項18に記載の再生装置として機能させる
     ことを特徴とする再生制御用のコンピュータプログラム。
  21.  コンピュータを請求項18に記載の再生装置として機能させる再生制御用のコンピュータプログラムが記録されたことを特徴とする記録媒体。
PCT/JP2011/068445 2011-08-12 2011-08-12 情報処理装置、情報処理方法、及び情報処理制御用のコンピュータプログラム、並びに、再生装置、再生方法、及び再生制御用のコンピュータプログラム WO2013024514A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013528849A JP5867933B2 (ja) 2011-08-12 2011-08-12 情報処理装置、情報処理方法、及び情報処理制御用のコンピュータプログラム
PCT/JP2011/068445 WO2013024514A1 (ja) 2011-08-12 2011-08-12 情報処理装置、情報処理方法、及び情報処理制御用のコンピュータプログラム、並びに、再生装置、再生方法、及び再生制御用のコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/068445 WO2013024514A1 (ja) 2011-08-12 2011-08-12 情報処理装置、情報処理方法、及び情報処理制御用のコンピュータプログラム、並びに、再生装置、再生方法、及び再生制御用のコンピュータプログラム

Publications (1)

Publication Number Publication Date
WO2013024514A1 true WO2013024514A1 (ja) 2013-02-21

Family

ID=47714858

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/068445 WO2013024514A1 (ja) 2011-08-12 2011-08-12 情報処理装置、情報処理方法、及び情報処理制御用のコンピュータプログラム、並びに、再生装置、再生方法、及び再生制御用のコンピュータプログラム

Country Status (2)

Country Link
JP (1) JP5867933B2 (ja)
WO (1) WO2013024514A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0467493A (ja) * 1990-07-06 1992-03-03 Pioneer Electron Corp 情報再生装置
JP2001100746A (ja) * 1999-09-30 2001-04-13 Casio Comput Co Ltd 自動演奏装置及び自動演奏処理のプログラムを記録した記録媒体
JP2002091443A (ja) * 2000-09-19 2002-03-27 Yamaha Corp 自動演奏装置
JP2003108125A (ja) * 2001-10-02 2003-04-11 Namco Ltd 情報提供システム、携帯型端末装置、プログラムおよび情報記憶媒体
JP2003141859A (ja) * 2001-11-01 2003-05-16 Konica Corp 画像音声再生システム、プログラム、及び記録媒体
WO2004015651A1 (ja) * 2002-08-08 2004-02-19 Akihiko Ikawa トレーニングシステム
JP2005302155A (ja) * 2004-04-12 2005-10-27 Sharp Corp 情報再生装置、情報再生方法、コンピュータで実行可能なプログラム、及び記録媒体
JP2009008861A (ja) * 2007-06-27 2009-01-15 Daiichikosho Co Ltd 演奏中に高難易度フレーズを歌唱者に報知するカラオケシステム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0467493A (ja) * 1990-07-06 1992-03-03 Pioneer Electron Corp 情報再生装置
JP2001100746A (ja) * 1999-09-30 2001-04-13 Casio Comput Co Ltd 自動演奏装置及び自動演奏処理のプログラムを記録した記録媒体
JP2002091443A (ja) * 2000-09-19 2002-03-27 Yamaha Corp 自動演奏装置
JP2003108125A (ja) * 2001-10-02 2003-04-11 Namco Ltd 情報提供システム、携帯型端末装置、プログラムおよび情報記憶媒体
JP2003141859A (ja) * 2001-11-01 2003-05-16 Konica Corp 画像音声再生システム、プログラム、及び記録媒体
WO2004015651A1 (ja) * 2002-08-08 2004-02-19 Akihiko Ikawa トレーニングシステム
JP2005302155A (ja) * 2004-04-12 2005-10-27 Sharp Corp 情報再生装置、情報再生方法、コンピュータで実行可能なプログラム、及び記録媒体
JP2009008861A (ja) * 2007-06-27 2009-01-15 Daiichikosho Co Ltd 演奏中に高難易度フレーズを歌唱者に報知するカラオケシステム

Also Published As

Publication number Publication date
JP5867933B2 (ja) 2016-02-24
JPWO2013024514A1 (ja) 2015-03-05

Similar Documents

Publication Publication Date Title
US7244885B2 (en) Server apparatus streaming musical composition data matching performance skill of user
JP5958041B2 (ja) 表情演奏リファレンスデータ生成装置、演奏評価装置、カラオケ装置及び装置
CN1433548A (zh) 基于网络的音乐演奏/歌曲伴奏服务系统和方法
JP2006084749A (ja) コンテンツ生成装置およびコンテンツ生成方法
US6746246B2 (en) Method and apparatus for composing a song
JP2010237257A (ja) 評価装置
JP6102076B2 (ja) 評価装置
JP6288197B2 (ja) 評価装置及びプログラム
JP6708537B2 (ja) カラオケシステム
JP5544961B2 (ja) サーバ
JP5867933B2 (ja) 情報処理装置、情報処理方法、及び情報処理制御用のコンピュータプログラム
JP2016095522A (ja) 情報処理装置、情報処理方法、及び情報処理制御用のコンピュータプログラム、並びに、再生装置、再生方法、及び再生制御用のコンピュータプログラム
JP2011191357A (ja) カラオケシステム
WO2013014749A1 (ja) 配信装置、配信方法、及び配信制御用のコンピュータプログラム、再生装置、再生方法、及び再生制御用のコンピュータプログラム、並びに配信システム
JP5731661B2 (ja) 記録装置、記録方法、及び記録制御用のコンピュータプログラム、並びに再生装置、再生方法、及び再生制御用のコンピュータプログラム
KR102344749B1 (ko) 온라인 상에서 음원 데이터를 이용한 노래 제작 시스템 및 방법
JP5645327B2 (ja) 配信装置、配信方法、及び配信制御用のコンピュータプログラム、再生装置、再生方法、及び再生制御用のコンピュータプログラム、並びに配信システム
JP2004212564A (ja) 通信カラオケシステムにおけるbgm楽曲の選出方法
JP2004279462A (ja) カラオケ装置
JP5551983B2 (ja) カラオケ演奏制御システム
WO2013005301A1 (ja) 再生装置、再生方法、及びコンピュータプログラム
JP6509291B2 (ja) 楽曲共作支援システム
JP2018112724A (ja) 演奏ガイド装置、演奏ガイドプログラムおよび演奏ガイド方法
JP2014071215A (ja) 演奏装置、演奏システム、プログラム
JP4394338B2 (ja) カラオケ装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11871067

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013528849

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11871067

Country of ref document: EP

Kind code of ref document: A1