JP2022028570A - Recorded data reproduction method and system - Google Patents

Recorded data reproduction method and system Download PDF

Info

Publication number
JP2022028570A
JP2022028570A JP2020132060A JP2020132060A JP2022028570A JP 2022028570 A JP2022028570 A JP 2022028570A JP 2020132060 A JP2020132060 A JP 2020132060A JP 2020132060 A JP2020132060 A JP 2020132060A JP 2022028570 A JP2022028570 A JP 2022028570A
Authority
JP
Japan
Prior art keywords
score
performance
terminal
video
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020132060A
Other languages
Japanese (ja)
Other versions
JP6864938B1 (en
Inventor
誠 山田
Makoto Yamada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Design M Plus Inc
Original Assignee
Design M Plus Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Design M Plus Inc filed Critical Design M Plus Inc
Priority to JP2020132060A priority Critical patent/JP6864938B1/en
Application granted granted Critical
Publication of JP6864938B1 publication Critical patent/JP6864938B1/en
Publication of JP2022028570A publication Critical patent/JP2022028570A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To support an online ensemble among players in remote locations, enabling a realistic physical feeling through reducing an effect of a network delay as possible.SOLUTION: A sound/video distribution technology with a play position and time specified allows players to perform a chorus or a concert without any special skill, through synchronizing online a performance timing, even staying in remote locations if timing when a sound/video distribution server 104 distributes data is different. Each terminal is capable of displaying a musical score distributed from a musical score provision server 101, as well as capable of reproducing a sound or a video in which the provided musical score is played, generating a pace of the chorus or the concert, so as to allow each player to synchronize the timing through the sound or the video simultaneously reproduced at each terminal.SELECTED DRAWING: Figure 2

Description

本発明は記録データ再生方法およびシステムに関し、より具体的には、楽譜の提供及び管理を実行するとともに、ネットワークを介してオンラインアンサンブルの支援を行うことができる記録データ再生方法およびシステムに関する。 The present invention relates to a recorded data reproduction method and system, and more specifically, to a recorded data reproduction method and system capable of providing and managing musical scores and supporting an online ensemble via a network.

従来、オンラインで合同演奏する場合、例えば配信された映像に合わせて演奏や、歌唱をすることにより、ネットワーク遅延や通信遅延があり、多少のずれがありつつも他の演奏者と演奏することが行われている。しかし、このような環境で相互に演奏のタイミングを合わせ、リアルに合奏しているように演奏するような体感を得るためには、ネットワーク遅延を考慮した高い演奏技術が必要である。近年、ネットワーク環境の進展により、ネットワーク遅延は減少してきているが、楽曲を演奏した複数の音声や映像を合成しようとすると、通常の聴取力であっても容易にずれが感得され、リアルな体感を得ることは困難である。 Conventionally, when performing jointly online, for example, by playing or singing along with the delivered video, there is a network delay or communication delay, and it is possible to play with other performers even if there is some deviation. It is done. However, in order to match the timing of performances with each other in such an environment and to obtain the feeling of playing as if they were playing in a realistic ensemble, a high performance technique considering network delay is required. In recent years, with the development of the network environment, the network delay has been reduced, but when trying to synthesize multiple audio and video that played music, the deviation is easily perceived even with normal listening ability, and it is realistic. It is difficult to get a feel for it.

このような技術的課題はあるものの近年は、ますます遠隔の演奏者達による合奏や合唱のニーズが高まっており、リアルタイムではないが各演奏者の演奏を記録して、遅延を補償するように編集する手法も実現されている。また、ネットワーク上の遅延時間に基づく違和感を低減する合奏装置等を提供することを目的とし、ネットワークを介して、第一地点にいる第一演奏者と、第一地点とは異なる第二地点にいる第二演奏者との合奏を実現するために第一地点に配置され、第一演奏者がリズムを刻む音を発生する動きをすることを意図したことに起因して発生する生体信号に対応する生体情報を取得する生体信号取得部と、ネットワークを介して第二地点に、生体情報を送信し、その後、生体信号による動きにより発生した音に対応する楽音情報を送信する送信部と、を含み、第二地点では、楽音情報に対応する音が再生されるよりも早く、生体情報に対応する刺激が第二演奏者に呈示されるという合奏装置が提案されている上で、他者と容易に演奏音を作成、合奏、公開するなど、共に音楽を作り、発表するという一連の作業が容易に行える仕組みが出来ていない。により公開し、他の使用者が表示された音声信号を閲覧し、その音声を出力しながら新たな音声信号を重ねることなどが可能なモバイル端末等上のアプリケーション・ソフトウエア。なお、楽器とモバイル端末間を有線で接続する場合も手段に含む。(例えば、特許文献1参照)。 Despite these technical challenges, in recent years there has been an increasing need for ensemble and chorus by remote performers, so to record each performer's performance, though not in real time, to compensate for delays. The method of editing is also realized. In addition, for the purpose of providing an ensemble device or the like that reduces discomfort based on the delay time on the network, the first performer at the first point and the second point different from the first point are connected via the network. It is placed at the first point to realize an ensemble with the second performer, and corresponds to the biometric signal generated due to the intention of the first performer to make a movement to generate a rhythmic sound. A biometric signal acquisition unit that acquires biometric information, and a transmission unit that transmits biometric information to a second point via a network and then transmits music sound information corresponding to the sound generated by the movement of the biometric signal. Including, at the second point, an ensemble device has been proposed in which the stimulus corresponding to the biological information is presented to the second performer earlier than the sound corresponding to the musical sound information is reproduced. There is no mechanism that makes it easy to create, ensemble, and publish performance sounds, and to easily create and present music together. Application software on mobile terminals, etc. that allows other users to view the displayed audio signal and superimpose a new audio signal while outputting the audio. In addition, the case of connecting the musical instrument and the mobile terminal by wire is also included in the means. (See, for example, Patent Document 1).

特開2015-200801号公報Japanese Unexamined Patent Publication No. 2015-20801

しかし、従来の楽譜表示システムは、あくまで身体的刺激により演奏者を錯覚させて、ネットワーク遅延の分だけ早いタイミングで演奏させるというもので、単に違和感を減少させることができるという効果しかなく、また演奏者が2人以上になった場合、遅延を吸収することが難しいという問題がある。また、演奏終了後遅延を補償するように編集することができてもリアルタイムで演奏することができないという問題がある。 However, the conventional score display system only makes the performer illusion by physical stimulation and plays at an earlier timing by the amount of network delay, and has only the effect of reducing the sense of incongruity. When there are two or more people, there is a problem that it is difficult to absorb the delay. Further, there is a problem that even if the music can be edited so as to compensate for the delay after the performance is completed, the performance cannot be performed in real time.

本発明は上記従来の問題に鑑みてなされたものであり、音声や動画の再生に合わせて、演奏位置を楽譜上に表示させるとともに、当該再生に合わせて演奏された音声を合成したり、動画を並べて表示したりすることにより、ネットワーク遅延の影響を極力減少させてリアルな体感を得られる遠隔地の演奏者間でのオンラインアンサンブルを支援する記録データ再生方法およびシステムを提供することを目的とする。 The present invention has been made in view of the above-mentioned conventional problems, and the performance position is displayed on the score according to the reproduction of the sound or the moving image, and the sound played according to the reproduction is synthesized or the moving image is formed. The purpose is to provide a recorded data reproduction method and system that supports an online ensemble between performers in remote areas where the effects of network delays can be reduced as much as possible and a realistic experience can be obtained by displaying the music side by side. do.

請求項1に記載の発明は、ネットワークを介して、オンラインアンサンブルを支援する記録データ再生方法であって、ネットワークを介して端末に楽譜を送信する楽譜送信ステップと、楽譜に関連する第1の演奏を記録したデータを、端末に表示された楽譜上の指定された位置から再生するとともに、再生位置を楽譜上に表示する再生ステップと、再生ステップにおいて再生された第1の演奏に重ねて行われる、楽譜に関連する第2の演奏を複数の端末で取得し、ネットワークを介して送信する演奏取得ステップと、演奏取得ステップにおいて送信された複数の第2の演奏を、再生された第1の演奏とともに出力する出力ステップとを備えることを特徴とする。 The invention according to claim 1 is a recorded data reproduction method for supporting an online ensemble via a network, in which a score transmission step of transmitting a score to a terminal via the network and a first performance related to the score. The recorded data is played back from the specified position on the score displayed on the terminal, and is performed by superimposing the playback step of displaying the playback position on the score and the first performance played in the playback step. , A performance acquisition step in which a second performance related to a musical score is acquired by a plurality of terminals and transmitted via a network, and a plurality of second performances transmitted in the performance acquisition step are reproduced as a first performance. It is characterized by having an output step for outputting together with.

請求項2に記載の発明は、請求項1に記載の記録データ再生方法において、端末から演奏の開始位置の指定を受信すると、指定された楽譜上の位置に対応する第1の演奏を記録したデータの再生時間を、楽譜と第1の演奏を記録したデータとから生成された対応付け情報に従って取得し、取得した再生時間から第1の演奏を記録したデータの再生を行うために端末に送信する再生ステップをさらに備えることを特徴とする。 The invention according to claim 2 records the first performance corresponding to the designated position on the score when the designation of the start position of the performance is received from the terminal in the recording data reproduction method according to claim 1. The data reproduction time is acquired according to the correspondence information generated from the score and the data recording the first performance, and is transmitted to the terminal to reproduce the data recording the first performance from the acquired reproduction time. It is characterized by further providing a reproduction step to be performed.

請求項3に記載の発明は、第1の演奏を記録したデータは、前1の演奏を録音して得られる音声データであることを特徴とする請求項1または2に記載の記録データ再生方法。 The recorded data reproduction method according to claim 1, wherein the data in which the first performance is recorded is audio data obtained by recording the previous performance. ..

請求項4に記載の発明は、請求項1ないし3のいずれかに記載の記録データ再生方法において、第1の演奏を記録したデータは、第1の演奏を録画して得られる動画データであることを特徴とする。 The invention according to claim 4 is the recorded data reproduction method according to any one of claims 1 to 3, wherein the data recording the first performance is moving image data obtained by recording the first performance. It is characterized by that.

請求項5に記載の発明は、請求項1ないし4のいずれかに記載の記録データ再生方法において、再生ステップは、端末ごとに異なる再生開始時刻に再生を開始することを特徴とする。 The invention according to claim 5 is characterized in that, in the recorded data reproduction method according to any one of claims 1 to 4, the reproduction step starts reproduction at a different reproduction start time for each terminal.

本発明によると、ネットワークを介して端末に楽譜を送信する楽譜送信ステップと、楽譜に関連する第1の演奏を記録したデータを、端末に表示された楽譜上の指定された位置から再生するとともに、再生位置を楽譜上に表示する再生ステップと、再生ステップにおいて再生された第1の演奏に重ねて行われる、楽譜に関連する第2の演奏を複数の端末で取得し、ネットワークを介して送信する演奏取得ステップと、演奏取得ステップにおいて送信された複数の第2の演奏を、再生された第1の演奏とともに出力する出力ステップとを備えているので、記録された再生に合わせて演奏された音声を合成したり、動画を並べて表示したりすることにより、ネットワーク遅延の影響を極力減少させてリアルな体感を得られる遠隔地の演奏者間でのオンラインアンサンブルを支援することができる。 According to the present invention, the score transmission step of transmitting the score to the terminal via the network and the data recording the first performance related to the score are reproduced from the designated position on the score displayed on the terminal. , The playback step of displaying the playback position on the score and the second performance related to the score, which is performed on top of the first performance played in the playback step, are acquired by multiple terminals and transmitted via the network. Since it includes a performance acquisition step to be performed and an output step to output a plurality of second performances transmitted in the performance acquisition step together with the reproduced first performance, the performance was performed in accordance with the recorded reproduction. By synthesizing audio and displaying videos side by side, it is possible to support an online ensemble between performers in remote locations where the effects of network delays can be reduced as much as possible to obtain a realistic experience.

本発明の一実施形態の全体のシステム構成図である。It is a whole system block diagram of one Embodiment of this invention. 本発明の各実施形態の原理を説明するための図である。It is a figure for demonstrating the principle of each embodiment of this invention. 本発明の一実施形態のサーバの機能ブロック図である。It is a functional block diagram of the server of one Embodiment of this invention. 本発明の一実施形態で楽譜上の小節とそれに対応する再生位置の関連付けを示す図である。It is a figure which shows the association of the measure on the musical score and the corresponding play | reproduction position in one Embodiment of this invention. 本発明の一実施形態の楽譜上の小節とそれに対応する再生位置の関連付けを取得する処理を示すフローチャートである。It is a flowchart which shows the process of acquiring the association between the bar on the musical score and the corresponding reproduction position of one Embodiment of this invention. 本発明の一実施形態の動画上の再生画像に対応する楽譜上の位置の表示を説明するための図である。It is a figure for demonstrating the display of the position on the musical score corresponding to the reproduced image on the moving image of one Embodiment of this invention. 本発明の別の実施形態の端末画面上への楽譜の表示を管理する処理を説明するための図である。It is a figure for demonstrating the process which manages the display of the musical score on the terminal screen of another embodiment of this invention. 本発明の一実施形態の録音された音声を再生させて支援する際の一連のサービスの流れを示す図である。It is a figure which shows the flow of a series of services at the time of reproducing and supporting the recorded voice of one Embodiment of this invention. 本発明の一実施形態の録画された動画を再生させて支援する際の一連のサービスの流れを示す図である。It is a figure which shows the flow of a series of services at the time of playing back and supporting the recorded moving image of one Embodiment of this invention. 本発明の一実施形態の記録データを再生させてオンラインアンサンブルを支援する処理を示すフローチャートである。It is a flowchart which shows the process which supports the online ensemble by reproducing the recorded data of one Embodiment of this invention. 本発明の別の実施形態の録音された音声を再生させて支援する際の一連のサービスの流れを示す図である。It is a figure which shows the flow of a series of services at the time of reproducing and supporting the recorded voice of another embodiment of this invention. 本発明の別の実施形態の録画された動画を再生させて支援する際の一連のサービスの流れを示す図である。It is a figure which shows the flow of a series of services at the time of playing back and supporting the recorded moving image of another embodiment of this invention. 本発明の別の実施形態の記録データを再生させてオンラインアンサンブルを支援する処理を示すフローチャートである。It is a flowchart which shows the process which supports the online ensemble by reproducing the recorded data of another embodiment of this invention.

以下、本発明の記録データ再生方法およびシステムについて図面を参照して実施形態を説明する。なお、異なる図面でも、同一の処理、構成を示すときは同一の符号を用いる。 Hereinafter, embodiments of the recorded data reproduction method and system of the present invention will be described with reference to the drawings. Even in different drawings, the same reference numerals are used to indicate the same processing and configuration.

本実施形態は、インターネットを介して電子楽譜を提供し、その後動画投稿サイトに投稿された楽曲の演奏動画を視聴する際に、動画再生の開始位置を指定したり、再生中の画像の演奏全体における位置を表示させたりするシステムにおいて、複数の演奏者がオンラインアンサンブルを実行する際の支援を行うものであり、以下の実施形態では楽譜、あるいは総譜を用いて行うが、これに限られず、演奏の進行を示す何らかの図面を端末に表示させることができれば、いずれの形態でも対応することができる。ここで、基本的に音声または動画をアップロードした演奏者の一部が演奏に用いている楽譜と関連づけて予めサーバに設定しておくことを前提として、以下実施形態の説明をするがこれに限られず、演奏されている楽曲と楽譜とがほぼ一致していれば本実施形態を実施することができる。例えば、何らかの事情で配信されている音声または動画を認識した者が、演奏されている楽曲に対応する楽譜と関連付けて予めサーバに設定してくこともでき、その他本技術分野で知られた方法により楽譜と音声/動画とを関連付けておくことができる。 In this embodiment, when providing an electronic score via the Internet and then viewing a performance video of a song posted on a video posting site, the start position of video playback can be specified, or the entire performance of the image being played can be specified. In a system that displays the position in the music, it assists a plurality of performers in executing an online ensemble. In the following embodiments, the score or the total score is used, but the performance is not limited to this. Any form can be supported as long as some drawing showing the progress of the above can be displayed on the terminal. Here, basically, the following embodiment will be described on the premise that some of the performers who uploaded the audio or video are associated with the score used for the performance and set in the server in advance. This embodiment can be implemented as long as the music being played and the score are almost the same. For example, a person who recognizes the audio or video distributed for some reason can set it in the server in advance in association with the score corresponding to the music being played, or by other methods known in the present technical field. You can associate the score with the audio / video.

また、以下の各実施形態ではこのように、予め行われた演奏を録音または録画して得られた音声または動画は、本願発明の「演奏を記録したデータ」に含まれ、ネットワークを介して音声や動画を再生して支援される合唱または合奏は、本願発明の「オンラインアンサンブル」に含まれるが、これに限られず人間が自分自身や何らかのツールを用いて複数でタイミングを合わせて実行されるすべてのパフォーマンスが含まれる。 Further, in each of the following embodiments, the sound or the moving image obtained by recording or recording the performance performed in advance is included in the "data recording the performance" of the present invention, and the sound is voiced via the network. Choruses or ensemble that are supported by playing or playing a video are included in the "online ensemble" of the present invention, but are not limited to all that human beings perform in multiple timed manner using themselves or some tool. Performance is included.

本願発明のオンラインアンサンブル支援システムは、複数の遠隔地の演奏者による合奏や合唱を支援するものであるが、図2に示すように基本的に合唱や合奏のペースを生成する共通の音声データや動画データを各演奏者201~203に音声/動画配信サーバ104が配信し、また、各演奏者の楽譜を楽譜提供サーバ101が各演奏者の端末に配信してそれを参照することにより、各演奏者による演奏タイミングのあった合唱や合奏を、例えば端末114で出力させて実現することができる。ここで、各演奏者の端末のネットワーク環境に大きな相違がない場合、すなわち各端末とサーバとの間の通信遅延に大きな差異がない場合は、各端末にサーバ104から音声や動画を配信する時間および各端末から演奏を記録したデータをアップロードする時間の差異が小さいので、サーバと端末間の通信時間は各端末とも同じであるものとして処理を行えばよい。具体的には、音声/動画配信サーバ104から各端末には同時にデータの配信を行って出力させ、これに合わせて各演奏者が演奏を行うことで、各演奏のタイミングを合わせることが可能になり、オンラインアンサンブルを実現することができる(第1実施形態)。一方、各端末でネットワーク環境が異なり、通信遅延が異なる場合は、端末ごとに通信遅延を調整して配信タイミングを合わせることも可能であるが、演奏開始毎のネットワーク遅延が変化すると調整が困難となる。そこで、本件では、端末ごとの遅延時間をあらかじめ取得して、その遅延時間以上の時差を定め、各演奏者の演奏開始時刻に時差を設けることにより、各端末の通信遅延に影響を受けることなく各演奏者はタイミングを合わせて演奏することができる(第2実施形態)。 The online ensemble support system of the present invention supports ensemble and chorus by performers in a plurality of remote locations, but as shown in FIG. 2, basically common audio data that generates chorus and ensemble pace. The audio / video distribution server 104 distributes the moving image data to each performer 201 to 203, and the score providing server 101 distributes the score of each performer to each performer's terminal and refers to it. It is possible to output a chorus or ensemble with a performance timing by the performer, for example, on the terminal 114. Here, if there is no big difference in the network environment of each performer's terminal, that is, if there is no big difference in the communication delay between each terminal and the server, it is time to deliver the voice or video from the server 104 to each terminal. And since the difference in the time for uploading the recorded data from each terminal is small, the communication time between the server and the terminal may be the same for each terminal. Specifically, the audio / video distribution server 104 distributes data to each terminal at the same time and outputs it, and each performer plays in accordance with this, so that the timing of each performance can be adjusted. Therefore, an online ensemble can be realized (first embodiment). On the other hand, if the network environment is different for each terminal and the communication delay is different, it is possible to adjust the communication delay for each terminal to match the distribution timing, but it is difficult to adjust if the network delay changes each time the performance starts. Become. Therefore, in this case, by acquiring the delay time for each terminal in advance, determining the time difference equal to or longer than the delay time, and setting the time difference at the performance start time of each performer, the communication delay of each terminal is not affected. Each performer can perform at the same timing (second embodiment).

以上のように各実施形態では、音声/動画配信サーバ104がデータを再生するタイミングは異なるが、以下に詳述する演奏位置や時刻を指定しての音声や動画の配信技術により各演奏者は遠隔地に居ながらにしてオンラインで演奏タイミングを合わせ、合唱または合奏を特別なスキルなく実施することができる。すなわち、以下の各実施形態で用いられる各端末は、楽譜提供サーバ101から配信される楽譜を表示するとともに、合唱や合奏のペースを生成する、提供された楽譜を演奏した音声や動画を再生することができるので、各演奏者は、各端末で同時に再生された音声や動画でタイミングを合わせることができる。さらに、現に再生されている演奏箇所を楽譜上にハイライト表示するので、各演奏者は楽譜上のハイライトを目で追って演奏することによって、より正確に各パートの演奏のタイミングを合致させることができる。このようにして各演奏者により演奏され配信された音声や動画を端末114でまとめて出力することにより、まるで実際に各演奏者が集まって演奏を行っているような合奏や合唱を体験することができる。 As described above, in each embodiment, the timing at which the audio / video distribution server 104 reproduces the data is different, but each performer can use the audio / video distribution technique for specifying the performance position and time described in detail below. You can perform choruses or ensemble without special skills by adjusting the performance timing online while you are in a remote location. That is, each terminal used in each of the following embodiments displays the score distributed from the score providing server 101, and reproduces the voice or video of playing the provided score, which generates the pace of chorus or ensemble. Therefore, each performer can adjust the timing with the voice and the moving image simultaneously played on each terminal. In addition, since the currently played performance part is highlighted on the score, each performer can more accurately match the performance timing of each part by following the highlights on the score with their eyes. Can be done. By collectively outputting the audio and video played and distributed by each performer on the terminal 114 in this way, it is possible to experience an ensemble or chorus as if each performer were actually gathering and performing. Can be done.

なお、動画サイトに投稿するのは楽譜の提供を受けたユーザ自身でなくてもよく、楽譜の提供を受けたユーザが投稿サイトで入手した楽譜の楽曲の演奏動画を探索して得た動画等であってもよい。すなわち、クラシック音楽も含め、ある楽曲の楽譜が公開されている場合は、その楽曲を演奏した動画等もいずれかの演奏家により撮影され、投稿されることが多く、実際同じ楽曲でも複数の動画が存在することは少なくない。したがって、電子楽譜の提供を受けたユーザ自身が動画を投稿しなくても、ユーザがネット検索等すれば容易にそのような動画を発見し、その動画のURLなどを取得することができるので、そのようなURLを指定することにより、サーバはユーザに提供した楽譜の演奏動画にアクセスすることができる。音声データについても同様である。 In addition, it is not necessary for the user who received the score to post to the video site, and the video obtained by searching the performance video of the music of the score obtained by the user who received the score on the posting site, etc. May be. In other words, when the score of a certain song, including classical music, is published, the video that played that song is often shot and posted by one of the performers, and in fact, the same song has multiple videos. Is often present. Therefore, even if the user who received the electronic score does not post the video, the user can easily find such a video and obtain the URL of the video by searching the Internet or the like. By specifying such a URL, the server can access the performance video of the score provided to the user. The same applies to voice data.

また、本実施形態で用いる電子楽譜の楽譜データは、MusicXMLであり、サーバ内では基本的にはMusicXMLのデータフォーマットで保持している。MusicXMLで記述された楽譜はそのまま端末に送信してブラウザで表示させることもできるし、サーバで他の表示用のフォーマット、例えばPDFに変換して端末に送信し端末のブラウザで表示させることもできる。以上のように、本実施形態の楽譜データはMusicXMLを用いるが、これに限られず、何らかの変換や処理を行って、表示用の楽譜を生成できるものであればいずれのフォーマットも用いることができる。 Further, the musical score data of the electronic musical score used in this embodiment is MusicXML, and is basically stored in the MusicXML data format in the server. The score written in MusicXML can be sent to the terminal as it is and displayed on the browser, or it can be converted to another display format on the server, for example PDF, and sent to the terminal for display on the browser of the terminal. .. As described above, MusicXML is used for the score data of the present embodiment, but the present invention is not limited to this, and any format can be used as long as it can generate a score for display by performing some conversion or processing.

(システム構成)
本発明の一実施形態で用いる楽譜提供方法の具体的なシステムの動作及び処理を以下に説明する。図1は、本発明の一実施形態の全体のシステム構成図である。本システムでは、楽譜データを配信したり、演奏箇所を表示したりするなど、システム全体を制御するためのサーバとして、楽譜提供サーバ101、通信サーバ102および音声/動画配信サーバ104を備えており、ネットワーク103を介して接続されている。楽譜および動画を表示し、あるいは音楽ファイルを再生する装置である端末111は、基本的に無線でネットワーク103に接続されており、例えばタブレット端末とすることができ、本実施形態でネットワーク103との接続は、携帯電話の回線や、Wi-fi、BLUETOOTH(登録商標)等の無線ネットワークにより行う。ここで端末111~114はタブレット端末のほか、スマートフォン、あるいはモバイルパソコン等とすることができるが、基本的に楽譜データ等をサーバから受信して画像を表示、動画ファイルまたは音楽ファイルを再生、およびタッチパネル、マウスまたはキーボードで一定の入力操作をすることができれば、モバイルあるいはデスクトップのパソコン、専用端末などいずれの装置を用いることができる。また、端末111~114は、楽譜の表示、動画等の再生に限らず、ユーザの楽譜提供サーバへのアクセスに関する種々の処理を実行し、データの入出力をするために使用することができる。
(System configuration)
The operation and processing of a specific system of the score providing method used in one embodiment of the present invention will be described below. FIG. 1 is an overall system configuration diagram of an embodiment of the present invention. This system includes a score providing server 101, a communication server 102, and an audio / video distribution server 104 as servers for controlling the entire system, such as distributing score data and displaying performance points. It is connected via the network 103. The terminal 111, which is a device for displaying music scores and moving images or playing music files, is basically wirelessly connected to the network 103, and can be, for example, a tablet terminal. In the present embodiment, the terminal 111 is connected to the network 103. The connection is made by a mobile phone line or a wireless network such as Wi-fi or BLUETOOTH (registered trademark). Here, the terminals 111 to 114 can be a tablet terminal, a smartphone, a mobile personal computer, or the like, but basically, the score data or the like is received from the server to display an image, play a video file or a music file, and the like. Any device such as a mobile or desktop personal computer or a dedicated terminal can be used as long as a certain input operation can be performed with a touch panel, a mouse or a keyboard. Further, the terminals 111 to 114 can be used not only for displaying the score and playing the moving image, but also for executing various processes related to access to the user's score providing server and inputting / outputting data.

また、本実施形態のサーバとしては、楽譜提供サーバ101、通信サーバ102および音声/動画配信サーバ104の3つのサーバを備え、端末111~114から楽譜等の画像の表示や再生開始などの指示を楽譜提供サーバ101に送信すると、楽譜提供サーバ101は楽譜のデータを送信したり、指定された再生位置の動画上の位置を算出して通信サーバ102に動画の再生を指示したりし、その結果、音声/動画配信サーバ104は端末111~114に指示された動画を送信して表示させるが、これに限られず、楽譜提供サーバ101により指示の受信から音声/動画配信サーバ104への画像データの送信の指示までするようにすることもでき、あるいはさらに多くのサーバに機能分担させることもできる。 Further, as the server of the present embodiment, three servers of a score providing server 101, a communication server 102, and an audio / video distribution server 104 are provided, and instructions such as displaying an image such as a score and starting playback are given from terminals 111 to 114. When transmitted to the score providing server 101, the score providing server 101 transmits score data, calculates the position of the specified playback position on the video, and instructs the communication server 102 to play the video, and as a result. , The audio / video distribution server 104 transmits and displays the video instructed to the terminals 111 to 114, but the present invention is not limited to this, and the image data of the image data from the reception of the instruction by the score providing server 101 to the audio / video distribution server 104. It is possible to give instructions for transmission, or it is possible to divide the functions among more servers.

ここで、音声/動画配信サーバ104は、例えば動画の投稿サイト等とすることもできるし、単に動画を配信しているサイトのサーバであってもよい。さらに、本実施形態では動画配信サーバとして記載するが、楽譜に基づいて演奏した音楽を聴取できればいいので、画像を伴わない何らかのコンテンツ配信サーバとして、音声のみを配信することができるものであってもよい。この場合、以下の本実施形態のすべての説明は、動画のない音楽を配信するコンテンツ配信サーバにも適用されるのは言うまでもない。 Here, the audio / video distribution server 104 may be, for example, a video posting site or the like, or may simply be a server of a site that distributes video. Further, although described as a video distribution server in the present embodiment, it is sufficient that the music played based on the score can be listened to, so even if it is a content distribution server that does not accompany an image and can distribute only audio. good. In this case, it goes without saying that all the following description of the present embodiment also applies to the content distribution server that distributes music without moving images.

本実施形態では、端末111~114のいずれかから動画の再生指示を送信すると、端末111~114に指定した開始位置から再生を開始する動画データが送信され、楽譜表示とともに音声/動画を再生することができる。本実施形態では、端末111~114の表示画面において楽譜の画像と動画または音声の進行を示すタイムバーなどとを所定の位置に配置しているが、これに限られることなく本技術分野で知られたいずれかの方法で組み合わせて表示することもできる。具体的には、本実施形態では、端末111~114の画像を上下に分割して表示しているが、左右に分割して表示させることもできるし、一部重ねて表示させるなど、ユーザが使い勝手のいいように表示させることができる。もちろん、この場合でも楽譜の表示や動画再生の指示等は本実施形態のサーバ等により処理され、動画は動画配信サーバから配信される。一方、別途、動画再生端末を用意して端末111~114には楽譜のみを表示するようにし、異なる複数の端末で実現することもできる。 In the present embodiment, when a video playback instruction is transmitted from any of the terminals 111 to 114, video data for starting playback from the start position designated for the terminals 111 to 114 is transmitted, and the audio / video is played together with the score display. be able to. In the present embodiment, the image of the musical score and the time bar indicating the progress of the moving image or the sound are arranged at predetermined positions on the display screens of the terminals 111 to 114, but the present invention is not limited to this. It can also be displayed in combination by any of the above methods. Specifically, in the present embodiment, the images of the terminals 111 to 114 are divided into upper and lower parts and displayed, but the user can also display the images by dividing them into left and right parts or partially overlapping them. It can be displayed for ease of use. Of course, even in this case, the display of the score, the instruction for playing the moving image, and the like are processed by the server or the like of the present embodiment, and the moving image is distributed from the moving image distribution server. On the other hand, it is also possible to separately prepare a moving image playback terminal so that only the score is displayed on the terminals 111 to 114, and this can be realized by a plurality of different terminals.

(楽譜の提供と動画再生処理)
図3は、本発明の一実施形態のサーバの機能ブロック図であり、図4は、本実施形態で楽譜上の小節とそれに対応する再生位置の関連付けを示す図である。楽譜提供サーバ101は、図示しないサーバ等から楽譜データを受信して記憶し、管理する楽譜データ管理モジュール301、受信した楽譜データに必要な処理を行って端末に送信するほか、端末から再生開始位置の指定を受信すると、動画上のどの位置かを算出したり、現在再生されている画像の動画全体における位置を、通信サーバ102から受信して端末に表示された楽譜のどこに対応するかを算出し、ハイライトを出力するようにしたりする楽譜データ送信モジュール302、並びに小節時間変換表など、本実施形態で用いる種々の電子楽譜関連データを受信する楽譜関連データ受信モジュール303を備える。また、通信サーバ102は、端末111で表示されている楽譜を演奏する動画のURL等のデータを管理する動画管理モジュール304、動画識別情報を受信すると動画データを取得してくる動画・識別情報取得モジュール305、楽譜提供サーバ101から動画の開始位置の指定を受信すると、音声/動画管理モジュール304で管理されている音声/動画データに基づいて音声/動画配信サーバ104に再生開始位置を指定して再生を指示する開始位置指定モジュール306、音声/動画配信サーバ104から受信した現在の再生時間を楽譜提供サーバ101に出力する再生時間出力モジュール307、および取得した動画と電子楽譜との対応付けに基づいて小節時間変換表を作成する小節時間変換表作成モジュール308を備える。
(Providing sheet music and video playback processing)
FIG. 3 is a functional block diagram of a server according to an embodiment of the present invention, and FIG. 4 is a diagram showing an association between a bar on a musical score and a corresponding reproduction position in the present embodiment. The score providing server 101 receives score data from a server (not shown) or the like, stores the score data, manages the score data management module 301, performs necessary processing on the received score data, and transmits the received score data to the terminal. When the designation of is received, the position on the video is calculated, and the position of the currently played image in the entire video is calculated from the communication server 102 and the position of the score displayed on the terminal is calculated. It also includes a score data transmission module 302 that outputs highlights, and a score-related data reception module 303 that receives various electronic score-related data used in the present embodiment, such as a bar time conversion table. Further, the communication server 102 is a video management module 304 that manages data such as a URL of a video that plays a musical score displayed on the terminal 111, and a video / identification information acquisition that acquires video data when receiving video identification information. Upon receiving the designation of the video start position from the module 305 and the score providing server 101, the playback start position is specified to the audio / video distribution server 104 based on the audio / video data managed by the audio / video management module 304. Based on the start position designation module 306 that instructs playback, the playback time output module 307 that outputs the current playback time received from the audio / video distribution server 104 to the score providing server 101, and the correspondence between the acquired video and the electronic score. It is provided with a measure time conversion table creation module 308 that creates a measure time conversion table.

以下に、図3~図5を参照して本発明の一実施形態の電子楽譜の提供から動画再生サービスのための準備処理を説明する。一般に、電子楽譜の楽譜データ、例えばMusicXMLフォーマットのデータでは、各小節ごとに音符データが規定されており、端末では楽譜データを受信すると、ブラウザ上で五線譜を表示して、各小節の音符データに基づいて楽譜を描画していく。したがって、楽譜データを表示しているブラウザ上で指でタッチ、あるいはマウスでクリックする等により、ある小節が指定されるとそれが第何小節かを認識することができる。本実施形態では、このように楽譜データに基づいて端末のブラウザ上に楽譜を表示し、その表示された楽譜上の所定の小節を指定することにより、動画の再生開始位置を指定して動画再生の指示を楽譜提供サーバ101に送信する。楽譜提供サーバ101では、指定された小節から動画の再生位置、本実施形態では動画の最初からの再生時間を算出して配信サーバ102に動画の再生を指示する。 Hereinafter, the preparation process for the moving image reproduction service from the provision of the electronic musical score according to the embodiment of the present invention will be described with reference to FIGS. 3 to 5. In general, musical score data of electronic musical scores, for example, MusicXML format data, specify note data for each bar, and when the terminal receives the musical score data, a staff notation is displayed on the browser and the note data of each bar is displayed. Draw the score based on it. Therefore, when a certain measure is specified by touching it with a finger or clicking it with a mouse on the browser displaying the score data, it is possible to recognize which measure it is. In the present embodiment, the score is displayed on the browser of the terminal based on the score data in this way, and by designating a predetermined measure on the displayed score, the playback start position of the moving image is specified and the moving image is played. Is transmitted to the score providing server 101. The score providing server 101 calculates the playback position of the moving image from the designated measure, and in the present embodiment, calculates the playing time from the beginning of the moving image, and instructs the distribution server 102 to play the moving image.

また、プラグイン等がないため、楽譜データを端末でそのまま表示できない場合、楽譜提供サーバ101から画像データ、例えばPDF形式のデータとして送信し、ブラウザで表示することもできる(図示せず)。このような楽譜提供サーバ101において実行される楽譜データからPDFの楽譜データを生成し、PDFデータに基づいて動画再生開始処理を行う点については本技術分野で知られたいずれの手法も用いることができる。 Further, when the score data cannot be displayed as it is on the terminal because there is no plug-in or the like, the score data can be transmitted as image data, for example, PDF format data from the score providing server 101 and displayed on the browser (not shown). Any method known in the art can be used for generating PDF score data from the score data executed on the score providing server 101 and performing the moving image playback start processing based on the PDF data. can.

以上のような本実施形態の動画再生サービスを提供するため、先ずユーザに電子楽譜を提供し、最終的に指定された動画と楽譜との対応付け、具体的には図4に示すような小節時間変換表などを作成しておく必要がある。この処理を図5に示すフローチャートを参照して説明する。 In order to provide the moving image reproduction service of the present embodiment as described above, the electronic musical score is first provided to the user, and finally the correspondence between the specified moving image and the musical score, specifically, the measure as shown in FIG. It is necessary to create a time conversion table and so on. This process will be described with reference to the flowchart shown in FIG.

(小節時間変換表の作成)
図5は、本発明の一実施形態の楽譜上の小節とそれに対応する再生位置の関連付けを取得する処理を示すフローチャートである。本実施形態では、電子楽譜を提供する処理から始まり、ユーザに楽譜に関連する総合的なサービスを提供するが、まず、ユーザが図示しない端末の電子楽譜の購入画面、あるいは要求画面から所望の電子楽譜を特定することによって指示すると、楽譜提供サーバ101は楽譜を送信する(ステップ501)。その後、ユーザ203は入手した楽譜を図示しない端末に表示させ、あるいはプリンタで印字し、表示あるいは印字された楽譜を使用して演奏を行い、練習や本番等の演奏の様子をビデオカメラ等で撮影し、あるいはマイクで音声を収録し(ステップ502)、撮影された音声/動画を音声/動画配信サーバ104にアップロードし、その音声/動画IDを受信する(ステップ503)。ここで、音声/動画IDは動画をネット上で特定するための識別情報であり、例えば投稿サイト等では動画が格納されたURLであるが、これに限らずいずれかの識別情報を用いることができる。
(Creation of measure time conversion table)
FIG. 5 is a flowchart showing a process of acquiring an association between a bar on a musical score and a corresponding reproduction position according to the embodiment of the present invention. In the present embodiment, the process of providing the electronic sheet music is started, and the user is provided with a comprehensive service related to the sheet music. When instructed by specifying the score, the score providing server 101 transmits the score (step 501). After that, the user 203 displays the obtained score on a terminal (not shown) or prints it with a printer, performs a performance using the displayed or printed score, and takes a picture of the performance such as practice or production with a video camera or the like. Alternatively, the audio is recorded with a microphone (step 502), the captured audio / video is uploaded to the audio / video distribution server 104, and the audio / video ID is received (step 503). Here, the audio / video ID is identification information for identifying the video on the Internet, and is, for example, a URL in which the video is stored on a posting site or the like, but the identification information may be used without limitation. can.

ユーザは音声/動画IDを取得すると、通信サーバ102に、提供された電子楽譜との何らかの対応付けを本技術分野で知られたいずれかの方法で行って送信する(ステップ504)。通信サーバ102は、動画・識別情報取得モジュール305により、提供された電子楽譜を特定する情報も取得しておき、音声/動画IDにより音声/動画のデータを取得するとともに、楽譜提供サーバ101から電子楽譜を取得する(ステップ505)。小節時間変換表作成モジュール308によって、取得した音声/動画および電子楽譜に基づいて、楽譜の小節と音声/動画の再生時間との対応付けを算出する(ステップ506)。 When the user acquires the audio / video ID, the user performs some association with the provided electronic score to the communication server 102 by any method known in the present art and transmits the audio / video ID (step 504). The communication server 102 also acquires the information for identifying the provided electronic score by the moving image / identification information acquisition module 305, acquires the voice / video data by the voice / video ID, and electronically from the score providing server 101. Obtain the score (step 505). The measure time conversion table creation module 308 calculates the correspondence between the measures of the score and the playback time of the audio / video based on the acquired audio / video and electronic score (step 506).

本実施形態では、図4に示すような小節時間変換表401により、音声/動画の再生時間411と楽譜の小節番号421とを対応付けておき、小節時間変換表401を参照することにより例えば小節番号(4)(第4小節)は音声/動画の再生時間t4に対応すると判定できるから、これにより再生時間t4を算出することができる。つまり、小節時間変換表作成モジュール308は、楽譜の小節と音声/動画の再生時間とを対応付けて小節時間変換表401を作成する。ここで、小節時間変換表401は、本実施形態で知られたいずれかの方法で自動検出し、あるいは人的サポートにより作成することができる。このようにして作成した小節時間変換表401を、本実施形態の動画再生サービスのために楽譜提供サーバ101に送信する(ステップ507)。 In the present embodiment, the audio / video playback time 411 and the measure number 421 of the score are associated with each other by the measure time conversion table 401 as shown in FIG. 4, and the measure time conversion table 401 is referred to, for example. Since it can be determined that the number (4) (measure 4) corresponds to the audio / moving image reproduction time t4, the reproduction time t4 can be calculated from this. That is, the measure time conversion table creation module 308 creates the measure time conversion table 401 by associating the measures of the score with the playback time of the audio / moving image. Here, the bar time conversion table 401 can be automatically detected by any of the methods known in the present embodiment, or can be created by human support. The measure time conversion table 401 created in this way is transmitted to the score providing server 101 for the moving image reproduction service of the present embodiment (step 507).

以上、本実施形態の楽譜提供方法により、ユーザの所望する電子楽譜を提供し、ユーザにより指示された音声/動画との対応付けを行った後、ユーザに対し、オンラインアンサンブル支援サービスを提供する。まず動画再生開始処理につき説明し、その後動画の再生位置を楽譜上にハイライト表示する処理を説明する。 As described above, according to the score providing method of the present embodiment, the electronic score desired by the user is provided, and after associating with the voice / moving image instructed by the user, the online ensemble support service is provided to the user. First, the video playback start process will be described, and then the process of highlighting the video playback position on the score will be described.

(動画再生開始処理)
図6は、本実施形態の楽譜上での位置を指定する操作を示す図である。
(Video playback start processing)
FIG. 6 is a diagram showing an operation of designating a position on the score of the present embodiment.

本実施形態では、図6に示すように端末111に、楽譜データ送信モジュール302が、MusicXML形式のデータを送信してブラウザ上に表示して再生位置を指定させ、指定された小節をサーバに知らせることにより、サーバはその小節に対応する音声/動画の再生位置、本実施形態では再生時間を算出し、その位置から動画を再生するように通信サーバ102に指示する。通信サーバ102では端末に表示された楽譜の演奏動画を特定して、音声/動画配信サーバ104に、指示された再生時間を指定して音声/動画を配信するよう指示し、端末111において音声/動画が再生される。通常、MusicXMLは端末において、本技術分野で知られた専用の表示アプリや再生アプリを用いて取り扱われるので、ここでは詳細は記さないが、例えば楽譜が表示され、指でタッチあるいはマウスによりクリック等されると、その画面上の位置に相当する小節番号をサーバに送信するようなスクリプトなどを埋め込んでおいて、端末からサーバに小節番号を送信するようにすることもできるし、その他の本技術分野で知られたいずれかの方法でこのような処理を実行させることにより、端末側のソフトウェアを特に変更することなく、本実施形態を実施することができる。また、逆に端末側に小節番号をサーバに送信する等本実施形態で必要な処理を実行するソフトウェアを予めインストール、あるいはダウンロードする等により端末で実行可能にしておいて本実施形態を実施することもできる。 In the present embodiment, as shown in FIG. 6, the score data transmission module 302 transmits data in MusicXML format to the terminal 111, displays it on the browser to specify the playback position, and informs the server of the designated measure. As a result, the server calculates the playback position of the audio / moving image corresponding to the measure, and in the present embodiment, the playback time, and instructs the communication server 102 to play the moving image from that position. The communication server 102 identifies the performance video of the score displayed on the terminal, instructs the audio / video distribution server 104 to specify the instructed playback time and distributes the audio / video, and the terminal 111 outputs the audio / video. The video is played. Normally, MusicXML is handled on a terminal using a dedicated display application or playback application known in the present technology, so details are not described here, but for example, a score is displayed, and a touch with a finger or a click with a mouse, etc. Then, it is possible to embed a script or the like that sends the bar number corresponding to the position on the screen to the server so that the bar number is sent from the terminal to the server, or other present technology. By executing such a process by any method known in the field, the present embodiment can be implemented without particularly changing the software on the terminal side. On the contrary, the present embodiment is to be implemented by installing or downloading software for executing the necessary processing in the present embodiment such as sending the measure number to the server to the terminal in advance so that the software can be executed on the terminal. You can also.

具体的に説明すると、まず図6に示すように端末111に表示された楽譜605の最上段の第4小節602をユーザが指606でタッチして指定すると、端末111は音声/動画を再生開始する小節番号を取得する。小節番号が取得されると、端末111は、取得した小節番号、ここでは第4小節を楽譜提供サーバ101に送信して通知する(矢印603)。楽譜提供サーバ101は、取得した小節番号から対応する音声/動画の再生時間を算出する。 Specifically, first, as shown in FIG. 6, when the user touches and specifies the fourth bar 602 at the top of the score 605 displayed on the terminal 111 with the finger 606, the terminal 111 starts playing the audio / video. Get the bar number to do. When the measure number is acquired, the terminal 111 transmits the acquired measure number, here, the fourth measure, to the score providing server 101 to notify the score (arrow 603). The score providing server 101 calculates the playback time of the corresponding audio / moving image from the acquired bar number.

本実施形態では、上記で図4に示したように予め音声/動画の再生時間411と楽譜の小節番号421とを対応付けておき、小節時間変換表401を作成しておく。この小節時間変換表401を参照することにより再生時間を算出することができる。音声/動画の再生時間は音声/動画の最初の画像を基準とする再生経過時間の長さであり、その音声/動画の最後の音声/画像の再生時間は音声/動画全体の長さとなる。 In the present embodiment, as shown in FIG. 4 above, the audio / moving image reproduction time 411 and the measure number 421 of the score are associated with each other in advance, and the measure time conversion table 401 is created. The reproduction time can be calculated by referring to this measure time conversion table 401. The audio / video playback time is the length of the elapsed playback time based on the first image of the audio / video, and the playback time of the last audio / image of the audio / video is the length of the entire audio / video.

楽譜提供サーバ101は、小節番号から再生時間を取得すると、図6に示すように再生時間を通信サーバ102に通知して、音声/動画の再生を指示する。通信サーバ102では、音声/動画管理モジュール304が、楽譜提供サーバ101が管理する楽譜データと、その楽譜の楽曲を演奏した音声/動画とを対応付けて管理しており、楽譜提供サーバ101が楽譜および再生開始位置(例えば、再生時間t4)を指定して再生を指示すると、音声/動画管理モジュール304が対応する音声/動画を配信する音声/動画配信サーバ104を特定し、開始位置指定モジュール308が、図6の矢印604で示すように特定された音声/動画配信サーバ104に再生開始位置を指定して音声/動画の配信を指示する。音声/動画の配信を指示された音声/動画配信サーバ104は、指定された音声/動画を、指定された再生位置t4から端末111に対し、図6の矢印607で示すようにストリーミング配信する。一般に、音声/動画配信サーバにはその種類に応じてデータ取得、操作のためのインタフェースが設けられており、本実施形態では詳述しないが、本技術分野で知られたインタフェースを用いて再生位置を指定して再生を開始させる。 When the score providing server 101 acquires the reproduction time from the measure number, it notifies the communication server 102 of the reproduction time as shown in FIG. 6 and instructs the communication server 102 to reproduce the voice / moving image. In the communication server 102, the voice / video management module 304 manages the score data managed by the score providing server 101 in association with the voice / video of playing the music of the score, and the score providing server 101 manages the score. When playback is instructed by designating the playback start position (for example, playback time t4), the voice / video management module 304 identifies the voice / video distribution server 104 that distributes the corresponding voice / video, and the start position designation module 308. Directs the audio / video distribution to the audio / video distribution server 104 specified by the arrow 604 in FIG. 6 by designating the playback start position. The audio / video distribution server 104 instructed to distribute the audio / video distributes the designated audio / video from the designated playback position t4 to the terminal 111 as shown by the arrow 607 in FIG. Generally, the audio / video distribution server is provided with an interface for data acquisition and operation according to the type thereof, and although not described in detail in the present embodiment, the playback position is performed by using an interface known in the present technical field. To start playback.

(楽譜ハイライト表示処理)
以下に、図7を参照して本実施形態の楽譜ハイライト表示処理を説明する。上述の通り本実施形態では、MusicXMLフォーマットのデータを楽譜提供サーバ101で管理し、端末111に送信してブラウザ上で楽譜として表示する。この際、本実施形態では端末111で再生されている音声/動画の画像に対応する楽譜上の位置を端末111でハイライト表示する。これにより、音声/動画で現在演奏されている演奏の部分を楽譜の小節単位で知ることができるので、演奏の確認や練習に役立てることができる。
(Sheet music highlight display processing)
Hereinafter, the score highlight display process of the present embodiment will be described with reference to FIG. 7. As described above, in the present embodiment, the MusicXML format data is managed by the score providing server 101, transmitted to the terminal 111, and displayed as a score on the browser. At this time, in the present embodiment, the position on the score corresponding to the audio / moving image reproduced on the terminal 111 is highlighted on the terminal 111. As a result, it is possible to know the part of the performance currently being performed by voice / video in units of measures of the score, which can be useful for checking the performance and practicing.

より具体的に楽譜ハイライト表示処理を説明すると、先ず図7の矢印703で示すように音声/動画配信サーバ104からストリーミング配信して音声/動画が再生される。本実施形態では、投稿サイトのURLと、必要であれば再生時間とを投稿サイトのAPIを用いて設定し再生させる。このような状態において、通信サーバ102の再生時間出力モジュール309は図7の矢印702で示すように音声/動画配信サーバ104に再生時間を要求し、図7の矢印704で示すように取得する。一般に、音声/動画配信サーバにはその種類に応じてデータ取得、操作のためのインタフェースが設けられており、本実施形態では詳述しないが、本技術分野で知られたインタフェースを用いて現在の再生時間を取得する。 More specifically, the score highlight display process will be described. First, as shown by the arrow 703 in FIG. 7, the audio / video is played by streaming distribution from the audio / video distribution server 104. In this embodiment, the URL of the posting site and, if necessary, the playback time are set using the API of the posting site and played back. In such a state, the reproduction time output module 309 of the communication server 102 requests the reproduction time from the audio / video distribution server 104 as shown by the arrow 702 in FIG. 7, and acquires it as shown by the arrow 704 in FIG. Generally, the audio / video distribution server is provided with an interface for data acquisition and operation according to the type thereof, and although not described in detail in the present embodiment, the interface known in the present technical field is used at present. Get the playback time.

再生時間出力モジュール307は、再生時間を取得すると、楽譜提供サーバ101に再生時間を通知する。楽譜提供サーバ101は、通知された再生時間に基づき、図4に示す小節時間変換表401を用いて、対応する楽譜の位置として小節番号を取得する。図示しないが、本例で取得した再生時間tがt2以上t3未満とすると、小節時間変換表401により、第2小節に対応すると判定される。このように、取得した再生時間が小節時間変換表401の再生時間のどの時間間隔の範囲に含まれるかにより対応する小節番号を判定する。 When the reproduction time output module 307 acquires the reproduction time, the reproduction time output module 307 notifies the score providing server 101 of the reproduction time. The score providing server 101 acquires the bar number as the position of the corresponding score by using the bar time conversion table 401 shown in FIG. 4 based on the notified playback time. Although not shown, if the reproduction time t acquired in this example is t2 or more and less than t3, it is determined by the measure time conversion table 401 that it corresponds to the second measure. In this way, the corresponding bar number is determined depending on which time interval range of the playback time in the bar time conversion table 401 the acquired playback time is included.

小節番号が判定されると、楽譜提供サーバ101は、端末111に判定された小節番号の表示をハイライトにするように指示し、端末111は第2小節をハイライト表示とする。具体的な処理について、ハイライト表示の制御は本技術分野で知られたいずれの方法で行うこともでき、例えば楽譜提供サーバ101で、判定された小節番号の楽譜の表示をハイライトに変更して端末111に送信することによって、端末111のブラウザがこれを解釈し、ハイライト表示にするようにすることもできるし、サーバからハイライト表示への切り替え指示を受けると指定部分をハイライト表示に変えるようなスクリプトを予めデータに埋め込んでおくことにより、サーバから小節番号を指定してハイライト表示の指示を受信すると指定された小節をハイライト表示にすることもできるが、これに限られない。 When the bar number is determined, the score providing server 101 instructs the terminal 111 to highlight the determined bar number, and the terminal 111 highlights the second bar. Regarding the specific processing, the highlight display can be controlled by any method known in the present technology. For example, the score providing server 101 changes the display of the score of the determined bar number to highlight. By sending to the terminal 111, the browser of the terminal 111 can interpret this and display the highlight, or when the server receives an instruction to switch to the highlight display, the specified part is highlighted. By embedding a script that changes to not.

以上の処理により、現在再生されている音声/画像の演奏に対応する楽譜上の位置が小節単位で判定され、判定された小節がハイライト表示される。ここで、通信サーバ102は、上述の再生時間の取得を一定間隔で実行し、それ以降のハイライト表示処理までを行うことにより、音声/動画の再生にしたがって、対応する小節をハイライト表示させ、楽譜上を移動しているように表示することができる。一定間隔を各小節間の時間より十分に小さくすることにより、滑らかにハイライトを楽譜上で移動させるように表示ことができる。あるいは、一定間隔を用いなくても、本実施形態では図4に示すように各小節に対応する再生時間が予め記憶されているので、通知サーバ102は、各再生時間に実際にその再生時間にあるかを音声/動画配信サーバ104に確認して、ハイライトさせる小節を変更する処理を実行することができる。 By the above processing, the position on the score corresponding to the performance of the currently played voice / image is determined in bar units, and the determined bar is highlighted. Here, the communication server 102 performs the above-mentioned acquisition of the reproduction time at regular intervals and performs the highlight display processing after that, so that the corresponding measure is highlighted according to the reproduction of the audio / moving image. , Can be displayed as if moving on the score. By making the fixed interval sufficiently smaller than the time between each bar, the highlight can be displayed so as to move smoothly on the score. Alternatively, even if a fixed interval is not used, in the present embodiment, the reproduction time corresponding to each measure is stored in advance as shown in FIG. 4, so that the notification server 102 actually sets the reproduction time at each reproduction time. It is possible to confirm with the audio / video distribution server 104 whether or not there is, and execute a process of changing the bar to be highlighted.

なお、本実施形態では動画の再生位置をハイライトで示したが、これに限られず、何らかのマーカで示したり、その他その小節を他の小節と区別する何らかの方式で表示したりすることができる。 In the present embodiment, the playback position of the moving image is highlighted, but the present invention is not limited to this, and it can be indicated by some marker or displayed by some method for distinguishing the measure from other measures.

(第1実施形態)
本実施形態は、上述のように音声/動画配信サーバ104から配信される音声/動画を複数の端末上で同時に再生させ、各演奏者はその音声/動画に合わせて演奏を行い、それらの演奏をマイクやビデオカメラで記録し、そのデータを音声/動画配信サーバ104にアップロードするが、アップロードする先は、音声/動画配信サーバ104に限られず本技術分野で知られたいずれのサーバとすることもできる。図8および9を参照して、本実施形態の通信遅延が小さい場合の音声および動画を用いたオンラインアンサンブル支援処理について説明する。ここで、通信遅延とは、演奏者の音声/動画がストリーミングにより配信サーバにアップロードされてから演奏者の端末にストリーミング配信されるまでの時間遅れ(遅延)を指すが、本実施形態では、各端末の通信遅延に大きな差異がない場合の処理であり、本願発明の基本的な処理である。すなわち、本実施形態では通信遅延を特に考慮することなく、各端末の時刻はインターネット時刻設定により精度良く合っていることを前提とし、各演奏者の演奏開始時刻は全て同じ時刻とすることができる。
(First Embodiment)
In the present embodiment, as described above, the voice / video distributed from the voice / video distribution server 104 is simultaneously played on a plurality of terminals, and each performer plays according to the voice / video, and the performance thereof. Is recorded with a microphone or a video camera, and the data is uploaded to the audio / video distribution server 104. The upload destination is not limited to the audio / video distribution server 104, but any server known in the present technical field. You can also. With reference to FIGS. 8 and 9, an online ensemble support process using audio and video when the communication delay of the present embodiment is small will be described. Here, the communication delay refers to a time delay (delay) from when the performer's voice / video is uploaded to the distribution server by streaming to when it is streamed to the performer's terminal. This is a process when there is no big difference in the communication delay of the terminals, and is a basic process of the present invention. That is, in the present embodiment, it is assumed that the time of each terminal is accurately matched by the Internet time setting without considering the communication delay, and the performance start time of each performer can be set to the same time. ..

以下、図8~10を参照して本実施形態を説明する。図8は、本発明の一実施形態の録音された音声を再生させてオンラインアンサンブルを支援する際の一連のサービスの流れを示す図であり、図9は、本実施形態の録画された動画を再生させてオンラインアンサンブルを支援する際の一連のサービスの流れを示す図である。図10は、本実施形態の記録データを再生させてオンラインアンサンブルを支援する処理を示すフローチャートである。まず、各端末811~814または911~914に楽譜提供サーバ101から楽譜が配信され、演奏者の端末811~813または911~913のいずれかから演奏開始の小節番号、時刻を設定する(ステップ1001)。演奏者の端末811~813または911~913に設定する小節番号、時刻は同じ値とする。演奏開始時刻T1になると、楽譜のハイライト表示が始まり、各演奏者1~3は、それに合わせて演奏を開始する(ステップ1002)。ハイライト表示は、楽譜記載のテンポ、動画投稿サイト等にアップされている演奏者のテンポ、あるいは同じ演奏仲間で事前に演奏した時のテンポに基づいて実行することができる。 Hereinafter, the present embodiment will be described with reference to FIGS. 8 to 10. FIG. 8 is a diagram showing a flow of a series of services when playing back a recorded voice of one embodiment of the present invention to support an online ensemble, and FIG. 9 is a diagram showing a recorded moving image of the present embodiment. It is a figure which shows the flow of a series of services at the time of playing and supporting an online ensemble. FIG. 10 is a flowchart showing a process of reproducing the recorded data of the present embodiment to support an online ensemble. First, the score is distributed from the score providing server 101 to each terminal 811 to 814 or 911 to 914, and the bar number and time for starting the performance are set from any of the performer's terminals 811 to 813 or 911 to 913 (step 1001). ). The measure numbers and times set in the performer's terminals 811 to 813 or 911 to 913 are the same. At the performance start time T1, the highlighting of the score starts, and each performer 1 to 3 starts playing in accordance with the highlight display (step 1002). The highlight display can be executed based on the tempo described in the score, the tempo of the performer posted on the video posting site, or the tempo when the same performer plays in advance.

演奏を開始すると、各演奏者の演奏を記録するためのマイク801~803またはカメラ901~903により音声または動画を取得し、楽譜提供サーバ101から演奏開始が音声/動画配信サーバ104に伝えられると、取得された演奏データが音声/動画配信サーバ104にアップストリーミングされる(ステップ1003)。アップロードされた演奏の音声/動画は音声/動画配信サーバ104を経由して、各演奏者の端末811~813または911~913にストリーミング配信される(ステップ1004)。音声データの場合は端末811~813の図示しないスピーカ等で他の演奏者の演奏した音声が合成されて出力されるが、図8に示すように各音声についてタイムバーなどを表示して他の演奏者の演奏の進行を目に見えるように表示することもできる。一般的に、配信される他の演奏者の音声は通信遅延のため多かれ少なかれ自己の演奏とはタイミングがずれてくるため、他の演奏者の演奏のみ出力するが、これに限られず、自己の演奏を合成して出力することもできる。 When the performance is started, the voice or video is acquired by the microphones 801 to 803 or the cameras 901 to 903 for recording the performance of each performer, and the score providing server 101 notifies the voice / video distribution server 104 of the start of the performance. , The acquired performance data is upstreamed to the audio / video distribution server 104 (step 1003). The uploaded audio / video of the performance is streamed to the terminals 811 to 813 or 911 to 913 of each performer via the audio / video distribution server 104 (step 1004). In the case of voice data, the voices played by other performers are synthesized and output by a speaker or the like (not shown) of the terminals 811 to 813, but as shown in FIG. 8, a time bar or the like is displayed for each voice and other performances are performed. It is also possible to visually display the progress of the performer's performance. Generally, the voices of other performers to be delivered are more or less out of sync with their own performance due to communication delays, so only the performances of other performers are output, but not limited to this, their own performances. It is also possible to synthesize and output the performance.

また、動画の場合、端末911~913に示すように他の演奏者の演奏の動画が表示され、通信遅延が十分小さければほぼ同じタイミングで他の演奏者と合奏することができ、あたかも同じ場所で一緒に演奏をしているような体感を得ることができる。すなわち、演奏者1の端末である端末911には演奏者2および3の演奏の動画が表示され、演奏者2の端末である端末912には演奏者1および3の演奏の動画が表示され、演奏者3の端末である端末913には演奏者1および2の演奏の動画が表示される。もちろん、自己の演奏動画も合わせて表示することもできる。 Further, in the case of a moving image, a moving image of the performance of another performer is displayed as shown on the terminals 911 to 913, and if the communication delay is sufficiently small, the performance can be performed with the other performer at almost the same timing, as if the same place. You can get the feeling of playing together at. That is, the terminal 911, which is the terminal of the performer 1, displays the moving images of the performances of the performers 2 and 3, and the terminal 912, which is the terminal of the performer 2, displays the moving images of the performances of the performers 1 and 3. The terminal 913, which is the terminal of the performer 3, displays the moving images of the performances of the performers 1 and 2. Of course, you can also display your own performance video.

なお、ネットワーク遅延が小さくない場合は、端末の演奏者と他の演奏者の音声・動画が感知できる時間ズレとして発生する可能性があり、この場合、他演奏者の音声をミュートすることにより対処することが可能である。また、本実施形態では各演奏者の音声/動画を別々に同時配信しているが、これに限られず、音声/動画配信サーバ104で各演奏者の音声・動画をミックスし1つの音声・動画にして配信することもできる。各演奏者の端末への配信に加え、演奏しない視聴者向け端末814および914には各演奏者の音声・動画が音声/動画配信サーバ104より演奏開始時刻に合わせて同時配信するようにすることができる(ステップ1005)。このように、本実施形態の各演奏者による演奏は端末813および914で視聴すると、タイミングが合致しており、各演奏者が遠隔で演奏しているにもかかわらず、同一場所で演奏しているような体感を得ることができる。 If the network delay is not small, it may occur as a time lag between the player on the terminal and the voice / video of another performer. In this case, mute the voice of the other performer. It is possible to do. Further, in the present embodiment, the audio / video of each performer is simultaneously distributed separately, but the present invention is not limited to this, and the audio / video distribution server 104 mixes the audio / video of each performer into one audio / video. It can also be delivered as. In addition to distribution to each performer's terminal, the audio / video of each performer shall be simultaneously distributed from the audio / video distribution server 104 to the non-performing viewer terminals 814 and 914 according to the performance start time. Can be done (step 1005). As described above, when the performances by each performer of the present embodiment are viewed on the terminals 813 and 914, the timings match, and even though each performer is playing remotely, the performances are performed at the same place. You can get the feeling of being there.

(第2実施形態)
本実施形態は、上述の第1実施形態と異なり、各端末でネットワーク環境が悪く、通信遅延が異なる場合の処理が含むが、それ以外の処理は第1実施形態と基本的に同様である。すなわち、各端末とサーバとの間で通信遅延が異なる場合、端末ごとに配信タイミングが異なることから、通信遅延を調整する必要がある。このため、端末ごとの遅延時間をあらかじめ取得しておき、演奏開始に時差を設けることにより、各端末の通信遅延が相殺されようにしてタイミングを合わせた演奏とすることができる。具体的には、音声/動画配信サーバ104にアップロードされる音声/動画は、端末ごとに取得された通信遅延の時間に基づいて定められる時間だけ遅延するので、通信遅延が相殺されように各端末で演奏開始時間をずらすことでほぼ同時に音声/動画配信サーバ104にアップロードすることができる。各端末で演奏開始する時間は、通信遅延の最も大きい端末を基準にその端末との通信遅延の差異分だけ遅れて演奏開始することができる。また、システムの特性上差異分に一定の比率を乗じて得られた時間分だけ遅れて演奏開始することが有効な場合もあるが、その場合の比率は本技術分野で知られたいずれかの手法で決定することができる。
(Second Embodiment)
This embodiment is different from the first embodiment described above, and includes processing when the network environment is bad and the communication delay is different in each terminal, but the other processing is basically the same as that of the first embodiment. That is, when the communication delay is different between each terminal and the server, the delivery timing is different for each terminal, so it is necessary to adjust the communication delay. Therefore, by acquiring the delay time for each terminal in advance and providing a time difference at the start of the performance, it is possible to perform the performance in time so that the communication delay of each terminal is offset. Specifically, the audio / video uploaded to the audio / video distribution server 104 is delayed by a time determined based on the communication delay time acquired for each terminal, so that the communication delay is offset by each terminal. By shifting the performance start time with, it is possible to upload to the audio / video distribution server 104 almost at the same time. The time to start playing at each terminal can be delayed by the difference in communication delay with that terminal with reference to the terminal having the largest communication delay. Also, due to the characteristics of the system, it may be effective to start playing with a delay of the time obtained by multiplying the difference by a certain ratio, but in that case, the ratio is one of those known in the art. It can be determined by the method.

図11および12を参照して、本実施形態の通信遅延が端末により異なる場合の音声および動画を用いてオンラインアンサンブル支援処理について説明する。図11は、本発明の別の実施形態の録音された音声を再生させてオンラインアンサンブルを支援する際の一連のサービスの流れを示す図であり、図12は、本実施形態の録画された動画を再生させてオンラインアンサンブルを支援する際の一連のサービスの流れを示す図である。図13は、本実施形態の記録データを再生させてオンラインアンサンブルを支援する処理を示すフローチャートである。まず、各端末811~814または911~914に楽譜提供サーバ101から楽譜が配信され、端末811~813または911~913のいずれかから演奏開始の小節番号、時刻を設定する(ステップ1301)。図11および12に示す例では、端末811または911の通信遅延の端末813または913との差異が6秒、端末812または912の通信遅延の端末813または913との差異が3秒とするが、具体的にはより小さい遅延やより大きい遅延を設定できることは言うまでもない。通信遅延は、本技術分野で知られたいずれかの方法で事前に測定しておいて用いることもできるし、各端末毎に自動測定して、通信遅延を考慮して端末812~813または912~913の演奏開始時刻T2およびT3を自動設定することもできる。 With reference to FIGS. 11 and 12, an online ensemble support process will be described using audio and moving images when the communication delay of the present embodiment differs depending on the terminal. FIG. 11 is a diagram showing a flow of a series of services when playing back a recorded voice of another embodiment of the present invention to support an online ensemble, and FIG. 12 is a diagram showing a recorded moving image of the present embodiment. It is a figure which shows the flow of a series of services when supporting an online ensemble by playing back. FIG. 13 is a flowchart showing a process of reproducing the recorded data of the present embodiment to support an online ensemble. First, the score is distributed from the score providing server 101 to each terminal 811 to 814 or 911 to 914, and the bar number and time of the performance start are set from any of the terminals 811 to 813 or 911 to 913 (step 1301). In the example shown in FIGS. 11 and 12, the difference between the communication delay of the terminal 811 or 911 and the terminal 813 or 913 is 6 seconds, and the difference between the communication delay of the terminal 812 or 912 and the terminal 813 or 913 is 3 seconds. Needless to say, it is possible to set a smaller delay or a larger delay. The communication delay can be measured in advance by any method known in the art and used, or it is automatically measured for each terminal and the terminals 812 to 813 or 912 in consideration of the communication delay. It is also possible to automatically set the performance start times T2 and T3 of ~ 913.

端末811または911の演奏開始時刻T1になると、楽譜のハイライト表示が始まり、演奏者1は、それに合わせて演奏し、演奏音声・動画が音声/動画配信サーバ104にアップストリーミングされる(ステップ1302)。演奏を開始すると、各演奏者の演奏を記録するためのマイク801またはカメラ901により音声または動画を取得し、楽譜提供サーバ101から演奏開始が音声/動画配信サーバ104に伝えられ、取得された演奏データが音声/動画配信サーバ104にアップストリーミングされる。 At the performance start time T1 of the terminal 811 or 911, the highlight display of the score starts, the performer 1 plays in accordance with the performance start time, and the performance voice / video is uploaded to the voice / video distribution server 104 (step 1302). ). When the performance is started, the voice or video is acquired by the microphone 801 or the camera 901 for recording the performance of each performer, and the music score providing server 101 notifies the voice / video distribution server 104 of the start of the performance, and the acquired performance is performed. The data is upstreamed to the audio / video distribution server 104.

次に、端末812または912の演奏開始時刻T2(すなわち端末811または911の演奏開始から3秒後)になると、楽譜のハイライト表示が始まり、演奏者2は、それに合わせて演奏し、演奏音声・動画が音声/動画配信サーバ104にアップストリーミングされる(ステップ1303)。演奏を開始すると、各演奏者の演奏を記録するためのマイク802またはカメラ902により音声または動画を取得し、楽譜提供サーバ101から演奏開始が音声/動画配信サーバ104に伝えられ、取得された演奏データが音声/動画配信サーバ104にアップストリーミングされる。ここで、演奏者1の音声・動画は、端末812および912のハイライト表示と同期しているので、それを頼りに演奏するようにすることもできる。 Next, at the performance start time T2 of the terminal 812 or 912 (that is, 3 seconds after the start of the performance of the terminal 811 or 911), the highlighting of the score starts, and the performer 2 plays in accordance with the performance voice. -The video is upstreamed to the audio / video distribution server 104 (step 1303). When the performance is started, the voice or video is acquired by the microphone 802 or the camera 902 for recording the performance of each performer, and the music score providing server 101 notifies the voice / video distribution server 104 of the start of the performance, and the acquired performance is performed. The data is upstreamed to the audio / video distribution server 104. Here, since the audio / video of the performer 1 is synchronized with the highlight display of the terminals 812 and 912, it is possible to rely on it for the performance.

さらに、端末813または913の演奏開始時刻T3(すなわち端末811または911の演奏開始から6秒後)になると、楽譜のハイライト表示が始まり、演奏者3は、それに合わせて演奏し、演奏音声・動画が音声/動画配信サーバ104にアップストリーミングされる(ステップ1304)。演奏を開始すると、各演奏者の演奏を記録するためのマイク803またはカメラ903により音声または動画を取得し、楽譜提供サーバ101から演奏開始が音声/動画配信サーバ104に伝えられ、取得された演奏データが音声/動画配信サーバ104にアップストリーミングされる。ここで、演奏者1および2の音声・動画は、端末813および913のハイライト表示と同期しているので、それを頼りに演奏しても良い
アップロードされた演奏音声・動画は音声/動画配信サーバ104を経由して、演奏しない視聴者向け端末814および914には各演奏者の音声・動画が音声/動画配信サーバ104より最後の演奏者(演奏者3)の演奏開始時刻に合わせて同時配信される(ステップ1305)。このように、各端末でネットワーク環境が異なる場合でも、本実施形態の各演奏者による演奏は端末814および914で視聴すると、タイミングが合致しており、各演奏者が遠隔で演奏しているにもかかわらず、同一場所で演奏しているような体感を得ることができる。
Further, at the performance start time T3 of the terminal 813 or 913 (that is, 6 seconds after the start of the performance of the terminal 811 or 911), the highlight display of the musical score starts, and the performer 3 plays in accordance with the performance voice. The video is upstreamed to the audio / video distribution server 104 (step 1304). When the performance is started, the voice or video is acquired by the microphone 803 or the camera 903 for recording the performance of each performer, and the music score providing server 101 notifies the voice / video distribution server 104 of the start of the performance, and the acquired performance is performed. The data is upstreamed to the audio / video distribution server 104. Here, since the audio / video of the performers 1 and 2 is synchronized with the highlight display of the terminals 813 and 913, the uploaded performance audio / video may be played by relying on it. The audio / video of each performer is simultaneously transmitted from the audio / video distribution server 104 to the viewer terminals 814 and 914 that do not perform via the server 104 according to the performance start time of the last performer (performer 3). Delivered (step 1305). In this way, even if the network environment is different for each terminal, when the performance by each performer of the present embodiment is viewed on the terminals 814 and 914, the timing is matched and each performer is playing remotely. Nevertheless, you can get the feeling of playing in the same place.

(その他の態様)
本発明には、特許請求の範囲に記載したものに加え以下のような範囲も含まれる。
(Other aspects)
The present invention includes the following scope in addition to those described in the claims.

態様1
ネットワークを介して、オンラインアンサンブルを支援する記録データ再生システムであって、
ネットワークを介して端末に楽譜を送信する楽譜送信手段と、
前記楽譜に関連する第1の演奏を記録したデータを、前記端末に表示された前記楽譜上の指定された位置から再生する再生手段と、
前記再生手段において再生された第1の演奏に重ねて行われる、前記楽譜に関連する第2の演奏を複数の端末で取得し、ネットワークを介して送信する演奏取得手段と、
前記演奏取得手段において送信された複数の第2の演奏を、前記再生された第1の演奏とともに出力する出力手段と
を備えることを特徴とする記録データ再生システム記録データ再生システム。
Aspect 1
A recorded data playback system that supports online ensembles via a network.
A musical score transmission means for transmitting musical scores to terminals via a network,
A reproduction means for reproducing the recorded data of the first performance related to the score from a designated position on the score displayed on the terminal, and a reproduction means.
A performance acquisition means for acquiring a second performance related to the score, which is performed on top of the first performance reproduced by the reproduction means, on a plurality of terminals and transmitting the second performance via a network.
A recording data reproduction system, which comprises an output means for outputting a plurality of second performances transmitted by the performance acquisition means together with the reproduced first performance.

態様2
前記端末から演奏の開始位置の指定を受信すると、当該指定された楽譜上の位置に対応する前記第1の演奏を記録したデータの再生時間を、前記楽譜と前記第1の演奏を記録したデータとから生成された対応付け情報に従って取得し、該取得した再生時間から前記第1の演奏を記録したデータの再生を行うために端末に送信する再生ステップをさらに備えることを特徴とする態様1に記載の記録データ再生方法。
Aspect 2
When the designation of the start position of the performance is received from the terminal, the playback time of the data recording the first performance corresponding to the designated position on the score is set, and the data recording the score and the first performance. The first aspect is characterized by further comprising a reproduction step of acquiring data according to the correspondence information generated from the above and transmitting the data to the terminal in order to reproduce the data recorded with the first performance from the acquired reproduction time. The recorded data reproduction method described.

態様3
前記再生ステップは、前記端末から前記楽譜に関連して演奏された前記第1の演奏を音楽提供サーバに送信し、前記第1の演奏を記録したデータの識別情報を受信する動画投稿ステップを含むことを特徴とする態様2に記載の記録データ再生方法。
Aspect 3
The reproduction step includes a moving image posting step of transmitting the first performance played in relation to the score from the terminal to a music providing server and receiving identification information of data recording the first performance. The recorded data reproduction method according to the second aspect.

態様4
前記端末から前記音楽提供サーバにアクセスして、前記楽譜に関連して演奏された前記第1の演奏を記録したデータを選択し、前記選択された第1の演奏を記録したデータの識別情報を受信する動画選択ステップをさらに備えることを特徴とする態様3に記載の記録データ再生方法。
Aspect 4
The music providing server is accessed from the terminal, the data recording the first performance played in connection with the score is selected, and the identification information of the data recording the selected first performance is used. The recorded data reproduction method according to aspect 3, further comprising a moving image selection step for receiving.

態様5
コンピュータに、ネットワークを介して、オンラインアンサンブルを支援する記録データ再生方法を実行させるプログラムであって、該記録データ再生方法は、
ネットワークを介して端末に楽譜を送信する楽譜送信ステップと、
前記楽譜に関連する第1の演奏を記録したデータを、前記端末に表示された前記楽譜上の指定された位置から再生するとともに、再生位置を前記楽譜上に表示する再生ステップと、
前記再生ステップにおいて再生された第1の演奏に重ねて行われる、前記楽譜に関連する第2の演奏を複数の端末で取得し、ネットワークを介して送信する演奏取得ステップと、
前記演奏取得ステップにおいて送信された複数の第2の演奏を、前記再生された第1の演奏とともに出力する出力ステップと
を備えることを特徴とするプログラム。
Aspect 5
A program that causes a computer to execute a recorded data reproduction method that supports an online ensemble via a network, and the recorded data reproduction method is
The score transmission step to send the score to the terminal via the network,
A reproduction step of reproducing the recorded data of the first performance related to the score from a designated position on the score displayed on the terminal and displaying the reproduction position on the score.
A performance acquisition step of acquiring a second performance related to the score on a plurality of terminals and transmitting it via a network, which is performed on top of the first performance reproduced in the reproduction step.
A program comprising: an output step of outputting a plurality of second performances transmitted in the performance acquisition step together with the reproduced first performance.

請求項1に記載の発明は、ネットワークを介して、オンラインアンサンブルを支援する記録データ再生方法であって、ネットワークを介して複数の端末に楽譜を送信する楽譜送信ステップと、楽譜に関連する第1の演奏を記録したデータを、端末に表示された楽譜上の指定された位置から再生するとともに、再生位置を楽譜上に表示する再生ステップと、再生ステップにおいて再生された第1の演奏に重ねて行われる、楽譜に関連する第2の演奏を複数の端末の各々データとして記録し、ネットワークを介して送信する演奏取得ステップと、演奏取得ステップにおいて送信された複数の第2の演奏を、再生された第1の演奏とともに出力する出力ステップとを備え、複数の端末の1つから演奏の開始位置および再生開始時刻の設定を受信すると、指定された楽譜上の位置に対応する位置から再生開始時刻に再生するように第1の演奏を記録したデータを、楽譜と第1の演奏を記録したデータとから生成された対応付け情報に従って取得し、複数の端末に送信する送信ステップをさらに備え、再生ステップは、設定された再生開始時刻において楽譜上の指定された位置から再生することを特徴とする。 The invention according to claim 1 is a recorded data reproduction method that supports an online ensemble via a network, a score transmission step of transmitting a score to a plurality of terminals via the network, and a first score-related. The recorded data of the performance of is played back from the specified position on the score displayed on the terminal, and is superimposed on the playback step of displaying the playback position on the score and the first performance played in the playback step. The performance acquisition step of recording the second performance related to the score as data on each of the plurality of terminals and transmitting it via the network, and the plurality of second performances transmitted in the performance acquisition step are reproduced. It is equipped with an output step that outputs along with the first performance that has been performed, and when the performance start position and playback start time settings are received from one of multiple terminals, playback starts from the position corresponding to the specified position on the score. Further provided with a transmission step of acquiring the data in which the first performance is recorded so as to be played back at the time according to the correspondence information generated from the score and the data in which the first performance is recorded and transmitting it to a plurality of terminals. The reproduction step is characterized in that the reproduction starts from a designated position on the score at a set reproduction start time .

請求項2に記載の発明は、請求項1に記載の記録データ再生方法において、第1の演奏を記録したデータは、前1の演奏を録音して得られる音声データであることを特徴とする。 The invention according to claim 2 is characterized in that, in the recorded data reproduction method according to claim 1, the data in which the first performance is recorded is audio data obtained by recording the previous performance. ..

請求項3に記載の発明は、請求項1または2に記載の記録データ再生方法であって、第1の演奏を記録したデータは、第1の演奏を録画して得られる動画データであることを特徴とする。 The invention according to claim 3 is the recorded data reproduction method according to claim 1 or 2, wherein the data recording the first performance is moving image data obtained by recording the first performance. It is characterized by.

請求項4に記載の発明は、請求項1ないし3のいずれかに記載の記録データ再生方法に
おいて、再生ステップは、端末ごとに異なる再生開始時刻に再生を開始することを特徴とする。
The invention according to claim 4 is characterized in that, in the recorded data reproduction method according to any one of claims 1 to 3, the reproduction step starts reproduction at a different reproduction start time for each terminal.

請求項5に記載の発明は、コンピュータに、ネットワークを介して、オンラインアンサンブルを支援する記録データ再生方法を実行させるプログラムであって、記録データ再生方法は、ネットワークを介して複数の端末に楽譜を送信する楽譜送信ステップと、楽譜に関連する第1の演奏を記録したデータを、複数の端末に表示された楽譜上の指定された位置から再生するとともに、再生位置を前記楽譜上に表示する再生ステップと、再生ステップにおいて再生された第1の演奏に重ねて行われる、楽譜に関連する第2の演奏を複数の端末の各々でデータとして記録し、ネットワークを介して送信する演奏取得ステップと、演奏取得ステップにおいて送信された複数の第2の演奏を、再生された第1の演奏とともに出力する出力ステップとを備え、複数の端末の1つから演奏の開始位置および再生開始時刻の設定を受信すると、指定された楽譜上の位置に対応する位置から再生開始時刻に再生するように第1の演奏を記録したデータを、楽譜と前記第1の演奏を記録したデータとから生成された対応付け情報に従って取得し、複数の端末に送信する送信ステップをさらに備え、再生ステップは、設定された再生開始時刻において楽譜上の指定された位置から再生することを特徴とする。 The invention according to claim 5 is a program for causing a computer to execute a recorded data reproduction method for supporting an online ensemble via a network, and the recorded data reproduction method transfers a score to a plurality of terminals via the network. The score transmission step to be transmitted and the data recording the first performance related to the score are played back from the designated positions on the score displayed on a plurality of terminals, and the playback position is displayed on the score. A performance acquisition step of recording a second performance related to a score as data on each of a plurality of terminals and transmitting it via a network, which is performed on top of the first performance played in the step and the playback step. It includes an output step that outputs a plurality of second performances transmitted in the performance acquisition step together with the reproduced first performance, and receives a performance start position and a playback start time setting from one of the plurality of terminals. Then, the data in which the first performance is recorded so as to be played from the position corresponding to the designated position on the score at the playback start time is associated with the score and the data in which the first performance is recorded. It further comprises a transmission step of acquiring according to information and transmitting it to a plurality of terminals, and the reproduction step is characterized in that the reproduction is performed from a designated position on the score at a set reproduction start time.

本発明によると、ネットワークを介して、オンラインアンサンブルを支援する記録データ再生方法であって、ネットワークを介して複数の端末に楽譜を送信する楽譜送信ステップと、楽譜に関連する第1の演奏を記録したデータを、端末に表示された楽譜上の指定された位置から再生するとともに、再生位置を楽譜上に表示する再生ステップと、再生ステップにおいて再生された第1の演奏に重ねて行われる、楽譜に関連する第2の演奏を複数の端末の各々データとして記録し、ネットワークを介して送信する演奏取得ステップと、演奏取得ステップにおいて送信された複数の第2の演奏を、再生された第1の演奏とともに出力する出力ステップとを備え、複数の端末の1つから演奏の開始位置および再生開始時刻の設定を受信すると、指定された楽譜上の位置に対応する位置から再生開始時刻に再生するように第1の演奏を記録したデータを、楽譜と第1の演奏を記録したデータとから生成された対応付け情報に従って取得し、複数の端末に送信する送信ステップをさらに備え、再生ステップは、設定された再生開始時刻において楽譜上の指定された位置から再生するので、記録された再生に合わせて演奏された音声を合成したり、動画を並べて表示したりすることにより、ネットワーク遅延の影響を極力減少させてリアルな体感を得られる遠隔地の演奏者間でのオンラインアンサンブルを支援することができる。 According to the present invention, it is a recording data reproduction method that supports an online ensemble via a network, and records a score transmission step of transmitting a score to a plurality of terminals via the network and a first performance related to the score. The score is played back from the specified position on the score displayed on the terminal, and is superimposed on the playback step of displaying the playback position on the score and the first performance played in the playback step. A performance acquisition step in which the second performance related to the above is recorded as data on each of the plurality of terminals and transmitted via the network, and a plurality of second performances transmitted in the performance acquisition step are reproduced. It is equipped with an output step that outputs along with the performance of, and when the performance start position and playback start time settings are received from one of multiple terminals, the performance starts from the position corresponding to the specified position on the score. As described above, the reproduction step further includes a transmission step of acquiring the data recording the first performance according to the correspondence information generated from the score and the data recording the first performance, and transmitting the data to a plurality of terminals. Since the music is played from the specified position on the score at the set playback start time, the effect of network delay can be achieved by synthesizing the sound played along with the recorded playback or displaying the videos side by side. It is possible to support an online ensemble between performers in remote areas where you can get a realistic experience by reducing as much as possible.

Claims (5)

ネットワークを介して、オンラインアンサンブルを支援する記録データ再生方法であって、
ネットワークを介して端末に楽譜を送信する楽譜送信ステップと、
前記楽譜に関連する第1の演奏を記録したデータを、前記端末に表示された前記楽譜上の指定された位置から再生するとともに、再生位置を前記楽譜上に表示する再生ステップと、
前記再生ステップにおいて再生された第1の演奏に重ねて行われる、前記楽譜に関連する第2の演奏を複数の端末で取得し、ネットワークを介して送信する演奏取得ステップと、
前記演奏取得ステップにおいて送信された複数の第2の演奏を、前記再生された第1の演奏とともに出力する出力ステップと
を備えることを特徴とする記録データ再生方法。
A recorded data playback method that supports online ensembles via a network.
The score transmission step to send the score to the terminal via the network,
A reproduction step of reproducing the recorded data of the first performance related to the score from a designated position on the score displayed on the terminal and displaying the reproduction position on the score.
A performance acquisition step of acquiring a second performance related to the score on a plurality of terminals and transmitting it via a network, which is performed on top of the first performance reproduced in the reproduction step.
A method for reproducing recorded data, comprising: an output step of outputting a plurality of second performances transmitted in the performance acquisition step together with the reproduced first performance.
前記端末から演奏の開始位置の指定を受信すると、当該指定された楽譜上の位置に対応する前記第1の演奏を記録したデータの再生時間を、前記楽譜と前記第1の演奏を記録したデータとから生成された対応付け情報に従って取得し、該取得した再生時間から前記第1の演奏を記録したデータの再生を行うために端末に送信する再生ステップをさらに備えることを特徴とする請求項1に記載の記録データ再生方法。 When the designation of the start position of the performance is received from the terminal, the playback time of the data recording the first performance corresponding to the designated position on the score is set, and the data recording the score and the first performance. The first aspect of the present invention is further comprising a reproduction step of acquiring data according to the correspondence information generated from the above and transmitting the acquired reproduction time to the terminal in order to reproduce the data recorded with the first performance. Recorded data reproduction method described in. 前記第1の演奏を記録したデータは、前記第1の演奏を録音して得られる音声データであることを特徴とする請求項1または2に記載の記録データ再生方法。 The recorded data reproduction method according to claim 1 or 2, wherein the data obtained by recording the first performance is audio data obtained by recording the first performance. 前記第1の演奏を記録したデータは、前記第1の演奏を録画して得られる動画データであることを特徴とする請求項1ないし3のいずれかに記載の記録データ再生方法。 The recorded data reproduction method according to any one of claims 1 to 3, wherein the data obtained by recording the first performance is moving image data obtained by recording the first performance. 前記再生ステップは、前記端末ごとに異なる再生開始時刻に再生を開始することを特徴とする請求項1ないし4のいずれかに記載の記録データ再生方法。
The recorded data reproduction method according to any one of claims 1 to 4, wherein the reproduction step starts reproduction at a reproduction start time different for each terminal.
JP2020132060A 2020-08-03 2020-08-03 Recorded data playback method and system Active JP6864938B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020132060A JP6864938B1 (en) 2020-08-03 2020-08-03 Recorded data playback method and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020132060A JP6864938B1 (en) 2020-08-03 2020-08-03 Recorded data playback method and system

Publications (2)

Publication Number Publication Date
JP6864938B1 JP6864938B1 (en) 2021-04-28
JP2022028570A true JP2022028570A (en) 2022-02-16

Family

ID=75638806

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020132060A Active JP6864938B1 (en) 2020-08-03 2020-08-03 Recorded data playback method and system

Country Status (1)

Country Link
JP (1) JP6864938B1 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003323173A (en) * 2002-04-26 2003-11-14 Yamaha Corp Music session system utilizing communication network, and user terminal used for the music session system
JP2004094683A (en) * 2002-08-30 2004-03-25 Casio Comput Co Ltd Server, communication method, and spectator terminal
JP2005128296A (en) * 2003-10-24 2005-05-19 Yamaha Corp Audio mixer device
JP2011242560A (en) * 2010-05-18 2011-12-01 Yamaha Corp Session terminal and network session system
JP2014153516A (en) * 2013-02-07 2014-08-25 Pioneer Electronic Corp Determination device
WO2014181773A1 (en) * 2013-05-08 2014-11-13 ヤマハ株式会社 Music session management method and music session management device
WO2019026262A1 (en) * 2017-08-03 2019-02-07 ヤマハ株式会社 Musical score display device, musical score display method, and musical score display program
JP6712695B1 (en) * 2019-07-23 2020-06-24 株式会社デザインMプラス Music score display system, method and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003323173A (en) * 2002-04-26 2003-11-14 Yamaha Corp Music session system utilizing communication network, and user terminal used for the music session system
JP2004094683A (en) * 2002-08-30 2004-03-25 Casio Comput Co Ltd Server, communication method, and spectator terminal
JP2005128296A (en) * 2003-10-24 2005-05-19 Yamaha Corp Audio mixer device
JP2011242560A (en) * 2010-05-18 2011-12-01 Yamaha Corp Session terminal and network session system
JP2014153516A (en) * 2013-02-07 2014-08-25 Pioneer Electronic Corp Determination device
WO2014181773A1 (en) * 2013-05-08 2014-11-13 ヤマハ株式会社 Music session management method and music session management device
WO2019026262A1 (en) * 2017-08-03 2019-02-07 ヤマハ株式会社 Musical score display device, musical score display method, and musical score display program
JP6712695B1 (en) * 2019-07-23 2020-06-24 株式会社デザインMプラス Music score display system, method and program

Also Published As

Publication number Publication date
JP6864938B1 (en) 2021-04-28

Similar Documents

Publication Publication Date Title
US11553235B2 (en) Audiovisual collaboration method with latency management for wide-area broadcast
US11683536B2 (en) Audiovisual collaboration system and method with latency management for wide-area broadcast and social media-type user interface mechanics
Loveridge Networked music performance in virtual reality: current perspectives
KR20100058585A (en) Technique for allowing the modification of the audio characteristics of items appearing in an interactive video using rfid tags
JP2010112981A (en) Remote demonstration reproducing method and device
JP2004233698A (en) Device, server and method to support music, and program
JP6182394B2 (en) Online karaoke system characterized by selection of duet singers and control method thereof
JP5459331B2 (en) Post reproduction apparatus and program
KR101453177B1 (en) Mixing data delivery server
JP6864938B1 (en) Recorded data playback method and system
JP2014071226A (en) Music reproduction system and music reproduction method
JP2021021870A (en) Content collection/distribution system
TWI287786B (en) A voice- and image-mixing system and method for remote karaoke sets
JP2008304821A (en) Musical piece concert release system
Alexandraki et al. Enabling virtual music performance communities
JP6958676B1 (en) Control method and control system
JP7442979B2 (en) karaoke system
JP6712695B1 (en) Music score display system, method and program
JP5794934B2 (en) Collaboration song recording system
JP6220576B2 (en) A communication karaoke system characterized by a communication duet by multiple people
JP2006279294A (en) Content reproduction system, content reproduction method, and computer program
JP2014167576A (en) Karaoke system and karaoke device
JP7468111B2 (en) Playback control method, control system, and program
JP6502728B2 (en) Karaoke system and program
JP2014048471A (en) Server, and music reproduction system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200803

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200803

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210329

R150 Certificate of patent or registration of utility model

Ref document number: 6864938

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150