JP2018077557A - Contents display method - Google Patents

Contents display method Download PDF

Info

Publication number
JP2018077557A
JP2018077557A JP2016217061A JP2016217061A JP2018077557A JP 2018077557 A JP2018077557 A JP 2018077557A JP 2016217061 A JP2016217061 A JP 2016217061A JP 2016217061 A JP2016217061 A JP 2016217061A JP 2018077557 A JP2018077557 A JP 2018077557A
Authority
JP
Japan
Prior art keywords
information
content
input
display
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016217061A
Other languages
Japanese (ja)
Inventor
教裕 植村
Norihiro Uemura
教裕 植村
陽 前澤
Akira Maezawa
陽 前澤
藤島 琢哉
Takuya Fujishima
琢哉 藤島
佳孝 浦谷
Yoshitaka Uratani
佳孝 浦谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2016217061A priority Critical patent/JP2018077557A/en
Publication of JP2018077557A publication Critical patent/JP2018077557A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Auxiliary Devices For Music (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To update display of contents according to information input from a plurality of input systems.SOLUTION: A musical score display method according to one embodiment includes the steps of: acquiring data of a content formed of one or more pages; receiving first information designating the location on the content from an external first system; receiving input of second information designating the location on the content from a second system which differs from the first system; integrating the first information and the second information; and updating the display of the content using the integrated information.SELECTED DRAWING: Figure 4

Description

本発明は、楽譜等のコンテンツの表示を更新する技術に関する。   The present invention relates to a technique for updating display of content such as a score.

電子的に記録された楽譜を表示装置に表示する技術が知られている。特許文献1には、表示装置に楽譜の一部のページを表示し、表示されるページをフットスイッチにより切り替える技術が記載されている。   A technique for displaying electronically recorded musical scores on a display device is known. Patent Document 1 describes a technique for displaying a partial page of a score on a display device and switching the displayed page with a foot switch.

特開2013−97023号公報JP 2013-97023 A

特許文献1に記載の技術においては、複数の入力系統から入力される情報に応じて表示の更新をすることができなかった。これに対し本発明は、複数の入力系統から入力される情報に応じてコンテンツの表示を更新する技術を提供する。   In the technique described in Patent Document 1, the display cannot be updated according to information input from a plurality of input systems. In contrast, the present invention provides a technique for updating the display of content according to information input from a plurality of input systems.

本発明は、1または複数ページからなるコンテンツのデータを取得するステップと、外部の第1システムから前記コンテンツ上の位置を指定する第1情報を受信するステップと、前記第1システムと異なる第2システムから前記コンテンツ上の位置を指定する第2情報の入力を受け付けるステップと、前記第1情報および前記第2情報を統合するステップと、前記統合された情報を用いて前記コンテンツの表示を更新するステップとを有するコンテンツ表示方法を提供する。   The present invention includes a step of acquiring content data consisting of one or a plurality of pages, a step of receiving first information designating a position on the content from an external first system, and a second different from the first system. Receiving an input of second information specifying a position on the content from the system; integrating the first information and the second information; and updating the display of the content using the integrated information A content display method including steps.

このコンテンツ表示方法は、前記第1システムと機能が異なる外部の第3システムから前記コンテンツに関する第3情報を受信するステップを有し、前記統合するステップにおいて、前記第1情報、前記第2情報、および前記第3情報が統合されてもよい。   The content display method includes a step of receiving third information related to the content from an external third system having a function different from that of the first system. In the integrating step, the first information, the second information, And the third information may be integrated.

前記第3情報は、複数のコンテンツの中から一のコンテンツを特定する情報であってもよい。   The third information may be information for specifying one content from a plurality of contents.

前記第3情報は、複数の楽器の中から一の楽器を特定する情報であってもよい。   The third information may be information specifying one musical instrument from a plurality of musical instruments.

本発明によれば、複数の入力系統から入力される情報に応じてコンテンツの表示を更新することができる。   According to the present invention, display of content can be updated according to information input from a plurality of input systems.

一実施形態に係るコンテンツ表示システム10の機能構成を例示する図。The figure which illustrates functional composition of content display system 10 concerning one embodiment. コンテンツ表示装置1のハードウェア構成を例示する図。The figure which illustrates the hardware constitutions of the content display apparatus. コンテンツ表示装置1の一実施形態に係る動作を例示するシーケンスチャート。6 is a sequence chart illustrating an operation according to an embodiment of the content display device 1. コンテンツ表示装置1の画面を例示する図。The figure which illustrates the screen of the content display apparatus. 統合処理および表示制御の動作例を示すフローチャート。The flowchart which shows the operation example of an integrated process and display control. 一実施形態に係るコンテンツ再生システム60の機能構成を例示する図。The figure which illustrates functional composition of content reproduction system 60 concerning one embodiment. コンテンツ再生装置6の一実施形態に係る動作を例示するシーケンスチャート。7 is a sequence chart illustrating an operation according to an embodiment of a content reproduction device 6.

1.構成
図1は、一実施形態に係るコンテンツ表示システム10の機能構成を例示する図である。コンテンツ表示システム10は、演奏者Pによる楽器Iの演奏と同期してコンテンツの表示を更新するシステムである。コンテンツとは、1または複数ページからなる表示オブジェクトを含むデータをいい、例えば、楽譜である。コンテンツ表示システム10は、コンテンツ表示装置1、コンテンツデータベース2、楽器同定システム3、楽曲同定システム4、および演奏追従システム5を有する。
1. Configuration FIG. 1 is a diagram illustrating a functional configuration of a content display system 10 according to an embodiment. The content display system 10 is a system that updates the display of content in synchronization with the performance of the musical instrument I by the player P. The content refers to data including a display object composed of one or a plurality of pages, for example, a score. The content display system 10 includes a content display device 1, a content database 2, a musical instrument identification system 3, a music identification system 4, and a performance following system 5.

コンテンツデータベース2は、複数のコンテンツを記憶したデータベースである。楽器同定システム3は、演奏音が入力されると、その演奏音を発した楽器を同定(特定)する。楽器同定システム3は、楽器を指定する情報(以下「楽器情報」という)を出力する。楽曲同定システム4は、演奏音が入力されると、その演奏音がコンテンツデータベース2に記憶されている楽曲のうちどの楽曲であるか同定(特定)する。楽曲同定システム4は、楽曲を指定する情報(以下「楽曲情報」という)を出力する。演奏追従システム5は、演奏音が入力されると、楽曲同定システム4により同定された楽曲のうち、今どの部分が演奏されているか判断する。演奏追従システム5は、楽曲内の位置を示す情報(以下「位置情報」という。位置情報は、例えば小節番号を表す)を出力する。   The content database 2 is a database that stores a plurality of contents. When a performance sound is input, the musical instrument identification system 3 identifies (specifies) the musical instrument that has emitted the performance sound. The musical instrument identification system 3 outputs information specifying a musical instrument (hereinafter referred to as “musical instrument information”). When the performance sound is input, the music identification system 4 identifies (identifies) which music is the music among the music stored in the content database 2. The music identification system 4 outputs information for designating music (hereinafter referred to as “music information”). When a performance sound is input, the performance follow-up system 5 determines which part of the music identified by the music identification system 4 is currently being played. The performance follow-up system 5 outputs information indicating the position in the music (hereinafter referred to as “position information”. The position information represents a measure number, for example).

コンテンツ表示装置1は、コンテンツを表示する装置である。コンテンツ表示装置1は、外部システム(この例では、楽器同定システム3、楽曲同定システム4、および演奏追従システム5)および内部システム(後述)から入力される情報に応じて、コンテンツの表示を更新する。コンテンツ表示装置1は、記憶手段11、表示手段12、表示制御手段13、受信手段14、操作手段15、および統合手段16を有する。   The content display device 1 is a device that displays content. The content display device 1 updates the display of content according to information input from an external system (in this example, the instrument identification system 3, the music identification system 4, and the performance tracking system 5) and an internal system (described later). . The content display device 1 includes a storage unit 11, a display unit 12, a display control unit 13, a reception unit 14, an operation unit 15, and an integration unit 16.

記憶手段11は、各種のデータおよびプログラムを記憶する。この例で、記憶手段11は、コンテンツデータベース111を記憶する。コンテンツデータベース111は、複数のコンテンツ(例えば、複数の楽曲の楽譜)が記録されたデータベースである。表示手段12は、コンテンツを表示する。表示制御手段13は、表示手段12における表示を制御する。受信手段14は、外部システムから情報を受信する。この例で、受信手段14は、楽器同定システム3、楽曲同定システム4、および演奏追従システム5から情報を受信する。操作手段15は、ユーザの操作入力を受け付け、受け付けた操作入力に応じた情報(以下「操作情報」という)を出力する。操作手段15は、上記の内部システムの一例である。統合手段16は、受信手段14により受信された情報および操作手段15により受け付けられた操作入力を統合する。すなわち、統合手段16は、外部システムおよび内部システムから入力される情報を統合する。統合手段16は、これらを統合した情報を出力する。表示制御手段13は、統合手段16から出力される情報に応じて、表示手段12の表示を更新する。   The storage unit 11 stores various data and programs. In this example, the storage unit 11 stores a content database 111. The content database 111 is a database in which a plurality of contents (for example, music scores of a plurality of songs) are recorded. The display means 12 displays content. The display control unit 13 controls display on the display unit 12. The receiving unit 14 receives information from an external system. In this example, the receiving means 14 receives information from the musical instrument identification system 3, the music identification system 4, and the performance tracking system 5. The operation unit 15 receives a user operation input and outputs information corresponding to the received operation input (hereinafter referred to as “operation information”). The operation means 15 is an example of the internal system. The integration unit 16 integrates the information received by the reception unit 14 and the operation input received by the operation unit 15. That is, the integration unit 16 integrates information input from the external system and the internal system. The integration unit 16 outputs information obtained by integrating these. The display control unit 13 updates the display of the display unit 12 according to the information output from the integration unit 16.

図2は、コンテンツ表示装置1のハードウェア構成を例示する図である。コンテンツ表示装置1は、CPU(Central processing Unit)101、メモリ102、ストレージ103、入出力IF104、ディスプレイ105、および入力装置106を有するコンピュータ装置、具体的には例えばタブレット端末である。CPU101は、プログラムを実行してコンテンツ表示装置1の他の要素を制御する制御装置である。メモリ102は主記憶装置であり、例えばROM(Read Only Memory)およびRAM(Random Access Memory)を含む。ROMは、コンテンツ表示装置1を起動するためのプログラム等を記憶する。RAMは、CPU101がプログラムを実行する際のワークエリアとして機能する。ストレージ103は補助記憶装置であり、各種のデータおよびプログラムを記憶する。ストレージ103は、例えば、HDD(Hard Disk Drive)およびSSD(Solid State Drive)の少なくとも一方を含む。入出力IF104は、他の装置との間で情報の入出力を行うためのインターフェースであり、例えば、無線通信インターフェースまたはNIC(Network Interface Controller)を含む。ディスプレイ105は情報を表示する装置であり、例えばLCD(Liquid Crystal Display)を含む。入力装置106は、コンテンツ表示装置1に情報を入力するための装置であり、例えば、タッチスクリーン、キーパッド、ボタン、マイクロフォン、およびカメラの少なくとも1つを含む。   FIG. 2 is a diagram illustrating a hardware configuration of the content display device 1. The content display device 1 is a computer device having a central processing unit (CPU) 101, a memory 102, a storage 103, an input / output IF 104, a display 105, and an input device 106, specifically, for example, a tablet terminal. The CPU 101 is a control device that executes a program and controls other elements of the content display device 1. The memory 102 is a main storage device, and includes, for example, a ROM (Read Only Memory) and a RAM (Random Access Memory). The ROM stores a program for starting the content display device 1 and the like. The RAM functions as a work area when the CPU 101 executes the program. The storage 103 is an auxiliary storage device and stores various data and programs. The storage 103 includes, for example, at least one of an HDD (Hard Disk Drive) and an SSD (Solid State Drive). The input / output IF 104 is an interface for inputting / outputting information to / from other devices, and includes, for example, a wireless communication interface or a NIC (Network Interface Controller). The display 105 is a device that displays information, and includes, for example, an LCD (Liquid Crystal Display). The input device 106 is a device for inputting information to the content display device 1 and includes, for example, at least one of a touch screen, a keypad, a button, a microphone, and a camera.

この例で、ストレージ103はコンピュータ装置をコンテンツ表示装置1として機能させるためのプログラム(以下「コンテンツ表示プログラム」という)を記憶する。CPU101がコンテンツ表示プログラムを実行することにより、コンピュータ装置に図1の機能が実装される。メモリ102およびストレージ103の少なくとも一方は記憶手段11の一例である。ディスプレイ105は表示手段12の一例である。CPU101は、表示制御手段13および統合手段16の一例である。CPU101および入出力IF104は、受信手段14の一例である。CPU101および入力装置106は、操作手段15の一例である。   In this example, the storage 103 stores a program for causing a computer device to function as the content display device 1 (hereinafter referred to as “content display program”). When the CPU 101 executes the content display program, the functions shown in FIG. 1 are implemented in the computer apparatus. At least one of the memory 102 and the storage 103 is an example of the storage unit 11. The display 105 is an example of the display unit 12. The CPU 101 is an example of the display control unit 13 and the integration unit 16. The CPU 101 and the input / output IF 104 are an example of the receiving unit 14. The CPU 101 and the input device 106 are an example of the operation unit 15.

なお、詳細な説明は省略するが、コンテンツデータベース2、楽器同定システム3、楽曲同定システム4、および演奏追従システム5は、それぞれ、例えば汎用のコンピュータ装置に専用のソフトウェアをインストールすることにより実装される。コンテンツデータベース2、楽器同定システム3、楽曲同定システム4、および演奏追従システム5のうち少なくとも2つのシステムが、同一のコンピュータ装置にインストールされてもよい。楽器同定、楽曲同定、および演奏追従としては、それぞれ公知の技術を用いることができるので、ここでは詳細な説明は省略する。楽器同定システム3、楽曲同定システム4、および演奏追従システム5には、演奏者による演奏音が入力される。より詳細には、演奏音はマイクロフォン(図示略)により電気信号に変換され、この電気信号が楽器同定システム3、楽曲同定システム4、および演奏追従システム5に入力される。なお、コンテンツデータベース2、楽器同定システム3、楽曲同定システム4、および演奏追従システム5の少なくとも一部は、ネットワーク上のサーバに実装されてもよい。   Although the detailed description is omitted, the content database 2, the instrument identification system 3, the music identification system 4, and the performance follow-up system 5 are each implemented by installing dedicated software in a general-purpose computer device, for example. . At least two of the content database 2, the musical instrument identification system 3, the music identification system 4, and the performance following system 5 may be installed in the same computer apparatus. As the instrument identification, the music identification, and the performance follow-up, known techniques can be used, and detailed description thereof is omitted here. The musical instrument identification system 3, the music identification system 4, and the performance follow-up system 5 are inputted with performance sounds by the performer. More specifically, the performance sound is converted into an electric signal by a microphone (not shown), and this electric signal is input to the musical instrument identification system 3, the music identification system 4, and the performance follow-up system 5. Note that at least a part of the content database 2, the musical instrument identification system 3, the music identification system 4, and the performance following system 5 may be mounted on a server on the network.

2.動作概要
図3は、コンテンツ表示装置1の一実施形態に係る動作を例示するシーケンスチャートである。図3のフローは、例えば、コンテンツ表示装置1においてコンテンツ表示プログラムが起動されたことを契機として開始される。以下において表示制御手段13等の機能構成要素を処理の主体として記載するが、これはコンテンツ表示プログラム等のソフトウェアを実行するCPU101等のハードウェアが処理を行うことを意味する。
2. Overview of Operation FIG. 3 is a sequence chart illustrating an operation according to an embodiment of the content display device 1. The flow in FIG. 3 is started, for example, when the content display program is started in the content display device 1. In the following description, functional components such as the display control means 13 are described as the subject of processing. This means that hardware such as the CPU 101 that executes software such as a content display program performs processing.

外部のシステムから情報を受信する(ステップS11)と、受信手段14は、受信した情報を統合手段16に供給する(ステップS12)。外部のシステムから供給される情報は、その情報の送信元のシステムの識別情報およびシステムから出力される情報本体を含む。情報本体は、楽器同定システム3においては楽器情報であり、楽曲同定システム4においては楽曲情報であり、演奏追従システム5においては位置情報である。なお、外部システムは、それぞれ、独立したタイミングで情報を出力する。例えば、いずれの外部システムも、それぞれ独自の間隔で、定期的に繰り返し情報を出力する。   When information is received from an external system (step S11), the receiving unit 14 supplies the received information to the integrating unit 16 (step S12). The information supplied from the external system includes identification information of the system that is the transmission source of the information and an information body that is output from the system. The information body is instrument information in the instrument identification system 3, song information in the song identification system 4, and position information in the performance following system 5. Each external system outputs information at an independent timing. For example, each external system periodically outputs information repeatedly at a unique interval.

ステップS11およびステップS12の処理と並行して、操作手段15は、ユーザの操作を受け付ける(ステップS13)。ユーザの操作を受け付けると、操作手段15は、受け付けた操作を示す操作情報を統合手段16に供給する(ステップS14)。   In parallel with the processing of step S11 and step S12, the operation means 15 accepts a user operation (step S13). When receiving the user operation, the operation unit 15 supplies operation information indicating the received operation to the integration unit 16 (step S14).

ステップS15において、統合手段16は受信手段14から入力された情報および操作手段15から入力された情報を統合する。以下、受信手段14から入力される情報と操作手段15から入力される情報とを統合する処理を統合処理という。受信手段14から入力される情報および操作手段15から入力される情報は、いずれも、コンテンツの表示を更新するためのコマンド(命令)であると理解することができ、その意味で、統合手段14は、コンテンツの表示を更新するためのコマンドを統合するものであると言える。また、情報の統合とは、複数系統のうち一の系統から新たな情報が入力されたとき、他の系統から既に入力された情報を考慮して、その新たな情報をそのまま後段に出力するか、少なくとも一部を改変して後段に出力するか、または無視する(その情報を後段に出力しない)か選択する処理であると言える。統合処理は予め決められたアルゴリズムに従って行われる。統合手段16は、統合処理により得られた情報を出力する(ステップS16)。   In step S <b> 15, the integration unit 16 integrates the information input from the reception unit 14 and the information input from the operation unit 15. Hereinafter, the process of integrating the information input from the receiving unit 14 and the information input from the operation unit 15 is referred to as an integration process. Both the information input from the receiving unit 14 and the information input from the operation unit 15 can be understood as commands (commands) for updating the display of the content. In this sense, the integrating unit 14 Can be said to integrate commands for updating the display of content. Information integration means that when new information is input from one of the multiple systems, the new information is output as is in the subsequent stage, taking into account the information already input from the other system. It can be said that it is a process of selecting whether to modify at least a part and output to the subsequent stage or to ignore (do not output the information to the subsequent stage). The integration process is performed according to a predetermined algorithm. The integration unit 16 outputs information obtained by the integration process (step S16).

統合処理は、所定のイベントによりトリガされる。統合処理をトリガするイベントは、例えば、いずれかの系統から新たな情報が入力されたというイベントである。別の例で、統合処理をトリガするイベントは、統合処理が前回行われてから所定の時間が経過したというイベントであってもよい。さらに別の例で、統合処理をトリガするイベントは、統合処理されていない情報の量がしきい値に達したというイベントであってもよい。   The integration process is triggered by a predetermined event. The event that triggers the integration process is, for example, an event that new information is input from any of the systems. In another example, the event that triggers the integration process may be an event that a predetermined time has elapsed since the integration process was last performed. In yet another example, the event that triggers the integration process may be an event that the amount of information that has not been integrated has reached a threshold value.

統合手段16から情報が入力されると、表示制御手段13は、入力された情報に従って表示手段12に表示されるコンテンツを更新する(ステップS17)。コンテンツの表示の更新とは、表示手段12に表示される画像が更新されることをいい、具体的には、例えば、コンテンツが複数ページに区分されている場合において、表示の対象となるページをあるページから別のページに変更することをいう。   When information is input from the integration unit 16, the display control unit 13 updates the content displayed on the display unit 12 according to the input information (step S17). Update of the display of content means that the image displayed on the display means 12 is updated. Specifically, for example, when the content is divided into a plurality of pages, the page to be displayed is changed. It means changing from one page to another.

外部のシステムからの情報の入力および操作手段15における操作の受け付けは、時々刻々と行われる。ステップS15からS17の処理は、統合処理をトリガするイベントに応じた頻度で繰り返し実行される。   Input of information from an external system and reception of operation in the operation means 15 are performed every moment. Steps S15 to S17 are repeatedly executed at a frequency corresponding to an event that triggers the integration process.

3.動作例
3−1.動作例1:電子楽譜の表示更新
図4は、コンテンツ表示装置1の画面を例示する図である。この例で、コンテンツは電子楽譜であり、ある楽器の演奏者が、コンテンツ表示装置1のユーザである。電子楽譜のデータは、複数の楽器のパート譜から構成される総譜(スコア)のデータを含む。コンテンツ表示装置1は、これら複数の楽器のうち入力される楽器情報により特定される一の楽器のパート譜を表示する。すなわち、コンテンツ表示装置1は、演奏者が演奏している楽器のパート譜を表示する。演奏者は、コンテンツ表示装置1に表示されるパート譜を見ながら楽器を演奏する。
3. Example of operation 3-1. Operation Example 1: Display Update of Electronic Musical Score FIG. 4 is a diagram illustrating a screen of the content display device 1. In this example, the content is an electronic score, and a player of a certain instrument is a user of the content display device 1. The electronic score data includes data of a score (score) composed of part scores of a plurality of musical instruments. The content display device 1 displays a part score of one musical instrument specified by input musical instrument information among the plurality of musical instruments. That is, the content display device 1 displays the part score of the musical instrument being played by the performer. The performer plays the instrument while watching the part score displayed on the content display device 1.

コンテンツ表示装置1に表示される画面は、楽譜表示領域91および操作領域92を含む。楽譜表示領域91は、楽譜(この例ではパート譜)を表示するための領域である。この例で、楽譜は五線譜の形式で表示される。楽譜表示領域91のサイズは限られているので、所定の表示単位がm個表示される(mは正の自然数。図の例ではm=4)。表示単位は、表示を更新する際の最小単位であり、この例ではパート譜1行分である。1行にはn個の小節(nは正の自然数。図の例ではn=3)が含まれる。すなわち楽譜表示領域91には、パート譜がn×m小節分、表示される。nおよびmの値は、楽譜表示領域91のサイズおよび表示倍率等の要素により決定される。例えば、演奏中に表示倍率が変更されると、楽譜表示領域におけるnおよびmの値は、表示倍率の変更に伴って動的に変化する。   The screen displayed on the content display device 1 includes a score display area 91 and an operation area 92. The score display area 91 is an area for displaying a score (part score in this example). In this example, the score is displayed in the form of a staff. Since the score display area 91 is limited in size, m predetermined display units are displayed (m is a positive natural number, m = 4 in the example in the figure). The display unit is a minimum unit for updating the display, and in this example, is one line of parts. One line includes n bars (n is a positive natural number, n = 3 in the illustrated example). That is, in the score display area 91, the part score is displayed for n × m measures. The values of n and m are determined by factors such as the size of the score display area 91 and the display magnification. For example, when the display magnification is changed during performance, the values of n and m in the score display area dynamically change as the display magnification is changed.

楽譜のうち表示される部分は、楽譜内の基準位置に基づいて決められる。具体的には、基準位置が楽譜表示領域91内の特定の領域に位置するように表示される部分が決められる。基準位置は、例えば、位置情報または操作情報により指定される位置である。特定の領域は、例えば、第1行に相当する領域である。すなわち、演奏者により今まさに演奏されている小節911を含む行が第1行に表示される。なお、楽譜表示領域91において、今まさに演奏されている小節911の表示上の外観を他の小節と異ならせてもよい。外観の異ならせ方は、例えば、背景色を異ならせる、点滅させる、および楽譜の表示色を異ならせる、のうち少なくとも1つの手法による。   The portion to be displayed of the score is determined based on the reference position in the score. Specifically, the portion to be displayed is determined so that the reference position is located in a specific area in the score display area 91. The reference position is, for example, a position specified by position information or operation information. The specific area is, for example, an area corresponding to the first row. That is, the line including the measure 911 that is just being played by the performer is displayed in the first line. In the musical score display area 91, the display appearance of the measure 911 just played may be different from the other measures. The appearances are made different by, for example, at least one method of changing the background color, blinking, and changing the display color of the score.

操作領域92は、ユーザの操作を受け付ける操作子の画像オブジェクトを表示するための領域である。この例では、操作領域92には、画像オブジェクト921〜923が表示される。画像オブジェクト921は、基準位置を1表示単位戻す指示を受け付けるための画像オブジェクトである。画像オブジェクト922は、基準位置を1表示単位進める指示を受け付けるための画像オブジェクトである。画像オブジェクト923は、基準位置をk単位(kは2以上の自然数)進める指示を受け付けるための画像オブジェクトである。   The operation area 92 is an area for displaying an operator image object that receives a user operation. In this example, image objects 921 to 923 are displayed in the operation area 92. The image object 921 is an image object for receiving an instruction to return the reference position to one display unit. The image object 922 is an image object for receiving an instruction to advance the reference position by one display unit. The image object 923 is an image object for receiving an instruction to advance the reference position by k units (k is a natural number of 2 or more).

楽譜表示領域91には、演奏者が現在演奏している小節を含むパート譜が表示される。例えば、演奏者が、現在演奏している部分よりもパート譜を先読みしたいと考えたときに、演奏者は、画像オブジェクト922または923に相当する位置をタッチして、現在演奏している位置よりも先の位置を含むパート譜を表示するよう指示をする。   In the score display area 91, a part score including a measure that the performer is currently playing is displayed. For example, when a performer wants to pre-read a part score rather than a currently playing part, the performer touches a position corresponding to the image object 922 or 923 to make the part from a currently playing position. Instructs to display the part score including the previous position.

図5は、統合処理および表示制御の、より具体的な動作例を示すフローチャートである。以下、図4の画面例を参照しつつ、統合処理および表示制御の動作例を説明する。なお、この例で、統合処理をトリガするイベントは、新たな情報が入力されたというイベントである。   FIG. 5 is a flowchart illustrating a more specific operation example of the integration process and the display control. Hereinafter, an operation example of integration processing and display control will be described with reference to the screen example of FIG. In this example, the event that triggers the integration process is an event that new information has been input.

ステップS151において、統合手段16は、入力された情報が、楽器情報、楽曲情報、位置情報、および操作情報のいずれであるか判断する。入力された情報が楽器情報であると判断された場合(S151:A)、統合手段16は処理をステップS152に移行する。入力された情報が楽曲情報であると判断された場合(S151:B)、統合手段16は処理をステップS154に移行する。入力された情報が位置情報であると判断された場合(S151:C)、統合手段16は処理をステップS156に移行する。入力された情報が操作情報であると判断された場合(S151:D)、統合手段16は処理をステップS158に移行する。   In step S151, the integration unit 16 determines whether the input information is instrument information, music information, position information, or operation information. If it is determined that the input information is instrument information (S151: A), the integration unit 16 proceeds to step S152. If it is determined that the input information is music information (S151: B), the integration unit 16 proceeds to step S154. If it is determined that the input information is position information (S151: C), the integration unit 16 proceeds to step S156. If it is determined that the input information is operation information (S151: D), the integration unit 16 proceeds to step S158.

ステップS152において、統合手段16は、入力された楽器情報が、前回入力された楽器情報(例えば30秒間隔で繰り返し楽器情報が入力される場合において、30秒前に入力された楽器情報)と同じ楽器を示しているか判断する。統合手段16は、この比較のため、少なくとも過去1回分の楽器情報を記憶する。両者が同じ楽器を示していると判断された場合(S152:YES)、統合手段16は、処理をステップS151に移行する。両者が異なる楽器を示していると判断された場合(S152:NO)、統合手段16は、処理をステップS153に移行する。   In step S152, the integration means 16 inputs the instrument information that is the same as the instrument information previously input (for example, the instrument information input 30 seconds before when the instrument information is repeatedly input at intervals of 30 seconds). Determine if you are showing an instrument. The integration means 16 stores at least the past instrument information for this comparison. When it is determined that both indicate the same musical instrument (S152: YES), the integration unit 16 proceeds to step S151. If it is determined that both indicate different instruments (S152: NO), the integration unit 16 proceeds to step S153.

ステップS153において、統合手段16は、入力された楽器情報を表示制御手段13に出力する。楽器情報が入力されると、表示制御手段13は、記憶手段11に記憶されているコンテンツデータベースに含まれる楽譜の中から、現在表示しているパート譜を含む総譜のうち、入力された楽器情報により指定されるパート譜を読み出す(ステップS171)。表示制御手段13は、読み出したパート譜を表示する(ステップS172)。楽器情報により示される楽器が前回と今回で異なっているということは、演奏されている楽器が変更されたということである。例えば、当初、演奏者がトランペットを演奏していたところ、楽器を持ち替えてソプラノサックスの演奏を開始したという状況である。なおこのとき、表示制御手段13は、ソプラノサックスのパート譜のうち、それまで演奏されていたトランペットの演奏における位置情報(小節番号)で指定される位置の楽譜を表示してもよい。   In step S153, the integration unit 16 outputs the input instrument information to the display control unit 13. When the musical instrument information is input, the display control means 13 inputs the musical instrument information out of the total score including the currently displayed part music from the musical scores included in the content database stored in the storage means 11. The part score designated by is read out (step S171). The display control means 13 displays the read part score (step S172). The fact that the musical instrument indicated by the musical instrument information is different from the previous one means that the musical instrument being played has been changed. For example, when a performer was playing a trumpet at the beginning, he changed his instrument and started playing soprano saxophone. At this time, the display control means 13 may display the score at the position specified by the position information (measure number) in the performance of the trumpet that has been played so far among the soprano saxophone parts.

ステップS154において、統合手段16は、入力された楽曲情報が、前回入力された楽曲情報(例えば10秒間隔で繰り返し楽器情報が入力される場合において、10秒前に入力された楽器情報)と同じ楽曲を示しているか判断する。統合手段16は、この比較のため、少なくとも過去1回分の楽曲情報を記憶する。両者が同じ楽曲を示していると判断された場合(S154:YES)、統合手段16は、処理をステップS151に移行する。両者が異なる楽器を示していると判断された場合(S154:NO)、統合手段16は、処理をステップS155に移行する。   In step S154, the integration unit 16 uses the same music information as previously input music information (for example, instrument information input 10 seconds before when musical instrument information is repeatedly input at 10-second intervals). Determine if a song is shown. The integration means 16 stores at least one past piece of music information for this comparison. When it is determined that both indicate the same music (S154: YES), the integration unit 16 proceeds to step S151. When it is determined that both indicate different instruments (S154: NO), the integration unit 16 proceeds to step S155.

ステップS155において、統合手段16は、入力された楽曲情報を表示制御手段13に出力する。楽曲情報が入力されると、表示制御手段13は、記憶手段11に記憶されているコンテンツデータベースに含まれる楽譜の中から、入力された楽曲情報により指定される楽曲の楽譜を読み出す(ステップS173)。表示制御手段13は、読み出した楽譜を表示する(ステップS174)。楽曲情報により示される楽曲が前回と今回で異なっているということは、演奏されている楽曲が変更されたということである。例えば、当初、演奏者がXという楽曲を演奏していたところ、曲を変更してYという楽曲の演奏を開始したという状況である。なおこのとき、表示制御手段13は、読み出された楽譜に含まれるパート譜のうち、それまで表示されていた別の楽曲のパート譜と同じ楽器のパート譜を表示してもよい。   In step S <b> 155, the integration unit 16 outputs the input music information to the display control unit 13. When the music information is input, the display control means 13 reads the music score of the music specified by the input music information from the music scores included in the content database stored in the storage means 11 (step S173). . The display control means 13 displays the read score (step S174). The fact that the music indicated by the music information is different between the previous time and the current time means that the music being played has been changed. For example, when the performer was playing a song called X at the beginning, the song was changed and the performance of a song called Y was started. At this time, the display control means 13 may display a part of the same musical instrument as the part of another musical piece that has been displayed so far, among the parts included in the read score.

ステップS156において、統合手段16は、入力された位置情報により示される楽曲内の位置が、直近に行われた操作を示す操作情報により示される楽曲内の位置よりも後であるか判断する。統合手段16は、この比較のため、操作情報により示される楽曲内の位置のうち少なくとも最新のものを記憶する。位置情報により示される楽曲内の位置が操作情報により示される楽曲内の位置よりも後であると判断された場合(S156:YES)、統合手段16は、処理をステップS157に移行する。   In step S156, the integration unit 16 determines whether the position in the music indicated by the input position information is later than the position in the music indicated by the operation information indicating the operation performed most recently. For this comparison, the integration unit 16 stores at least the latest position in the music indicated by the operation information. When it is determined that the position in the music indicated by the position information is later than the position in the music indicated by the operation information (S156: YES), the integration unit 16 proceeds to step S157.

ステップS157において、統合手段16は、入力された位置情報を表示制御手段13に出力する。位置情報が入力されると、表示制御手段13は、その時点で表示の対象となっているパート譜のうち、位置情報で指定される小節が基準位置となるようにパート譜の表示を更新する(ステップS175)。   In step S157, the integration unit 16 outputs the input position information to the display control unit 13. When the position information is input, the display control means 13 updates the display of the parts so that the bar specified by the position information becomes the reference position among the parts which are the display targets at that time. (Step S175).

ステップS156において、位置情報により示される楽曲内の位置が操作情報により示される楽曲内の位置よりも前であると判断された場合(S156:NO)、統合手段16は、処理をステップS151に移行する。これはすなわち、後から入力された位置情報により示される楽曲内の位置が、位置情報の入力以前の直近の操作情報により示される楽曲内の位置よりも前である場合には、位置情報による位置の指定を無視することに相当する。操作情報は演奏者の意図的な基準位置の変更を反映しているので、例えばユーザがパート譜の先読みのため基準位置として第100小節を操作により指定した場合において、実際の演奏位置が第80小節であったときに、表示の基準位置を位置情報に応じて第80小節に変更してしまうとユーザの意図に反した表示更新が行われる場合がある。この例では、このような表示更新が起こる可能性を低減するため、位置情報の入力以前の直近の操作情報により示される楽曲内の位置よりも前である場合には、位置情報による位置の指定を無視する。   If it is determined in step S156 that the position in the music indicated by the position information is before the position in the music indicated by the operation information (S156: NO), the integration unit 16 moves the process to step S151. To do. In other words, if the position in the music indicated by the position information input later is earlier than the position in the music indicated by the most recent operation information before the input of the position information, the position based on the position information This is equivalent to ignoring the specification of. Since the operation information reflects the intentional change of the player's intentional reference position, for example, when the user designates the 100th measure as the reference position for pre-reading of the part score, the actual performance position is the 80th. If it is a measure and the display reference position is changed to the 80th measure according to the position information, the display may be updated against the user's intention. In this example, in order to reduce the possibility of such a display update, when the position in the music is indicated by the latest operation information before the input of the position information, the position is specified by the position information. Is ignored.

ステップS158において、統合手段16は、入力された操作情報を表示制御手段13に出力する。この例で、操作情報は、基準位置の変化を指定する情報を含む。例えば、画像オブジェクト922に相当する位置がタッチされた場合、操作情報は、基準位置を1加算することを示す。あるいは、画像オブジェクト923に相当する位置がタッチされた場合、操作情報は、基準位置をk加算することを示す。操作情報が入力されると、表示制御手段13は、その時点で表示されているパート譜を、基準位置が操作情報で指定されるものとなるように表示を更新する(ステップS175)。   In step S158, the integration unit 16 outputs the input operation information to the display control unit 13. In this example, the operation information includes information that specifies a change in the reference position. For example, when a position corresponding to the image object 922 is touched, the operation information indicates that 1 is added to the reference position. Alternatively, when a position corresponding to the image object 923 is touched, the operation information indicates that k is added to the reference position. When the operation information is input, the display control means 13 updates the display of the part score displayed at that time so that the reference position is designated by the operation information (step S175).

この例によれば、コンテンツ表示装置1は、複数のシステム(楽器同定システム3、楽曲同定システム4、演奏追従システム5、および操作手段15)から入力された情報を統合し、統合された情報を用いてコンテンツの表示を更新する。コンテンツ表示システム10に情報を入力するシステムは外部システム(楽器同定システム3、楽曲同定システム4、および演奏追従システム5)を含んでいるため、これらを全て単一の装置に実装する場合と比較して、機能追加または機能変更等のシステムの改変が容易である。   According to this example, the content display apparatus 1 integrates information input from a plurality of systems (musical instrument identification system 3, music identification system 4, performance follow-up system 5, and operation means 15), and the integrated information is displayed. Use to update the content display. Since the system for inputting information to the content display system 10 includes external systems (musical instrument identification system 3, music identification system 4, and performance following system 5), these are all compared with a case where they are mounted on a single device. Therefore, system modification such as function addition or function change is easy.

3−2.変形例
本発明は上述の実施形態に限定されるものではなく、種々の変形実施が可能である。以下、変形例をいくつか説明する。以下の変形例のうち2つ以上のものが組み合わせて用いられてもよい。
3-2. Modifications The present invention is not limited to the above-described embodiments, and various modifications can be made. Hereinafter, some modifications will be described. Two or more of the following modifications may be used in combination.

操作情報の入力方法は実施形態で例示したものに限定されない。例えば、演奏者が演奏する楽器に操作情報入力用の操作子(例えば、ペダル、フットスイッチ、レバー、ダイヤル、またはボタン)を設け、この操作子に対して行われた操作に応じて、操作情報を示す信号を楽器が出力してもよい。この場合、コンテンツ表示システム10は、受信手段14を介してこの信号を受信する。別の例で、楽器およびコンテンツ表示装置1とは別個の装置にこの操作子を設けてもよい。   The method for inputting operation information is not limited to that exemplified in the embodiment. For example, an operator for inputting operation information (for example, a pedal, a foot switch, a lever, a dial, or a button) is provided on the musical instrument played by the performer, and the operation information according to the operation performed on the operator. The instrument may output a signal indicating In this case, the content display system 10 receives this signal via the receiving means 14. In another example, the operation element may be provided in a device separate from the musical instrument and the content display device 1.

あるいは、コンテンツ表示装置1は、マイクロフォンを介した音声入力により操作情報を受け付けてもよい。例えば、演奏者が「進む」と発声すると、操作手段15は、この音声入力を、基準位置を1表示単位加算する操作として認識する。あるいは、演奏者が「121小節」と発声すると、操作手段15は、この音声入力を、第121小節を基準位置とする操作として認識する。   Alternatively, the content display device 1 may accept operation information by voice input via a microphone. For example, when the performer utters “go”, the operation means 15 recognizes this voice input as an operation of adding the reference position by one display unit. Alternatively, when the performer utters “121 measures”, the operation means 15 recognizes this sound input as an operation with the 121st measure as a reference position.

以上で説明した入力方法が全て併用されてもよい。例えば、コンテンツ表示装置1は、以下の情報の入力を受け付けることができる。
(1)楽器同定システム3からの楽器情報。
(2)楽曲同定システム4からの楽曲情報。
(3)演奏追従システム5からの位置情報。
(4)コンテンツ表示装置1のタッチスクリーン上の位置の指定による操作情報。
(5)コンテンツ表示装置1のマイクロフォンを介した音声入力による操作情報。
(6)楽器に設けられた操作子から入力された操作情報。
統合手段16は、例えば上記(1)〜(6)の情報に対してそれぞれ優先度を設定し、2つの情報による表示更新が競合した場合には、2つの情報に設定された優先度に基づいて2つの情報のいずれを採用するか決定する。2つの情報による表示更新が競合する場合とは、これら2つの情報が同じパラメータ(例えば基準位置)を異なる値に変更させるためのものである場合をいう。一例としては、人間の直接的な操作により指定される情報(上記(4)〜(6))の優先度は相対的に高く、システムにより自動的に指定される情報(上記(1)〜(3))の優先度は相対的に低く設定される。
All the input methods described above may be used in combination. For example, the content display device 1 can accept input of the following information.
(1) Musical instrument information from the musical instrument identification system 3
(2) Music information from the music identification system 4.
(3) Position information from the performance following system 5.
(4) Operation information by designating a position on the touch screen of the content display device 1.
(5) Operation information by voice input via the microphone of the content display device 1.
(6) Operation information input from an operator provided on the musical instrument.
For example, the integration unit 16 sets priorities for the information (1) to (6) described above, and when display updates by two pieces of information compete with each other, based on the priorities set for the two pieces of information. To decide which of the two types of information to use. The case where display updates by two pieces of information are in conflict means a case where these two pieces of information are for changing the same parameter (for example, the reference position) to different values. As an example, the priority (information (4) to (6)) specified by direct human operation is relatively high, and the information automatically specified by the system (above (1) to ( The priority of 3)) is set relatively low.

楽譜を表示する具体的な方法は実施形態で例示したものに限定されない。パート譜は例えばページに割り付けられ、この割り付けは固定されていてもよい。表示単位はページである。この場合、楽譜表示領域91に表示されるのは、パート譜のうち基準位置を含む1または複数のページである。なお、パート譜のデータには、位置情報と表示単位とを対応付ける情報(例えば、第1ページは第1〜第20小節の楽譜を含む等)が含まれる。表示制御手段13は、この情報を参照して表示を更新する。例えば、演奏追従システム5から入力される位置情報が第1〜第20小節を示している間、楽譜の表示は更新されず、第21小節を示す位置情報が入力されると、表示制御手段13は、表示手段12に表示される画像を第2ページの画像に更新する。   The specific method for displaying the score is not limited to that exemplified in the embodiment. The part score is assigned to a page, for example, and this assignment may be fixed. The display unit is a page. In this case, what is displayed in the score display area 91 is one or a plurality of pages including the reference position in the part score. The part score data includes information for associating position information with display units (for example, the first page includes scores of the first to twentieth bars). The display control means 13 updates the display with reference to this information. For example, while the position information input from the performance follow-up system 5 indicates the first to twentieth measures, the display of the score is not updated, and when the position information indicating the twenty-first measure is input, the display control means 13. Updates the image displayed on the display means 12 to the image of the second page.

上述の実施形態においては、コンテンツ表示装置1のユーザが演奏者である例を説明したが、コンテンツ表示装置1のユーザと演奏者とは同一人物でなくてもよい。例えば、演奏者とは異なるユーザがコンテンツ表示装置1を使用してもよい。この場合において、演奏者はコンピュータまたはロボットでもよい。つまり、楽器同定システム3、楽曲同定システム4、および演奏追従システム5への入力は自動演奏による演奏音であってもよい。   In the above-described embodiment, the example in which the user of the content display device 1 is a performer has been described, but the user of the content display device 1 and the performer may not be the same person. For example, a user different from the performer may use the content display device 1. In this case, the performer may be a computer or a robot. That is, the input to the musical instrument identification system 3, the music identification system 4, and the performance follow-up system 5 may be performance sounds by automatic performance.

上述の実施形態においては演奏音を集音したマイクロフォンから出力される音信号が楽器同定システム3、楽曲同定システム4、および演奏追従システム5に入力される例を説明したが、音信号に代えて、電子楽器から出力される演奏データ(例えば、MIDI(Musical Instrument Digital Interface)データ等の演奏シーケンスを示すデータ)が楽器同定システム3、楽曲同定システム4、および演奏追従システム5に入力されてもよい。   In the above-described embodiment, the example in which the sound signal output from the microphone that collects the performance sound is input to the musical instrument identification system 3, the music identification system 4, and the performance tracking system 5 has been described. Performance data output from an electronic musical instrument (for example, data indicating a performance sequence such as MIDI (Musical Instrument Digital Interface) data) may be input to the musical instrument identification system 3, the music identification system 4, and the performance tracking system 5. .

操作手段15が受け付ける操作は、基準位置を変更する指示を入力するためのものに限定されない。例えば、楽譜の表示倍率の変更など、基準位置の変更を伴わないものであってもよい。   The operation accepted by the operation means 15 is not limited to the one for inputting an instruction to change the reference position. For example, the reference position may not be changed, such as changing the display magnification of a score.

コンテンツ表示システム10の構成は実施形態で例示したものに限定されない。例えば、楽器同定システム3、楽曲同定システム4、および演奏追従システム5の少なくとも一部は省略されてもよい。   The configuration of the content display system 10 is not limited to that exemplified in the embodiment. For example, at least a part of the musical instrument identification system 3, the music identification system 4, and the performance following system 5 may be omitted.

4.他の実施形態
4−1.コンテンツ再生システム
図6は、一実施形態に係るコンテンツ再生システム60の機能構成を例示する図である。コンテンツ再生システム60は、システムの外部から入力されるトリガと同期してコンテンツの再生を進行させるシステムである。なお、コンテンツ再生システム60は、コンテンツ表示システム10を一般化したシステムである。コンテンツ再生システム60とコンテンツ表示システム10との関係については後述する。
4). Other Embodiments 4-1. Content Playback System FIG. 6 is a diagram illustrating a functional configuration of a content playback system 60 according to an embodiment. The content reproduction system 60 is a system that advances content reproduction in synchronization with a trigger input from outside the system. The content reproduction system 60 is a system that generalizes the content display system 10. The relationship between the content reproduction system 60 and the content display system 10 will be described later.

コンテンツ再生システム60は、コンテンツ再生装置6、第1システム7、および第2システム8を有する。コンテンツ再生装置6は、コンテンツを再生する装置である。コンテンツ表示システム10におけるコンテンツ表示装置1は、コンテンツ再生装置6の一例である。コンテンツ表示システム10は、コンテンツ再生の一例としてコンテンツの表示に特化したものである。第1システム7は、外部から入力される第1トリガに応じて情報を出力する装置であり、コンテンツ再生装置6の外部システムである。コンテンツ表示システム10における楽器同定システム3、楽曲同定システム4、および演奏追従システム5は、それぞれ、第1システム7の一例である。第2システム8は、第1トリガとは異なる第2トリガに応じて情報を出力する装置である。第2システム8は、コンテンツ再生装置6の内部システムであってもよいし、外部システムであってもよい。図6では内部および外部の双方に図示している。コンテンツ表示システム10における操作手段15は、第2システム8の一例である(この例では内部システムである)。   The content reproduction system 60 includes a content reproduction device 6, a first system 7, and a second system 8. The content playback device 6 is a device for playing back content. The content display device 1 in the content display system 10 is an example of the content reproduction device 6. The content display system 10 is specialized for displaying content as an example of content reproduction. The first system 7 is an apparatus that outputs information in response to a first trigger input from the outside, and is an external system of the content reproduction apparatus 6. The instrument identification system 3, the music identification system 4, and the performance follow-up system 5 in the content display system 10 are examples of the first system 7, respectively. The second system 8 is a device that outputs information according to a second trigger different from the first trigger. The second system 8 may be an internal system of the content reproduction device 6 or an external system. FIG. 6 illustrates both the inside and the outside. The operation means 15 in the content display system 10 is an example of the second system 8 (in this example, an internal system).

コンテンツ再生装置6は、記憶手段61、再生手段62、再生制御手段63、受信手段64、および統合手段66を有する。記憶手段61は、コンテンツデータベース611を記憶する。コンテンツデータベース611は、1以上のコンテンツが記録されたデータベースである。ここで、コンテンツとは、出力される映像または音声の少なくとも一部が時間の経過に伴って変化するデータをいい、例えば、楽譜、電子書籍、映像、または音声のデータをいう。再生手段62は、コンテンツを再生する。再生制御手段63は、再生手段におけるコンテンツの再生を制御する。受信手段64は、第1システム7から情報を受信する。統合手段66は、第1システム7および第2システム8から入力される情報を統合する。統合手段66は、これらを統合した情報を出力する。再生制御手段63は、統合手段66から出力される情報に応じて再生手段62におけるコンテンツの再生を進行させる。   The content reproduction apparatus 6 includes a storage unit 61, a reproduction unit 62, a reproduction control unit 63, a reception unit 64, and an integration unit 66. The storage unit 61 stores a content database 611. The content database 611 is a database in which one or more contents are recorded. Here, the content refers to data in which at least a part of video or audio to be output changes with time, for example, data of a score, an electronic book, video, or audio. The reproduction means 62 reproduces content. The reproduction control unit 63 controls the reproduction of content in the reproduction unit. The receiving unit 64 receives information from the first system 7. The integration unit 66 integrates information input from the first system 7 and the second system 8. The integration unit 66 outputs information obtained by integrating these. The reproduction control unit 63 causes the reproduction unit 62 to reproduce the content in accordance with the information output from the integration unit 66.

より具体的には、コンテンツにおいてはその再生シーケンスが定義されており、再生制御手段63は、その再生シーケンスに従ってコンテンツの再生を制御する。再生シーケンスが定義されているとは、コンテンツのデータが複数に細分化されており、あるトリガが入力されると細分化されたデータの特定の一部が再生されるようにデータが構造化されていることをいう。   More specifically, the playback sequence is defined for the content, and the playback control means 63 controls the playback of the content according to the playback sequence. When a playback sequence is defined, the content data is subdivided into multiple pieces, and the data is structured so that a specific part of the subdivided data is played when a certain trigger is input. It means that

コンテンツ再生装置6は、例えば、コンテンツ表示装置1と同様のハードウェア構成を有する。ストレージ103はコンピュータ装置をコンテンツ再生装置6として機能させるためのプログラム(以下「コンテンツ再生プログラム」という)を記憶している。CPU101がコンテンツ再生プログラムを実行することにより、図6に示される機能が実装される。   The content reproduction device 6 has a hardware configuration similar to that of the content display device 1, for example. The storage 103 stores a program for causing the computer device to function as the content reproduction device 6 (hereinafter referred to as “content reproduction program”). The functions shown in FIG. 6 are implemented by the CPU 101 executing the content reproduction program.

図7は、コンテンツ再生装置6の一実施形態に係る動作を例示するシーケンスチャートである。図6のフローは、例えば、コンテンツ再生装置6においてコンテンツ再生プログラムが起動されたことを契機として開始される。以下において再生制御手段63等の機能構成要素を処理の主体として記載するが、これはコンテンツ再生プログラム等のソフトウェアを実行するCPU101等のハードウェアが処理を行うことを意味する。   FIG. 7 is a sequence chart illustrating an operation according to an embodiment of the content reproduction device 6. The flow in FIG. 6 is started, for example, when the content playback program is started in the content playback device 6. In the following description, functional components such as the playback control means 63 are described as the subject of processing, which means that hardware such as the CPU 101 that executes software such as a content playback program performs processing.

第1システム7は、第1トリガに関する情報を出力する(ステップS61)。第1システム7から情報を受信すると、受信手段64は、受信した情報を統合手段66に供給する(ステップS62)。第1システム7から供給される情報は、例えば、その情報の送信元のシステムの識別情報およびシステムから出力される情報本体を含む。なお、第1システム7が単一の機能しか有さない場合(単一の種類の情報しか出力しない場合)、第1システム7は、送信元のシステムの識別情報を含まなくてもよい。   The first system 7 outputs information related to the first trigger (step S61). When receiving information from the first system 7, the receiving means 64 supplies the received information to the integrating means 66 (step S62). The information supplied from the first system 7 includes, for example, identification information of a system that is the transmission source of the information and an information body that is output from the system. When the first system 7 has only a single function (when only a single type of information is output), the first system 7 may not include identification information of the transmission source system.

ステップS61およびステップS62の処理と並行して、第2システム8は、第2トリガに関する情報を出力する(ステップS64)。第2システム8がコンテンツ再生装置6の外部システムである場合、この情報は受信手段64を介して入力される。受信手段64は、受信した情報を統合手段66に供給する。第2システム8がコンテンツ再生装置6の内部システムである場合、この情報は受信手段64を介さず直接統合手段66に供給される。   In parallel with the processing of step S61 and step S62, the second system 8 outputs information on the second trigger (step S64). When the second system 8 is an external system of the content reproduction device 6, this information is input via the receiving unit 64. The receiving unit 64 supplies the received information to the integrating unit 66. When the second system 8 is an internal system of the content reproduction device 6, this information is directly supplied to the integration unit 66 without the reception unit 64.

ステップS65において、統合手段66は第1システム7から入力された情報および第2システム8から入力された情報を統合する。統合手段66は、統合処理により得られた情報を出力する(ステップS66)。統合処理は、所定のイベントによりトリガされる。   In step S65, the integration unit 66 integrates the information input from the first system 7 and the information input from the second system 8. The integration unit 66 outputs information obtained by the integration process (step S66). The integration process is triggered by a predetermined event.

統合手段16から情報が入力されると、再生制御手段63は、入力された情報に従って再生手段62におけるコンテンツの再生を進行させる(ステップS67)。コンテンツの再生の進行とは、時間の経過に伴って映像および音声少なくとも一方の出力が変化するデータにおいて、時間軸を進行させることをいう。統合処理をトリガするイベントは、例えば、いずれかの系統から新たな情報が入力されたというイベントである。ステップS65からS67の処理は、統合処理をトリガするイベントに応じた頻度で繰り返し実行される。以下、コンテンツ再生システム60の動作例をいくつか説明する。   When information is input from the integration unit 16, the playback control unit 63 advances the playback of content in the playback unit 62 in accordance with the input information (step S67). The progress of content reproduction refers to advancing the time axis in data in which the output of at least one of video and audio changes with the passage of time. The event that triggers the integration process is, for example, an event that new information is input from any of the systems. The processing of steps S65 to S67 is repeatedly executed at a frequency according to the event that triggers the integration processing. Hereinafter, some examples of the operation of the content reproduction system 60 will be described.

4−2.動作例2:電子書籍の再生
この例で、コンテンツは絵本の電子書籍であり、コンテンツの再生は絵本のページを表示することをいう。第1トリガはユーザが絵本を朗読する音声(以下「朗読音声」という)であり、第1システム7は、入力される朗読音声を解析して絵本内のどの位置が朗読されているか特定する。第1システム7は、絵本内の位置を示す情報を出力する。第2トリガは絵本のページをめくるための操作である。第2システム8は、この操作を検知すると、ページめくりを指定する情報を出力する。統合手段66は、朗読音声から得られた位置を示す情報と、ページめくり操作から得られた情報とを統合する。例えば、統合手段66は、ページめくり操作から得られた情報を、朗読音声から得られた位置を示す情報よりも優先して統合する。より詳細には、例えば第2ページを朗読している最中にページめくり操作が行われたときは、朗読されているのが第2ページであったとしても、コンテンツ再生装置6においては第3ページが表示される。
4-2. Operation Example 2: Playing an Electronic Book In this example, the content is an electronic book of a picture book, and the playback of the content means displaying a page of the picture book. The first trigger is voice that the user reads the picture book (hereinafter referred to as “reading voice”), and the first system 7 analyzes the inputted reading voice and identifies which position in the picture book is being read. The first system 7 outputs information indicating the position in the picture book. The second trigger is an operation for turning a picture book page. When the second system 8 detects this operation, it outputs information for designating page turning. The integration unit 66 integrates the information indicating the position obtained from the reading voice and the information obtained from the page turning operation. For example, the integration unit 66 integrates the information obtained from the page turning operation with priority over the information indicating the position obtained from the reading voice. More specifically, for example, when a page turning operation is performed while the second page is being read, even if the page being read is the second page, the content reproduction device 6 uses the third page. A page is displayed.

この例によれば、電子書籍を表示するシステムにおいて、朗読音声によるページめくりと操作入力によるページめくりとを統合することができる。   According to this example, in the system for displaying an electronic book, page turning by reading voice and page turning by operation input can be integrated.

4−3.動作例3:アニメーションの再生
この例で、コンテンツはスプライトアニメーションであり、コンテンツの再生はアニメーションの画像オブジェクトが画面内で移動することをいう。第1トリガはユーザの話し声であり、第1システム7は、入力される音声に応じて、画面内の位置を示す情報を出力する。第2トリガは画像オブジェクトの動きを指定するための操作である。第2システム8は、この操作を検知すると、画像オブジェクトの動きを指定する情報を出力する。統合手段66は、ユーザの音声から得られた位置を示す情報と、ユーザの操作から得られた情報とを統合する。例えば、統合手段66は、ユーザの操作から得られた情報を、ユーザの音声から得られた情報よりも優先して統合する。より詳細には、第1システム7は、ユーザの音声のピッチまたはトーンに応じた軌跡で画像オブジェクトを移動させるための情報を生成する。これに対し第2システム8は、例えばユーザがタッチスクリーンにおいて左から右にフリック入力をしたときには、画像オブジェクトを画面の左から右に高速で移動させる。この高速移動が完了するまでの間は、統合手段66は、ユーザの音声によらずに、画像オブジェクトを画面の左から右に移動させる。
4-3. Operation Example 3: Reproduction of Animation In this example, the content is a sprite animation, and the reproduction of the content means that the animation image object moves within the screen. The first trigger is a user's speaking voice, and the first system 7 outputs information indicating a position in the screen according to the input voice. The second trigger is an operation for designating the movement of the image object. When the second system 8 detects this operation, the second system 8 outputs information specifying the movement of the image object. The integration unit 66 integrates information indicating the position obtained from the user's voice and information obtained from the user's operation. For example, the integration unit 66 integrates information obtained from the user's operation with priority over information obtained from the user's voice. More specifically, the first system 7 generates information for moving the image object along a locus corresponding to the pitch or tone of the user's voice. On the other hand, for example, when the user performs a flick input from the left to the right on the touch screen, the second system 8 moves the image object from the left to the right of the screen at a high speed. Until the high-speed movement is completed, the integration unit 66 moves the image object from the left to the right on the screen regardless of the user's voice.

この例によれば、アニメーションの画像オブジェクトを表示するシステムにおいて、ユーザの音声による画像オブジェクトの移動と、操作入力による画像オブジェクトの移動とを統合することができる。   According to this example, in a system that displays an animated image object, the movement of the image object by the user's voice and the movement of the image object by the operation input can be integrated.

4−4.動作例4:手書きストロークの表示
この例で、コンテンツはページに割り付けられたプレゼンテーションであり、コンテンツの再生はプレゼンテーションのページを進めることをいう。第1トリガはユーザのペン入力である。第1システム7は表示装置およびタッチデバイス(例えばタッチスクリーン)を有し、コンテンツ再生装置6において表示されるものと同じコンテンツが表示される。第1システム7は、ユーザがタッチデバイス上でペンを移動させると、ペンの軌跡に応じた画像オブジェクトを生成する。すなわち、第1システム7のユーザは、コンテンツ上に手書きの書き込みをすることができる。なおこの場合、第1システム7のユーザは、第2システム8のユーザとは別のユーザである。ここでは、第1システム7のユーザを第1ユーザといい、第2システム8のユーザを第2ユーザという。例えば第2ユーザはプレゼンテーションの話者であり、第1ユーザはプレゼンテーションの聴衆である。第1システム7は、例えば、タッチデバイス上で一定期間入力が無い場合、プレゼンテーションのページを進めるための情報を出力する。第2トリガは、プレゼンテーションのページを進めるための操作である。第2システム8は、この操作を検知すると、プレゼンテーションのページを進めるための情報を出力する。統合手段66は、第1ユーザのペン入力から得られた情報と、第2ユーザの操作から得られた情報を統合する。例えば、統合手段66は、第2ユーザの操作から得られた情報を、第1ユーザのペン入力から得られた情報よりも優先して統合する。より詳細には、統合手段66は、第1ユーザのペン入力が行われている間であっても、第2ユーザによりページを進める操作が入力されたときには、プレゼンテーションのページを強制的に進める。
4-4. Operation Example 4: Display of Handwritten Stroke In this example, the content is a presentation assigned to a page, and the reproduction of the content means that the page of the presentation is advanced. The first trigger is a user's pen input. The first system 7 includes a display device and a touch device (for example, a touch screen), and the same content as that displayed on the content reproduction device 6 is displayed. When the user moves the pen on the touch device, the first system 7 generates an image object corresponding to the locus of the pen. That is, the user of the first system 7 can perform handwritten writing on the content. In this case, the user of the first system 7 is a different user from the user of the second system 8. Here, the user of the first system 7 is referred to as a first user, and the user of the second system 8 is referred to as a second user. For example, the second user is the speaker of the presentation and the first user is the audience of the presentation. For example, when there is no input for a certain period on the touch device, the first system 7 outputs information for advancing the presentation page. The second trigger is an operation for advancing the presentation page. When the second system 8 detects this operation, it outputs information for advancing the presentation page. The integration unit 66 integrates information obtained from the pen input of the first user and information obtained from the operation of the second user. For example, the integration unit 66 integrates information obtained from the operation of the second user with priority over information obtained from the pen input of the first user. More specifically, the integration unit 66 forcibly advances the page of the presentation when an operation for advancing the page is input by the second user even while the pen input by the first user is being performed.

この例によれば、プレゼンテーションを表示するシステムにおいて、ユーザのペン入力によるページめくりの停止と、操作入力によるページめくり進行とを統合することができる。   According to this example, in the system for displaying the presentation, it is possible to integrate the page turning stop by the user's pen input and the page turning progress by the operation input.

4−5.動作例5:録音音声の再生
この例で、コンテンツはあらかじめ録音された歌唱音声であり、コンテンツの再生は歌唱音声を再生(出力)することをいう。第1トリガは楽器の演奏音から得られる情報である。第1システム7は上述の演奏追従システム5と同様のシステムであり、入力された演奏音から楽曲内の位置を示す情報を出力する。第2トリガは歌唱音声を所定の楽曲内位置まで早送りまたは巻き戻しするための操作である。第2システム8は、この操作を検知すると、録音音声の再生を所定の楽曲内位置まで移動させるための情報を出力する。統合手段66は、演奏音から得られた楽曲内の位置を示す情報と、ユーザの操作により指定される楽曲内の位置を示す情報とを統合する。例えば、統合手段66は、ユーザの操作から得られた情報を、演奏音から得られた位置情報よりも優先して統合する。より詳細には、頭統合手段66は、楽器の演奏と同期して歌唱音声を出力するが、ユーザにより所定の楽曲内位置まで再生位置を進める操作が入力されたときには、再生位置を強制的に移動する。
4-5. Operation Example 5: Reproduction of Recorded Voice In this example, the content is a pre-recorded singing voice, and the reproduction of the content means playing (outputting) the singing voice. The first trigger is information obtained from the performance sound of the musical instrument. The first system 7 is the same system as the performance follow-up system 5 described above, and outputs information indicating the position in the music from the input performance sound. The second trigger is an operation for fast-forwarding or rewinding the singing voice to a predetermined position in the music. When the second system 8 detects this operation, the second system 8 outputs information for moving the reproduction of the recorded sound to a predetermined position in the music. The integration unit 66 integrates information indicating the position in the music obtained from the performance sound and information indicating the position in the music specified by the user's operation. For example, the integration unit 66 integrates information obtained from the user's operation with priority over position information obtained from the performance sound. More specifically, the head integration means 66 outputs the singing sound in synchronization with the performance of the musical instrument. However, when the user inputs an operation for advancing the playback position to a predetermined position in the music, the playback position is forcibly set. Moving.

この例によれば、録音音声を再生するシステムにおいて、演奏音との同期と、操作入力による楽曲内位置の指定とを統合することができる。   According to this example, in the system for reproducing the recorded sound, the synchronization with the performance sound and the designation of the position in the music by the operation input can be integrated.

5.変形例
動作例1〜5はあくまで例示であり、本発明はこれらに限定されない。コンテンツ、第1トリガ、および第2トリガ、並びにこれらの組み合わせはどのようなものであってもよい。例えば、コンテンツが楽譜であり、第1トリガがペン入力であり、第2トリガが演奏音であってもよい。
5. Modifications The operation examples 1 to 5 are merely examples, and the present invention is not limited to these. The content, the first trigger, the second trigger, and combinations thereof may be any. For example, the content may be a score, the first trigger may be a pen input, and the second trigger may be a performance sound.

統合手段16または統合手段66における統合処理のアルゴリズムは、動作例で例示したものに限定されない。例えば、第1トリガおよび第2トリガが、いずれも共通のパラメータの値を増減させるものである場合において、第1トリガおよび第2トリガに関する情報を取捨選択する処理に代わり、第1トリガに関する情報により指定される値および第2トリガに関する情報により指定される値の平均値を計算する等の演算処理が行われてもよい。この場合、統合手段16または統合手段66は、この演算処理により得られた情報を出力する。   The algorithm of the integration process in the integration unit 16 or the integration unit 66 is not limited to that exemplified in the operation example. For example, when the first trigger and the second trigger both increase or decrease the value of the common parameter, instead of the process of selecting information regarding the first trigger and the second trigger, the information regarding the first trigger is used. An arithmetic process such as calculating an average value of the designated value and the value designated by the information on the second trigger may be performed. In this case, the integration unit 16 or the integration unit 66 outputs information obtained by this calculation process.

コンテンツ表示システム10およびコンテンツ再生システム60のハードウェア構成は実施形態で例示したものに限定されない。例えば、コンテンツ表示装置1は、汎用のコンピュータ装置ではなく電子楽器等の特定用途のコンピュータ装置に実装されてもよい。また、コンテンツ表示システム10およびコンテンツ再生システム60の機能とハードウェアとの対応関係は実施形態で例示したものに限定されない。例えば、コンテンツ表示装置1またはコンテンツ再生装置6の機能の一部は、ネットワーク上のサーバ装置に実装されてもよい。   The hardware configurations of the content display system 10 and the content reproduction system 60 are not limited to those exemplified in the embodiment. For example, the content display device 1 may be mounted not on a general-purpose computer device but on a specific purpose computer device such as an electronic musical instrument. Further, the correspondence between the functions of the content display system 10 and the content reproduction system 60 and the hardware is not limited to that exemplified in the embodiment. For example, some of the functions of the content display device 1 or the content playback device 6 may be implemented in a server device on a network.

コンテンツ表示プログラムまたはコンテンツ再生プログラムは、光ディスク、磁気ディスク、半導体メモリなどの記憶媒体により提供されてもよいし、インターネット等の通信回線を介してダウンロードされてもよい。   The content display program or the content reproduction program may be provided by a storage medium such as an optical disk, a magnetic disk, or a semiconductor memory, or may be downloaded via a communication line such as the Internet.

1…コンテンツ表示システム、2…コンテンツデータベース、3…楽器同定システム、4…楽曲同定システム、5…演奏追従システム、6…コンテンツ再生装置、7…第1システム、8…第2システム、10…コンテンツ表示システム、11…記憶手段、12…表示手段、13…表示制御手段、14…受信手段、15…操作手段、16…統合手段、60…コンテンツ再生システム、61…記憶手段、62…再生手段、63…再生制御手段、64…受信手段、66…統合手段、91…楽譜表示領域、92…操作領域、101…CPU、102…メモリ、103…ストレージ、104…入出力IF、105…ディスプレイ、106…入力装置、911…小節、921…画像オブジェクト、922…画像オブジェクト、923…画像オブジェクト DESCRIPTION OF SYMBOLS 1 ... Content display system, 2 ... Content database, 3 ... Instrument identification system, 4 ... Music identification system, 5 ... Performance follow-up system, 6 ... Content reproduction apparatus, 7 ... 1st system, 8 ... 2nd system, 10 ... Content Display system 11 ... Storage means 12 ... Display means 13 ... Display control means 14 ... Reception means 15 ... Operation means 16 ... Integration means 60 ... Content reproduction system 61 ... Storage means 62 ... Reproduction means 63 ... Reproduction control means, 64 ... Reception means, 66 ... Integration means, 91 ... Score display area, 92 ... Operation area, 101 ... CPU, 102 ... Memory, 103 ... Storage, 104 ... Input / output IF, 105 ... Display, 106 ... Input device, 911 ... Bar, 921 ... Image object, 922 ... Image object, 923 ... Image object

Claims (4)

1または複数ページからなるコンテンツのデータを取得するステップと、
外部の第1システムから前記コンテンツ上の位置を指定する第1情報を受信するステップと、
前記第1システムと異なる第2システムから前記コンテンツ上の位置を指定する第2情報の入力を受け付けるステップと、
前記第1情報および前記第2情報を統合するステップと、
前記統合された情報を用いて前記コンテンツの表示を更新するステップと
を有するコンテンツ表示方法。
Obtaining content data comprising one or more pages;
Receiving first information specifying a position on the content from an external first system;
Receiving an input of second information specifying a position on the content from a second system different from the first system;
Integrating the first information and the second information;
Updating the display of the content using the integrated information.
前記第1システムと機能が異なる外部の第3システムから前記コンテンツに関する第3情報を受信するステップを有し、
前記統合するステップにおいて、前記第1情報、前記第2情報、および前記第3情報が統合される
請求項1に記載のコンテンツ表示方法。
Receiving third information related to the content from an external third system having a function different from that of the first system;
The content display method according to claim 1, wherein in the integrating step, the first information, the second information, and the third information are integrated.
前記第3情報は、複数のコンテンツの中から一のコンテンツを特定する情報である
請求項2に記載のコンテンツ表示方法。
The content display method according to claim 2, wherein the third information is information for specifying one content from among a plurality of contents.
前記第3情報は、複数の楽器の中から一の楽器を特定する情報である
請求項2に記載のコンテンツ表示方法。
The content display method according to claim 2, wherein the third information is information for specifying one musical instrument from among a plurality of musical instruments.
JP2016217061A 2016-11-07 2016-11-07 Contents display method Pending JP2018077557A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016217061A JP2018077557A (en) 2016-11-07 2016-11-07 Contents display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016217061A JP2018077557A (en) 2016-11-07 2016-11-07 Contents display method

Publications (1)

Publication Number Publication Date
JP2018077557A true JP2018077557A (en) 2018-05-17

Family

ID=62150681

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016217061A Pending JP2018077557A (en) 2016-11-07 2016-11-07 Contents display method

Country Status (1)

Country Link
JP (1) JP2018077557A (en)

Similar Documents

Publication Publication Date Title
US11137826B2 (en) Multi-track playback of media content during repetitive motion activities
US11348561B2 (en) Performance control method, performance control device, and program
JP4356027B2 (en) Information processing apparatus and method, and program
EP2760014A1 (en) Method for making audio file and terminal device
US20150053067A1 (en) Providing musical lyrics and musical sheet notes through digital eyewear
US10799795B1 (en) Real-time audio generation for electronic games based on personalized music preferences
US10748515B2 (en) Enhanced real-time audio generation via cloud-based virtualized orchestra
US20180005618A1 (en) Information processing method, terminal device and computer storage medium
JP5549521B2 (en) Speech synthesis apparatus and program
JP6682953B2 (en) Music score display control method, music score display control device, music score display control program
US20210335331A1 (en) Image control system and method for controlling image
JP2015163982A (en) Voice synthesizer and program
CN112883223A (en) Audio display method and device, electronic equipment and computer storage medium
JP2013092912A (en) Information processing device, information processing method, and program
JP2018077557A (en) Contents display method
CN113821189A (en) Audio playing method and device, terminal equipment and storage medium
US9508329B2 (en) Method for producing audio file and terminal device
JP2015060207A (en) Music data display device, music data presentation method, and program
JP5935815B2 (en) Speech synthesis apparatus and program
JP6736934B2 (en) Music player and program
JP6149917B2 (en) Speech synthesis apparatus and speech synthesis method
JP2021018551A (en) Information apparatus, automatic setting method, and automatic setting program
JP4648707B2 (en) Program, information storage medium, and game system
US20230245636A1 (en) Device, system and method for providing auxiliary information to displayed musical notations
WO2024024105A1 (en) Sound reproduction device, program, and reproduction control method