JP2006058577A - Data processor and program for processing two or more time-series data - Google Patents

Data processor and program for processing two or more time-series data Download PDF

Info

Publication number
JP2006058577A
JP2006058577A JP2004240011A JP2004240011A JP2006058577A JP 2006058577 A JP2006058577 A JP 2006058577A JP 2004240011 A JP2004240011 A JP 2004240011A JP 2004240011 A JP2004240011 A JP 2004240011A JP 2006058577 A JP2006058577 A JP 2006058577A
Authority
JP
Japan
Prior art keywords
data
timing
score
content
element data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004240011A
Other languages
Japanese (ja)
Inventor
Kenichi Yamauchi
健一 山内
Takahiro Ohara
高広 大原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2004240011A priority Critical patent/JP2006058577A/en
Publication of JP2006058577A publication Critical patent/JP2006058577A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a means permitting to easily and accurately perform a job for judging whether or not consistency is maintained among different forms of data accompanied by time-series information. <P>SOLUTION: A decision part 124 retrieves a prescribed kind of music element data from logical music data acquired by a logical music data acquisition part 121, and retrieves performance element data including timing data showing the same timing or neighboring timing as the timing data included in the retrieved music element data from the performance control data acquired by a performance control data acquisition part 122. The decision part 124 decides whether or not the consistency is maintained between the contents of the retrieved music element data and performance element data. When deciding that inconsistency exists between those data, the decision part 124 creates a correction candidate data, and a permutation part 127 alters the logical music data and the performance control data according to the correction candidate data. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、複数の時系列データの処理技術に関し、より具体的には、複数の関連する時系列データにおける不整合を検出するための技術に関する。   The present invention relates to a technique for processing a plurality of time series data, and more specifically, to a technique for detecting inconsistencies in a plurality of related time series data.

楽曲の演奏習得を支援する目的で、楽曲の楽譜をディスプレイに表示させると同時に、自動演奏装置に当該楽曲の自動演奏を行わせたり、当該楽曲の演奏習得者のためにメトロノーム音を鳴らせたりする技術がある。   For the purpose of supporting the acquisition of musical performance, the musical score is displayed on the display, and at the same time, the automatic performance device automatically performs the musical composition, or the metronome sounds for the musical performance master. There is technology.

例えば、特許文献1および特許文献2には、楽曲の進行に合わせて、当該楽曲の楽譜のうち現在演奏等がなされている部分を順次ディスプレイに表示する技術が開示されている。
特開平08−123416号公報 特開2001−042762号公報
For example, Patent Literature 1 and Patent Literature 2 disclose a technique for sequentially displaying a portion of a musical score of a musical piece currently being played on a display in accordance with the progress of the musical piece.
Japanese Patent Application Laid-Open No. 08-123416 JP 2001-047662 A

ところで、楽曲の楽譜をディスプレイ等に表示させると同時に、自動演奏装置に当該楽曲の自動演奏を行わせる場合、楽譜により示される情報と自動演奏装置に演奏の指示を与える演奏制御データとの間に整合性がなければならない。自動演奏装置により行われる演奏が楽譜の内容に従っていないと、自動演奏装置により行われる演奏を模範演奏としつつ楽譜に従った演奏を行おうとするユーザが、模範演奏と楽譜のいずれを信頼してよいか分からず混乱したり、誤った演奏方法や知識を身に付けてしまったりするからである。   By the way, when the musical score is displayed on a display or the like and at the same time, the automatic performance apparatus performs automatic performance of the musical composition, between the information indicated by the musical score and the performance control data that gives the automatic performance apparatus a performance instruction. There must be consistency. If the performance performed by the automatic performance device does not conform to the content of the score, the user who wants to perform the performance according to the score while using the performance performed by the automatic performance device as an exemplary performance may trust either the exemplary performance or the score. This is because they are confused and don't know how to play.

しかし、楽譜を表示するためのデータと、自動演奏装置に演奏者の指示を与える演奏制御データとは、異なるプロセスにより作成される場合がある。例えば、印刷物としての楽譜を見ながら、あるミュージックエンジニアが楽譜を表示するためのデータを作成する一方で、他のミュージックエンジニアが演奏制御データを作成するような場合である。このように、異なるプロセスにより作成されるデータ間には、データ入力ミス等により不整合が生じる可能性がある。   However, the data for displaying the score and the performance control data for giving the player's instruction to the automatic performance device may be created by different processes. For example, this is a case where a music engineer creates data for displaying a score while viewing a score as a printed material, while another music engineer creates performance control data. As described above, there is a possibility that inconsistency may occur between data created by different processes due to a data input error or the like.

従来、そのようなデータ間の不整合を検出し修正する作業は手作業で行われていた。すなわち、チェック担当者が楽譜の表示用データに従いディスプレイに表示される楽譜を目で確認すると同時に、演奏制御データに従い自動演奏装置により自動演奏される演奏音を耳で確認し、それらの内容を比べることにより、データ間の不整合の有無をチェックし、誤りがあればいずれかのデータを修正していた。このような従来のチェック作業は多大な時間と労力を要するだけでなく、チェック担当者の経験や能力によってチェックの品質が左右される、という問題があった。   Conventionally, the work of detecting and correcting such inconsistencies between data has been performed manually. In other words, the person in charge of the check visually confirms the score displayed on the display according to the display data of the score, and at the same time, confirms the performance sound automatically played by the automatic performance device according to the performance control data, and compares the contents. As a result, the data is checked for inconsistencies, and if there is an error, one of the data is corrected. Such conventional check work not only requires a lot of time and labor, but also has a problem that the quality of the check depends on the experience and ability of the checker.

同様な問題は、例えば楽譜を表示するためのデータと熟練演奏者による模範演奏の様子を録画した動画データとの間にも生じる。さらに、楽曲に関するものに限らず、例えば映画の内容を示す動画データと、その映画の字幕を示す文字データとの間等においても生じる。すなわち、この問題は相互に整合していることが要求される異なる形式の時系列データ間に広く生じる問題であると言える。   A similar problem occurs between, for example, data for displaying a musical score and moving image data in which an example performance by an experienced player is recorded. Furthermore, the present invention is not limited to music, but occurs, for example, between moving image data indicating the contents of a movie and character data indicating subtitles of the movie. That is, it can be said that this problem occurs widely between time series data of different formats that are required to be consistent with each other.

上記の状況に鑑み、本発明は、相互に整合していることが要求される異なる形式の時系列データ間において、整合性が保たれているか否かを判定する作業を容易かつ正確に行うことを可能とする手段を提供することを目的とする。   In view of the above situation, the present invention makes it easy and accurate to determine whether or not consistency is maintained between time-series data of different formats that are required to be consistent with each other. It is an object of the present invention to provide means for enabling the above.

上記課題を達成するために、本発明は、タイミングを示すタイミングデータと当該タイミングデータにより示されるタイミングに関連するデータである内容データとの組合せである要素データを1以上含む第1の集合データを取得する第1取得手段と、タイミングを示すタイミングデータと当該タイミングデータにより示されるタイミングに関連するデータである内容データとの組合せである要素データを1以上含む集合データであって、前記第1の集合データとは異なる形式の内容データを含む第2の集合データを取得する第2取得手段と、前記第1の集合データに含まれる要素データのうち、特定のタイミングを示すタイミングデータを含む要素データに含まれる内容データにより示される第1の内容と、前記第2の集合データに含まれる要素データのうち、前記特定のタイミングを示すタイミングデータを含む要素データに含まれる内容データにより示される第2の内容とが予め定められた関係を満たすか否かを判定する判定手段とを備えることを特徴とするデータ処理装置を提供する。   In order to achieve the above object, the present invention provides first aggregate data including at least one element data that is a combination of timing data indicating timing and content data that is data related to timing indicated by the timing data. First data acquisition means, aggregate data including at least one element data that is a combination of timing data indicating timing and content data that is data related to the timing indicated by the timing data, the first data Second acquisition means for acquiring second aggregate data including content data in a format different from the aggregate data, and element data including timing data indicating a specific timing among the element data included in the first aggregate data Included in the first content indicated by the content data included in the second set data Determination means for determining whether or not the second content indicated by the content data included in the element data including the timing data indicating the specific timing among the element data satisfies a predetermined relationship. A data processing apparatus is provided.

かかる構成のデータ処理装置によれば、時系列情報を伴う異なる形式のデータ間において、それぞれに含まれるデータのうち、同じタイミングに対応するものの内容が整合しているか否かを自動的に判定させることができる。その結果、ユーザは、手作業で同様の作業を行う場合と比べて手間を要することなく、一定の正確性を伴う結果を得ることができる。   According to the data processing device having such a configuration, it is automatically determined whether or not the contents of the data corresponding to the same timing among the data included in the different types of data accompanied with time-series information are consistent. be able to. As a result, the user can obtain a result with a certain degree of accuracy without taking time and effort compared to the case where the same operation is performed manually.

好ましい態様において、上記のデータ処理装置は、前記判定手段により、前記第1の内容と前記第2の内容とが予め定められた関係を満たさないと判定された場合、前記第1の内容を示す内容データを含む要素データおよび前記第2の内容を示す内容データを含む要素データの少なくともいずれか一方を特定する情報を報知する報知手段を備える。   In a preferred aspect, the data processing device indicates the first content when the determination unit determines that the first content and the second content do not satisfy a predetermined relationship. Informing means for informing information specifying at least one of element data including content data and element data including content data indicating the second content is provided.

かかる構成のデータ処理装置によれば、ユーザは時系列情報を伴う異なる形式のデータ間に不整合があった場合に、その不整合を生じているデータ部分を容易に修正することが可能となる。   According to the data processing apparatus having such a configuration, when there is a mismatch between data of different formats accompanied by time-series information, the user can easily correct the data portion causing the mismatch. .

また、他の好ましい態様において、上記のデータ処理装置は、前記判定手段により、前記第1の内容と前記第2の内容とが予め定められた関係を満たさないと判定された場合、前記第1の内容を示す内容データおよび前記第2の内容を示す内容データの少なくともいずれか一方を、予め定められた条件に従い変更する変更手段を備える。   In another preferable aspect, when the data processing apparatus determines that the first content and the second content do not satisfy a predetermined relationship by the determination unit, the first processing unit And changing means for changing at least one of the content data indicating the content of the content and the content data indicating the second content according to a predetermined condition.

かかる構成のデータ処理装置によれば、ユーザは時系列情報を伴う異なる形式のデータ間に不整合があった場合に、手作業による修正等を行うことなく、その不整合が修正されたデータを得ることができる。   According to the data processing apparatus having such a configuration, when there is a mismatch between data in different formats accompanied by time series information, the user can retrieve the corrected data without performing manual correction or the like. Obtainable.

また、他の好ましい態様において、上記のデータ処理装置により処理される前記第1の集合データおよび前記第2の集合データの各々は、楽曲に含まれる楽音の発音制御を自動演奏装置に指示する演奏制御データ、楽曲の楽譜の構成要素を示すデータと当該構成要素の前記楽曲における時間軸上の位置を示すタイミングデータとの組合せである論理楽譜データ、時系列的に配置された複数の文字データ、楽曲の音または音声を示す音データ、時系列的に配置された複数の静止画データおよび動画データのうちの少なくともいずれか1つを含むデータである。   In another preferred embodiment, each of the first set data and the second set data processed by the data processing device is a performance for instructing an automatic performance device to control pronunciation of a tone included in a musical piece. Control data, logical score data that is a combination of data indicating the components of the musical score and timing data indicating the position of the component on the time axis, a plurality of character data arranged in time series, It is data including at least one of sound data indicating the sound or sound of music, a plurality of still image data and moving image data arranged in time series.

かかる構成のデータ編集装置によれば、例えば、同じ楽曲の楽譜と自動演奏や、映画の映像と字幕など、様々な視聴覚に関するデータ間において、各タイミングにおける整合性のチェックが可能である。   According to the data editing apparatus having such a configuration, it is possible to check consistency at various timings between various audiovisual data such as a score and automatic performance of the same music, a movie image and subtitles.

さらに、本発明は、タイミングを示すタイミングデータと当該タイミングデータにより示されるタイミングに関連するデータである内容データとの組合せである要素データを1以上含む第1の集合データに含まれる要素データのうち、特定のタイミングを示すタイミングデータを含む要素データに含まれる内容データにより示される第1の内容と、タイミングを示すタイミングデータと当該タイミングデータにより示されるタイミングに関連するデータである内容データとの組合せである要素データを1以上含む集合データであって、前記第1の集合データとは異なる形式の内容データを含む第2の集合データに含まれる要素データのうち、特定のタイミングを示すタイミングデータを含む要素データに含まれる内容データにより示される第2の内容とが予め定められた関係を満たすか否かを判定する処理をコンピュータに実行させることを特徴とするプログラムを提供する。   Furthermore, the present invention relates to element data included in first set data including at least one element data that is a combination of timing data indicating timing and content data that is data related to the timing indicated by the timing data. A combination of the first content indicated by the content data included in the element data including the timing data indicating the specific timing, and the content data which is the timing data indicating the timing and the data related to the timing indicated by the timing data Timing data indicating a specific timing among element data included in second set data including content data in a format different from that of the first set data. Specified by the content data included in the included element data And content of providing a program for causing execute processing for determining the computer whether it satisfies a predetermined relationship.

かかるプログラムによれば、上述した本発明にかかるデータ処理装置を、コンピュータにより実現することが可能となる。   According to such a program, the above-described data processing apparatus according to the present invention can be realized by a computer.

本発明にかかるデータ処理装置およびプログラムによれば、手作業による手間を要することなく、時系列情報を伴う異なる形式のデータ間の整合性の有無に関し、正確な判定結果を得ることができる。   According to the data processing device and the program according to the present invention, it is possible to obtain an accurate determination result regarding the presence or absence of consistency between different types of data accompanied by time-series information without requiring manual labor.

[1.第1実施形態]
本発明の第1実施形態にかかるデータ処理装置(以下、「エラーチェックツール10」と呼ぶ)は、ユーザに対する楽曲演奏の習得支援を行う装置(以下、「トレーナーツール20」と呼ぶ)が用いるデータ間の整合性をチェックし、そのデータ間に不整合があった場合、必要なデータの修正を行う装置である。従って、以下、トレーナーツール20の機能概要およびトレーナーツール20が用いるデータの構造を説明した後、本実施形態にかかるエラーチェックツール10の構成および動作を説明する。
[1. First Embodiment]
The data processing apparatus (hereinafter referred to as “error check tool 10”) according to the first embodiment of the present invention is data used by an apparatus (hereinafter referred to as “trainer tool 20”) that supports learning of music performance for the user. This is a device that checks the consistency of data and corrects necessary data when there is a mismatch between the data. Therefore, hereinafter, after describing the functional outline of the trainer tool 20 and the structure of data used by the trainer tool 20, the configuration and operation of the error check tool 10 according to the present embodiment will be described.

[1.1.トレーナーツールの構成]
図1は、トレーナーツール20の構成およびトレーナーツール20に接続されたキーボード30を示す図である。トレーナーツール20は、トレーナーツール20の各構成部の制御を行う制御部201、ユーザに対し楽譜等の表示を行う表示部202、音源部やスピーカ等を備え楽音の発音を行うサウンドシステム203、制御部201が行うべき処理を指示するプログラム等を記憶する記憶部204、キーボード30とのデータの送受信を行う入出力I/F(Interface)205およびトレーナーツール20の構成部間の処理の同期に用いられるクロック信号を送出する発振器206を備えている。キーボード30は、ユーザが楽曲演奏を行うための鍵盤等を備えたミュージックキーボードであり、ユーザの打鍵に応じたデータをトレーナーツール20に送信する。
[1.1. Configuration of trainer tool]
FIG. 1 is a diagram showing the configuration of the trainer tool 20 and a keyboard 30 connected to the trainer tool 20. The trainer tool 20 includes a control unit 201 that controls each component of the trainer tool 20, a display unit 202 that displays a musical score and the like for the user, a sound system 203 that includes a sound source unit and a speaker, etc. Used to synchronize the processing between the storage unit 204 that stores a program instructing the processing to be performed by the unit 201, the input / output I / F (Interface) 205 that transmits and receives data to and from the keyboard 30, and the components of the trainer tool 20. An oscillator 206 for transmitting a clock signal to be transmitted is provided. The keyboard 30 is a music keyboard provided with a keyboard or the like for the user to play music, and transmits data corresponding to the user's keystrokes to the trainer tool 20.

記憶部204は、制御部201に対し各種処理を指示するプログラムに加え、表示部202により表示される楽譜の内容を示す論理楽譜データ2041と、制御部201の制御の下でサウンドシステム203により行われる自動演奏の内容を示す演奏制御データ2042を、それぞれ複数記憶している。ある楽曲に関する論理楽譜データ2041と、同じ楽曲に関する演奏制御データ2042は、例えば拡張子を除くファイル名が共通しており、互いに対応付けがなされている。以下、個々の論理楽譜データ2041を論理楽譜データ2041a、論理楽譜データ2041b、・・・と表し、個々の演奏制御データ2042のそれぞれを演奏制御データ2042a、演奏制御データ2042b、・・・と表す。また、符号末尾が同じ論理楽譜データ2041と演奏制御データ2042は、同じ楽曲に関するデータであるものとする。さらに、論理楽譜データ2041aおよび演奏制御データ2042aは、ともに楽曲「聖者の行進」に関するデータであるものとする。   In addition to a program for instructing the control unit 201 to perform various processes, the storage unit 204 performs logic score data 2041 indicating the content of the score displayed by the display unit 202 and the sound system 203 under the control of the control unit 201. A plurality of pieces of performance control data 2042 indicating the contents of the automatic performance are stored. For example, the logical score data 2041 related to a certain piece of music and the performance control data 2042 related to the same piece of music have the same file name excluding the extension, and are associated with each other. Hereinafter, the individual logical score data 2041 is expressed as logical score data 2041a, logical score data 2041b,..., And the individual performance control data 2042 is expressed as performance control data 2042a, performance control data 2042b,. Further, it is assumed that the logical score data 2041 and the performance control data 2042 having the same code end are data relating to the same music piece. Furthermore, it is assumed that both the logical score data 2041a and the performance control data 2042a are data related to the musical piece “Saint's March”.

[1.2.論理楽譜データ]
続いて、論理楽譜データ2041の構造および役割を説明する。図2は、論理楽譜データ2041aに従ってトレーナーツール20の表示部202に表示される楽譜を示した図である。また、図3および図4は、論理楽譜データ2041aの一部を例示した図であり、図3および図4は、それぞれ図2に示した楽譜の第1段および第4段に対応している。なお、実際には論理楽譜データ2041aは図3および図4に示されるデータを含む一連のデータである。
[1.2. Logic score data]
Next, the structure and role of the logic score data 2041 will be described. FIG. 2 is a diagram showing a score displayed on the display unit 202 of the trainer tool 20 in accordance with the logical score data 2041a. FIGS. 3 and 4 are diagrams illustrating a part of the logical score data 2041a. FIGS. 3 and 4 correspond to the first and fourth levels of the score shown in FIG. 2, respectively. . Actually, the logical score data 2041a is a series of data including the data shown in FIGS.

論理楽譜データ2041aは、図3および図4において各行のデータとして示される要素データ(以下、「楽譜要素データ」と呼ぶ)の集合であり、各楽譜要素データは楽譜に含まれる音符や強弱記号等の各構成要素(以下、「楽譜要素」と呼ぶ)を表示するための情報を含んでいる。楽譜要素データは、楽譜要素データを識別するための「ID(Identifier)」、楽譜要素の表示位置の時間軸方向、すなわちX軸方向の位置を示す「MBT(Measure/Beat/Tick)1」および「MBT2」、楽譜要素の表示位置のY軸方向の位置を示す「Y1」および「Y2」、楽譜要素の種類を示す「Type」、楽譜要素の種類に応じた各種情報を示す「Value」を含んでいる。また、「MBT1」および「Y1」と「MBT2」および「Y2」はそれぞれ対をなし、楽譜上の1点を示す。以下、各楽譜要素データを区別する必要がある場合、IDを付して、楽譜要素データ「1」のように表す。   The logical score data 2041a is a set of element data (hereinafter referred to as “score element data”) shown as data in each row in FIGS. 3 and 4, and each score element data includes notes, dynamic symbols, and the like included in the score. Information for displaying each component (hereinafter referred to as "musical score element"). The score element data includes “ID (Identifier)” for identifying the score element data, “MBT (Measure / Beat / Tick) 1” indicating the time axis direction of the display position of the score element, that is, the position in the X axis direction, and “MBT2”, “Y1” and “Y2” indicating the display position of the score element in the Y-axis direction, “Type” indicating the type of the score element, and “Value” indicating various information according to the type of the score element Contains. In addition, “MBT1” and “Y1” and “MBT2” and “Y2” form a pair, and indicate one point on the score. Hereinafter, when it is necessary to distinguish each piece of musical score element data, an ID is attached and the musical piece element data is represented as “1”.

「MBT1」および「MBT2」は、3つの数値の組で構成されており、それぞれ小節番号、拍番号およびティック番号を示している。ティック番号とは、1拍を所定数に等分した時間単位であるティックの番号であり、以下の説明においては、例として1ティック=1/480拍とする。例えば、「1:1:000」は、第1小節第1拍の開始タイミングを示し、「1:1:001」は第1小節第1拍の開始タイミングから1ティック(1/480拍)だけ経過したタイミングを示す。論理楽譜データ2041aにおいて、「MBT1」および「MBT2」は楽譜の各段における先頭からのタイミングを示す。ただし、楽譜には、音部記号のようにいずれの小節にも属さない楽譜要素がある。そこで、「MBT1」および「MBT2」は、「Type」に応じて、実際には存在しないタイミングを示す「0:0:000」〜「0:1:479」、「#:0:000」(#は正の整数)および「#:X:480」(#およびXは正の整数)といった値をとることができる。   “MBT1” and “MBT2” are composed of a set of three numerical values, each indicating a bar number, a beat number, and a tick number. The tick number is a tick number that is a time unit obtained by equally dividing one beat into a predetermined number. In the following description, for example, 1 tick = 1/480 beats. For example, “1: 1: 000” indicates the start timing of the first beat of the first measure, and “1: 1: 001” indicates only one tick (1/480 beat) from the start timing of the first beat of the first measure. Indicates the elapsed timing. In the logical score data 2041a, “MBT1” and “MBT2” indicate the timing from the beginning of each stage of the score. However, there are musical score elements that do not belong to any measure, such as clef. Accordingly, “MBT1” and “MBT2” indicate “0: 0: 000” to “0: 1: 479”, “#: 0: 000” (“0: 0000”) indicating the timing that does not actually exist according to “Type”. # Is a positive integer) and “#: X: 480” (# and X are positive integers).

「0:0:000」〜「0:1:479」は、第1小節よりも前の位置を示し、音部記号、調子記号、拍子記号等を表示するための楽譜要素データに用いられる。「#:0:000」は、第#小節の始まりを示す小節線の位置を示す。「#:X:480」は、第#小節の終わりを示す小節線の位置を示す。その場合、Xは小節の最終拍の番号であり、例えば4/4拍子の楽曲においては、Xは「4」である。従って、例えば「2:4:480」と「3:0:000」はともに第2小節と第3小節を区切る小節線の位置を示す。本実施形態においては、通常の小節線は後続の小節の始まりを示すものとして扱い、例えば第2小節と第3小節の間に位置する小節線の位置としては「3:0:000」を用いる。そして、各段の最終小節の終了を示す小節線や、反復期間の終点を示すリピート記号のように、楽譜上、後続の小節が存在しない場合において、それらの小節線等の位置を「4:4:480」のように表す。ところで、「Type」が「バーライン」であり、「MBT1」および「MBT2」が「#:X:480」である楽譜要素データは、各段の末尾の小節線、すなわち各段の区切りを示す。そこで、以下、そのような楽譜要素データを「段区切りデータ」と呼ぶ。   “0: 0: 000” to “0: 1: 479” indicate positions before the first measure, and are used for musical score element data for displaying clef symbols, tone symbols, time signature symbols, and the like. “#: 0: 000” indicates the position of a bar line indicating the start of the #th bar. “#: X: 480” indicates the position of a bar line indicating the end of the #th bar. In that case, X is the number of the last beat of the measure. For example, in the music of 4/4 time, X is “4”. Therefore, for example, “2: 4: 480” and “3: 0: 000” both indicate the positions of the bar lines that divide the second bar and the third bar. In the present embodiment, a normal bar line is treated as indicating the start of the subsequent bar, and for example, “3: 0: 000” is used as the bar line position between the second bar and the third bar. . Then, when there are no subsequent bars on the score, such as a bar line indicating the end of the last bar of each stage or a repeat symbol indicating the end point of the repetition period, the positions of those bar lines and the like are set to “4: 4: 480 ". By the way, the musical score element data in which “Type” is “bar line” and “MBT1” and “MBT2” are “#: X: 480” indicates the bar line at the end of each stage, that is, the break of each stage. . Thus, hereinafter, such musical score element data is referred to as “column break data”.

楽譜の各段に対応する楽譜要素データ群において、各楽譜要素データは「MBT1」により示されるタイミングが早い順に並んでいる。また、「MBT1」により示されるタイミングが同じ場合、「Y1」により示される値が小さい順に並んでいる。「Y1」および「Y2」は整数値であり、楽譜において第一線のY軸方向の位置を「100」とし、隣り合う線間の距離を「10」とした場合のY軸方向の位置を示す。例えば、第二線を示す楽譜要素データの「Y1」および「Y2」は「110」となる。   In the musical score element data group corresponding to each stage of the musical score, the musical score element data are arranged in the order of the timing indicated by “MBT1”. When the timings indicated by “MBT1” are the same, the values indicated by “Y1” are arranged in ascending order. “Y1” and “Y2” are integer values. In the score, the position of the first line in the Y-axis direction is “100”, and the distance between adjacent lines is “10”. Show. For example, “Y1” and “Y2” of the musical score element data indicating the second line are “110”.

論理楽譜データ2041aに含まれる全ての楽譜要素データは「MBT1」と「Y1」の値を有しており、「MBT1」と「Y1」の組合せは、楽譜要素データの「Type」に応じて、楽譜要素の基準点もしくは始点を示す。基準点とは、例えばト音記号のト音位置を示す点や音符の符頭の中心点など、1点により位置を特定可能な各楽譜要素が持つ特徴点のことである。「MBT1」と「Y1」の組合せが楽譜要素の基準点を示す場合、その楽譜要素データは「MBT2」と「Y2」の値を持たない。一方、表示位置を特定するために始点と終点を要する楽譜要素は、「MBT1」と「Y1」の組合せが楽譜要素の表示位置の始点を示し、「MBT2」と「Y2」の組合せがその楽譜要素の表示位置の終点を示す。   All the musical score element data included in the logical musical score data 2041a have values of “MBT1” and “Y1”, and the combination of “MBT1” and “Y1” depends on “Type” of the musical score element data. Indicates the reference point or starting point of the score element. The reference point is a feature point of each musical score element whose position can be specified by one point, such as a point indicating the treble position of the treble clef or the center point of the note head. When the combination of “MBT1” and “Y1” indicates the reference point of the score element, the score element data does not have the values “MBT2” and “Y2”. On the other hand, for a musical score element that requires a start point and an end point to specify the display position, the combination of “MBT1” and “Y1” indicates the start point of the display position of the musical score element, and the combination of “MBT2” and “Y2” is the score. Indicates the end point of the display position of the element.

「Type」の値としては、第一線から第五線を示す「スコアライン」、音部記号を示す「クレフ」、調子記号を示す「キー」、拍子記号を示す「タイム」、楽曲の速度表示を示す「テンポ」、音符の符頭を示す「ノートヘッド」、音符の符尾を示す「ステム」、音符の符鈎を示す「フラグ」、小節線を示す「バーライン」、和声記号を示す「コード」、歌詞を示す「リリック」、備考等を示す「メモ」、タイおよびスラーの記号を示す「カーブ」、強弱記号を示す「フォルテ」等、音量変化記号を示す「クレッシェンド」等、速度変化記号を示す「リタルダンド」等、反復記号を示す「リピートマーク」等といった各種記号を示すものが用いられる。   The value of “Type” includes “score line” indicating the first to fifth lines, “clef” indicating the clef, “key” indicating the tone symbol, “time” indicating the time signature, and the speed of the music “Tempo” indicating the display, “Note head” indicating the note head, “Stem” indicating the note tail, “Flag” indicating the note note, “Bar line” indicating the bar line, Harmonic symbol "Cord" indicating lyrics, "Lyric" indicating lyrics, "Memo" indicating remarks, "Curve" indicating tie and slur symbols, "Forte" indicating strength symbols, "Crescendo" indicating volume change symbols, etc. Those indicating various symbols such as “Ritardando” indicating a speed change symbol and “Repeat Mark” indicating a repetition symbol are used.

上記に例示した「Type」の値のうち、例えば「スコアライン」、「ステム」、「バーライン」、「カーブ」および「クレッシェンド」は始点および終点を要する楽譜要素を示しており、「MBT2」および「Y2」の値を持つ。一方、その他の楽譜要素データは「MBT2」および「Y2」の値を持たない。   Among the values of “Type” exemplified above, for example, “score line”, “stem”, “bar line”, “curve”, and “crescendo” indicate musical score elements that require a start point and an end point, and “MBT2”. And “Y2”. On the other hand, the other musical score element data does not have the values “MBT2” and “Y2”.

「Value」は「Type」に応じて様々な値をとり、また不要の場合には値をとらない。例えば、「Type」が「クレフ」の場合、「Value」の値は「ト音記号」、「へ音記号」もしくは「ハ音記号」のいずれかである。また、例えば「Type」が「スコアライン」の場合、「Value」は不要のため、いずれの値も入らない。   “Value” takes various values according to “Type”, and does not take a value when unnecessary. For example, when “Type” is “Clef”, the value of “Value” is any one of “G clef”, “H clef”, or “C clef”. Further, for example, when “Type” is “score line”, “Value” is unnecessary, and therefore no value is entered.

以下、論理楽譜データ2041aにより楽譜の表示が指示される様子を、図2および図3を用いて簡単に説明する。既に述べたように、図3に示されるデータは、図2に示される楽譜の第1段の表示を指示するデータである。楽譜要素データ「1」は、「Y1」および「Y2」により示されるY軸方向「100」の高さに、MBT1「0:0:000」で示される段の左端から、MBT2「4:4:480」で示される段の右端にかけて線を引くことを指示している。すなわち、楽譜要素データ「1」は第1段の第一線の表示を指示している。同様に、楽譜要素データ「2」〜「5」は、第1段の第二線〜第五線の表示を指示している。   Hereinafter, a state in which the display of the score is instructed by the logical score data 2041a will be briefly described with reference to FIGS. As already described, the data shown in FIG. 3 is data instructing the display of the first stage of the score shown in FIG. The musical score element data “1” has an MBT2 “4: 4” from the left end of the stage indicated by MBT1 “0: 0: 000” at the height in the Y-axis direction “100” indicated by “Y1” and “Y2”. : 480 "is instructed to draw a line toward the right end of the stage. That is, the musical score element data “1” indicates the display of the first line of the first row. Similarly, the musical score element data “2” to “5” indicates the display of the second line to the fifth line in the first stage.

楽譜要素データ「6」〜「9」は、それぞれト音記号、テンポ記号、調子記号および拍子記号の表示を指示するデータである。楽譜要素データ「10」および「11」は、第1小節における第1拍および第2拍に位置する休符記号の表示を指示するデータである。楽譜要素データ「12」は、「Oh,」という歌詞の表示を指示するデータである。   The musical score element data “6” to “9” are data instructing display of a treble clef, a tempo symbol, a tone symbol, and a time signature symbol, respectively. The musical score element data “10” and “11” are data for instructing display of rest symbols located at the first beat and the second beat in the first measure. The musical score element data “12” is data instructing display of the lyrics “Oh,”.

楽譜要素データ「13」〜「15」は、それぞれ八分音符の符頭、符尾および符鈎を示し、これら3つで一つの音符の表示を指示している。楽譜要素データ「13」の「MBT1」と「Y1」は符頭の中心点を示しており、「Value」はその符頭が黒であることを示している。楽譜要素データ「14」の「MBT1」と「Y1」は符尾の始点を、また「MBT2」と「Y2」は符尾の終点を示している。トレーナーツール20は、楽譜要素データ「14」の「Y1」の値より「Y2」の値が大きいことから、楽譜要素データ「14」に従って符尾を表示する場合、「MBT1」および「MBT2」で示されるX軸方向の位置より、符頭の幅の半分だけ右側にずれた位置に符尾を表示する。楽譜要素データ「15」の「MBT1」と「Y1」は符鈎の始点を、「MBT2」と「Y2」は符鈎の終点を、また「Value」はその符鈎が八分音符を示す一重の符鈎であることを示している。トレーナーツール20は、楽譜要素データ「15」の「Y1」の値より「Y2」の値が小さいことから、楽譜要素データ「15」に従って符鈎を表示する場合、「MBT1」および「MBT2」で示されるX軸方向の位置より、符頭の幅の半分だけ右側にずれた位置に、右側に凸を描く符鈎を表示する。   The musical score element data “13” to “15” respectively indicate the note head, note tail, and note pad of the eighth note, and these three indicate the display of one note. “MBT1” and “Y1” of the musical score element data “13” indicate the center point of the note head, and “Value” indicates that the note head is black. “MBT1” and “Y1” of the musical score element data “14” indicate the start point of the note, and “MBT2” and “Y2” indicate the end point of the note. Since the value of “Y2” is larger than the value of “Y1” of the score element data “14”, the trainer tool 20 displays “MBT1” and “MBT2” when displaying the note according to the score element data “14”. A note tail is displayed at a position shifted to the right by half the width of the note head from the indicated position in the X-axis direction. In the score element data “15”, “MBT1” and “Y1” are the start points of the note, “MBT2” and “Y2” are the end points of the note, and “Value” is a single that indicates the eighth note. Indicates that it is a sign of Since the value of “Y2” is smaller than the value of “Y1” of the score element data “15”, the trainer tool 20 displays “MBT1” and “MBT2” when displaying the note according to the score element data “15”. A sign having a convex on the right side is displayed at a position shifted to the right side by half the width of the note head from the position in the X-axis direction shown.

楽譜要素データ「16」以降が楽譜要素の表示を指示する仕組みは楽譜要素データ「1」〜「15」と同様であるので、その説明を省略する。ここで、楽譜要素データ「46」は「MBT1」および「MBT2」の値が「4:4:480」であり、「Value」が「バーライン」であるため、段区切りデータである。従って、トレーナーツール20は、楽譜要素データ「46」に従い小節線を表示するとともに、後続の楽譜要素データにより示される楽譜要素を異なる段に表示する。なお、本実施形態においては、楽譜要素データの「MBT1」および「MBT2」は各段の先頭を基準とするタイミングを示すように構成されているが、楽曲の先頭を基準とするタイミングを示すように構成してもよい。その場合、例えば、第4段の先頭小節は楽曲における第13小節であるため、楽譜要素データ「137」の「MBT1」は「13:1:000」となる。   Since the mechanism for instructing the display of the musical score elements from the musical score element data “16” and thereafter is the same as the musical score element data “1” to “15”, description thereof will be omitted. Here, the score element data “46” is column-delimited data because the values of “MBT1” and “MBT2” are “4: 4: 480” and “Value” is “barline”. Therefore, the trainer tool 20 displays the bar line according to the musical score element data “46”, and displays the musical score elements indicated by the subsequent musical score element data in different stages. In this embodiment, “MBT1” and “MBT2” of the musical score element data are configured to indicate the timing based on the beginning of each stage, but indicate the timing based on the beginning of the music. You may comprise. In this case, for example, the first measure in the fourth row is the thirteenth measure in the music, so “MBT1” of the musical score element data “137” is “13: 1: 000”.

[1.3.演奏制御データ]
続いて、演奏制御データ2042の構成を説明する。図5および図6は、演奏制御データ2042aの内容の一部を例示した図であり、それぞれ、図2に示した楽譜の第1段および第4段に対応している。なお、実際には演奏制御データ2042aは図5および図6に示されるデータを含む一連のデータである。演奏制御データ2042aは、図5および図6において各行のデータとして示される要素データ(以下、「演奏要素データ」と呼ぶ)の集合であり、各演奏要素データは楽音の発音を指示したり、歌詞等の楽曲に関する情報を示したりするデータである。各演奏要素データは、演奏要素データを識別するための「ID」、楽曲の演奏パートを示す「Track」、楽曲における特定のタイミングを示す「MBT」、演奏要素データの種類を示す「Type」、演奏要素データの種類に応じた各種情報を示す「Value」を含んでいる。以下、各演奏要素データを区別する必要がある場合、IDを付して、演奏要素データ「1」のように表す。
[1.3. Performance control data]
Next, the configuration of the performance control data 2042 will be described. 5 and 6 are diagrams illustrating a part of the contents of the performance control data 2042a, which correspond to the first and fourth levels of the score shown in FIG. 2, respectively. Actually, the performance control data 2042a is a series of data including the data shown in FIGS. The performance control data 2042a is a set of element data (hereinafter referred to as “performance element data”) shown as data in each row in FIGS. 5 and 6, and each performance element data instructs the pronunciation of a musical sound or lyrics. It is data indicating information related to music such as. Each performance element data includes “ID” for identifying performance element data, “Track” indicating the performance part of the music, “MBT” indicating specific timing in the music, “Type” indicating the type of performance element data, “Value” indicating various information corresponding to the type of performance element data is included. Hereinafter, when it is necessary to distinguish each piece of performance element data, an ID is attached and the performance element data is represented as “1”.

本実施形態において、楽曲「聖者の進行」は演奏パートを1つしか含んでいないため、全ての演奏要素データに関し「Track」は「1」である。演奏要素データは「MBT」により示されるタイミングが早い順に並んでいる。   In the present embodiment, since the musical piece “Progress of Saints” includes only one performance part, “Track” is “1” for all performance element data. The performance element data are arranged in the order of the timing indicated by “MBT”.

「Type」の値は、楽曲の調子を示す「キー」、楽曲の拍子を指示する「タイム」、楽曲の速度を指示する「テンポ」、楽音の発音開始を指示する「ノートオン」、楽音の発音終了を指示する「ノートオフ」、楽曲に付される和声を示す「コード」、楽曲に付される歌詞を示す「リリック」および楽曲に付される備考等の情報を指示する「メモ」のいずれかである。ただし、「Type」の値として、音色や音響効果に関するものなど、上記以外のものを用いるようにしてもよい。また、以下の説明において、「メモ」の「Value」は、「リリック」等の「Value」と異なり、通常は楽譜上に表示されないものとする。   The value of “Type” is “key” indicating the tone of the music, “time” indicating the time of the music, “tempo” indicating the speed of the music, “note-on” indicating the start of musical sound, "Note off" to indicate the end of pronunciation, "chord" to indicate the harmony attached to the song, "lyric" to indicate the lyrics attached to the song, and "memo" to indicate information such as remarks attached to the song One of them. However, as the value of “Type”, a value other than those described above, such as those related to timbre and acoustic effect, may be used. In the following description, “Value” of “Memo” is not normally displayed on the score unlike “Value” such as “Lyric”.

「Type」が「キー」、「タイム」、「コード」、「リリック」および「メモ」である演奏要素データの「Value」は、それぞれ調子、拍子、和声、歌詞および備考等の情報を示す。「Type」が「テンポ」である演奏要素データの「Value」は楽曲の速度を示し、例えば「120」は4分音符が(1/120)分の長さとなる速度であることを示す。「Type」が「ノートオン」である演奏要素データの「Value」は、楽音の音高を示す文字列と音量を示す数値との組合せである。例えば、演奏要素データ「4」のValue「F3(72)」は中央のヘ音を72(中程度)の音量で発音することを示す。なお、音量を示す数値は0〜127のいずれかの整数値である。「Type」が「ノートオフ」である演奏要素データの「Value」は、発音を終了すべき楽音の音高を示す。   “Value” of the performance element data whose “Type” is “key”, “time”, “chord”, “lyric”, and “memo” indicate information such as tone, time signature, harmony, lyrics, and remarks, respectively. . “Value” of the performance element data whose “Type” is “tempo” indicates the speed of the music, for example, “120” indicates that the quarter note has a speed of (1/120). “Value” of the performance element data whose “Type” is “Note On” is a combination of a character string indicating the pitch of a musical sound and a numerical value indicating the volume. For example, the value “F3 (72)” of the performance element data “4” indicates that the central sound is pronounced at a volume of 72 (medium). The numerical value indicating the volume is an integer value from 0 to 127. “Value” of the performance element data whose “Type” is “Note Off” indicates the pitch of a musical tone whose sound generation should be terminated.

演奏制御データ2042aの役割は、SMF(Standard MIDI File)等の、自動演奏装置に自動演奏を指示するための一般的なデータの役割と同様であるので、その説明を省略する。   The role of the performance control data 2042a is the same as the role of general data for instructing automatic performance to an automatic performance device such as SMF (Standard MIDI File), and the description thereof will be omitted.

[1.4.トレーナーツールの動作]
続いて、トレーナーツール20が上述した演奏制御データ2042aおよび論理楽譜データ2041aを用いて、ユーザに対し楽曲演奏の習得支援を行う際の動作を説明する。図7は、ユーザがトレーナーツール20を用いた楽曲演奏の習得を行う際に、トレーナーツール20の表示部202に表示される画面(以下、「トレーニング画面」と呼ぶ)を例示した図である。
[1.4. Operation of trainer tool]
Next, the operation when the trainer tool 20 assists the user in acquiring music performance using the performance control data 2042a and the logical score data 2041a described above will be described. FIG. 7 is a diagram exemplifying a screen (hereinafter, referred to as “training screen”) displayed on the display unit 202 of the trainer tool 20 when the user learns music performance using the trainer tool 20.

トレーニング画面には、ユーザが演奏習得を行う楽曲を指定するためのボックス2021、ユーザが演奏習得を行いたいと考える楽曲部分の開始小節番号を指定するためのボックス2022、ユーザが演奏習得を行いたいと考える楽曲部分の終了小節番号を指定するためのボックス2023、ユーザが楽曲の演奏速度を指定するためのボックス2024、ユーザが模範演奏を聴くか自分で演奏の練習を行うかを選択するためのチェックボックス2025、ユーザが模範演奏もしくはユーザによる練習の開始を指示するためのボタン2026、そしてユーザが模範演奏もしくはユーザによる練習の停止を指示するためのボタン2027が表示されている。   On the training screen, a box 2021 for the user to specify a musical piece for which performance learning is to be performed, a box 2022 for the user to specify a starting measure number of a musical piece portion that the user wants to acquire the musical performance, and a user wants to acquire the performance. A box 2023 for designating the end measure number of the musical piece portion to be considered, a box 2024 for the user to designate the performance speed of the music, and a user for selecting whether to listen to the model performance or practice the performance by himself. A check box 2025, a button 2026 for instructing the user to start the model performance or the practice by the user, and a button 2027 for the user to instruct the model performance or the user to stop the practice are displayed.

また、トレーニング画面には、ユーザによりボックス2021に入力された楽曲名に対応する楽譜のうち、ボックス2022に入力された小節番号から始まる8小節分が、楽譜2028aおよび楽譜2028bとして2段にわたり表示されている。また、楽譜2028aの上部には、現在の演奏位置を示すマーク2029が表示されている。   Also, on the training screen, 8 bars starting from the bar number input in the box 2022 among the music corresponding to the music name input in the box 2021 by the user are displayed in two stages as a music score 2028a and a music score 2028b. ing. In addition, a mark 2029 indicating the current performance position is displayed above the score 2028a.

ユーザは、まずボックス2021において演奏習得を行いたい楽曲名を選択する。ここで、ユーザは「聖者の行進」を選択するものとする。トレーナーツール20は、そのユーザの選択に応じて、記憶部204から演奏制御データ2042aを読み出し、演奏制御データ2042aに含まれる最後の演奏要素データの「MBT」から、楽曲「聖者の行進」が第21小節まであることを特定し、ボックス2022に楽曲の先頭小節番号を示す「001」を、ボックス2023に楽曲の末尾小節番号を示す「021」を表示する。また、トレーナーツール20は、演奏制御データ2042aから「Type」が「テンポ」である最初の演奏要素データを検索し、検索した演奏要素データの「Value」から楽曲「聖者の行進」の速度の初期値が「120」であることを特定し、ボックス2024に「120」を表示する。   First, the user selects the name of a song for which he / she wants to learn a performance in box 2021. Here, it is assumed that the user selects “Saint March”. The trainer tool 20 reads the performance control data 2042a from the storage unit 204 according to the user's selection, and the music “Saint March” is the first from the “MBT” of the last performance element data included in the performance control data 2042a. It is specified that there are 21 measures, and “001” indicating the first measure number of the music is displayed in the box 2022, and “021” indicating the last measure number of the music is displayed in the box 2023. Further, the trainer tool 20 searches the performance control data 2042a for the first performance element data whose “Type” is “tempo”, and the initial speed of the music “Saint March” from the “Value” of the retrieved performance element data. The value is specified as “120”, and “120” is displayed in the box 2024.

続いて、トレーナーツール20は、記憶部204から論理楽譜データ2041aを読み出し、論理楽譜データ2041aに含まれる楽譜要素データの先頭から最初の段区切りデータまでのもの(図3参照)に従い、楽譜2028aの表示を、また最初の段区切りデータと次の段区切りデータの間に含まれる楽譜要素データに従い、楽譜2028bの表示を行う。さらに、トレーナーツール20は、マーク2029を楽譜2028aの第1小節の先頭部分に表示する。   Subsequently, the trainer tool 20 reads the logical score data 2041a from the storage unit 204, and follows the score 2028a of the score 2028a in accordance with the data from the beginning of the score element data included in the logical score data 2041a to the first column break data (see FIG. 3). The musical score 2028b is displayed in accordance with the display and the musical score element data included between the first column break data and the next column break data. Furthermore, the trainer tool 20 displays the mark 2029 at the beginning of the first measure of the score 2028a.

ユーザは、模範演奏を聴きたい場合、チェックボックス2025の「模範演奏」にチェックを付け、ボタン2026をクリックする。その操作に応じて、トレーナーツール20は演奏制御データ2042aに従いサウンドシステム203により楽音の発音を行うことにより、楽曲「聖者の行進」の自動演奏を開始する。その自動演奏の進行に伴い、トレーナーツール20はマーク2029が楽譜2028aにおける現在の演奏位置を示すように、マーク2029の表示位置を十分に短い時間間隔で変更する。   When the user wants to listen to the model performance, the user checks the “model performance” in the check box 2025 and clicks the button 2026. In response to the operation, the trainer tool 20 starts the automatic performance of the musical piece “Saint's March” by generating a musical sound with the sound system 203 in accordance with the performance control data 2042a. As the automatic performance progresses, the trainer tool 20 changes the display position of the mark 2029 at a sufficiently short time interval so that the mark 2029 indicates the current performance position in the score 2028a.

自動演奏が楽譜2028aに示される楽曲部分の最後に達した場合、トレーナーツール20は楽譜2028bに表示していた表示内容で楽譜2028aの表示を更新し、楽譜2028aの左端にマーク2029を移動するとともに、楽譜2028bの位置に後続する段の楽譜を表示する。ただし、更新後の楽譜2028aに表示されている段が最終段である場合、トレーナーツール20は楽譜2028bの位置には何も表示しない。その後、トレーナーツール20は楽曲の自動演奏が終わるまで、上述したトレーニング画面の表示の更新を繰り返す。このようにして、トレーナーツール20により楽譜の表示と模範演奏の自動演奏が連動して行われる。   When the automatic performance reaches the end of the music portion shown in the score 2028a, the trainer tool 20 updates the display of the score 2028a with the display content displayed in the score 2028b, and moves the mark 2029 to the left end of the score 2028a. The score of the next stage is displayed at the position of the score 2028b. However, when the level displayed in the updated score 2028a is the final level, the trainer tool 20 displays nothing at the position of the score 2028b. Thereafter, the trainer tool 20 repeats the updating of the display of the training screen described above until the automatic performance of the music ends. In this way, the display of the score and the automatic performance of the model performance are performed in conjunction with the trainer tool 20.

一方、ユーザは自分で演奏の練習を行いたい場合、チェックボックス2025の「練習」にチェックを付け、ボタン2026をクリックする。その操作に応じて、トレーナーツール20は演奏制御データ2042aに含まれる「Type」が「タイム」および「テンポ」である演奏要素データに従い、サウンドシステム203によるメトロノーム音の発音を開始する。そのメトロノーム音の発音に伴い、トレーナーツール20は、ユーザが「模範演奏」を選択した場合と同様に、楽譜2028a等の表示の更新を行う。ユーザは、表示部202に表示される楽譜に従い、キーボード30を用いて楽曲の演奏を行う。キーボード30はユーザによる打鍵に応じたデータをトレーナーツール20に送信し、トレーナーツール20はキーボード30から受信するデータに従い、サウンドシステム203による楽音の発音を行う。その結果、ユーザは楽譜に従った演奏の練習を行うことができる。   On the other hand, if the user wants to practice the performance by himself / herself, the “practice” check box 2025 is checked and the button 2026 is clicked. In response to the operation, the trainer tool 20 starts the metronome sound generation by the sound system 203 according to the performance element data whose “Type” is “time” and “tempo” included in the performance control data 2042a. As the metronome sound is generated, the trainer tool 20 updates the display of the musical score 2028a and the like, as in the case where the user selects “exemplary performance”. The user performs a musical piece using the keyboard 30 in accordance with the score displayed on the display unit 202. The keyboard 30 transmits data corresponding to the keystroke by the user to the trainer tool 20, and the trainer tool 20 generates a musical tone by the sound system 203 according to the data received from the keyboard 30. As a result, the user can practice performance according to the score.

なお、演奏制御データ2042aには1つの演奏パートに関するデータしか含まれていないが、複数の演奏パートに関するデータを含む演奏制御データ2042を用いる場合、例えばユーザが自分で演奏を行う演奏パートを選択し、トレーナーツール20はユーザにより選択されなかった演奏パートのみを自動演奏するようにしてもよい。   The performance control data 2042a includes only data related to one performance part. However, when using the performance control data 2042 including data related to a plurality of performance parts, for example, the user selects a performance part to perform by himself / herself. The trainer tool 20 may automatically perform only the performance parts not selected by the user.

[1.5.エラーチェックツールの構成]
続いて、本発明にかかるエラーチェックツール10の構成を説明する。図8は、エラーチェックツール10のハードウェア構成を示す図である。エラーチェックツール10は、一般的なコンピュータと同様に、各種データ処理を行うとともに他の構成部の制御を行うCPU(Central Processing Unit)101、CPU101に基本的処理を行わせるBIOS(Basic Input Output System)等を記憶するROM(Read Only Memory)102、CPU101のデータ処理において一時的にデータを記憶するRAM(Random Access Memory)103、エラーチェックツール10の機能を実現するためのアプリケーションプログラム(以下、「エラーチェックプログラム」と呼ぶ)や各種データを記憶するHD(Hard Disk)104、CPU101の指示に従い画像を表示するディスプレイ105、ユーザの操作に応じた信号を送信するキーボード106およびマウス107、そして各種の外部機器との間でデータの送受信を行う入出力I/F108を有している。
[1.5. Error check tool configuration]
Next, the configuration of the error check tool 10 according to the present invention will be described. FIG. 8 is a diagram illustrating a hardware configuration of the error check tool 10. The error check tool 10 is a CPU (Central Processing Unit) 101 that performs various data processing and controls other components as in a general computer, and a BIOS (Basic Input Output System) that performs basic processing on the CPU 101. ) Etc., a ROM (Read Only Memory) 102 for storing data, a RAM (Random Access Memory) 103 for temporarily storing data in the data processing of the CPU 101, and an application program for realizing the functions of the error check tool 10 (hereinafter, “ Called an “error check program”) and an HD (Hard Disk) 104 for storing various data, a display 105 for displaying images in accordance with instructions from the CPU 101, a user A keyboard 106 and a mouse 107 that transmit signals according to the operation of the above, and an input / output I / F 108 that transmits and receives data to and from various external devices.

入出力I/F108には、例えば外部記憶装置401が接続され、エラーチェックツール10は、外部記憶装置401との間で、論理楽譜データ2041および演奏制御データ2042の送受信を行うことができる。また、入出力I/F108はインターネット402とも接続され、インターネット402に接続された他の通信装置との間で、論理楽譜データ2041および演奏制御データ2042の送受信を行うこともできる。以下の説明においては、エラーチェックツール10のHD104には、入出力I/F108等を介してエラーチェックツール10が取得した論理楽譜データ2041a(図3および図4参照)および演奏制御データ2042a(図5および図6参照)が既に記憶されているものとする。   For example, an external storage device 401 is connected to the input / output I / F 108, and the error check tool 10 can transmit / receive logical score data 2041 and performance control data 2042 to / from the external storage device 401. The input / output I / F 108 is also connected to the Internet 402, and can transmit / receive logic score data 2041 and performance control data 2042 to / from other communication devices connected to the Internet 402. In the following description, the logical score data 2041a (see FIGS. 3 and 4) and performance control data 2042a (see FIG. 3) acquired by the error check tool 10 via the input / output I / F 108 and the like are stored in the HD 104 of the error check tool 10. 5 and FIG. 6) are already stored.

CPU101は、エラーチェックプログラムを実行することにより、エラーチェックツール10の各種機能を実現する。図9は、エラーチェックツール10の機能構成を示したブロック図である。ただし、エラーチェックツール10が外部記憶装置401との間でデータ通信を行うための通信部等は、一般的な通信機器におけるものと同様であるため、図9においては省略されている。   The CPU 101 implements various functions of the error check tool 10 by executing an error check program. FIG. 9 is a block diagram showing a functional configuration of the error check tool 10. However, since a communication unit and the like for the error check tool 10 to perform data communication with the external storage device 401 are the same as those in a general communication device, they are omitted in FIG.

エラーチェックツール10は、論理楽譜データ2041をHD104等から取得する論理楽譜データ取得部121、演奏制御データ2042をHD104等から取得する演奏制御データ取得部122、論理楽譜データ取得部121および演奏制御データ取得部122により取得された論理楽譜データ2041および演奏制御データ2042を一時的に記憶する記憶部123、論理楽譜データ2041と演奏制御データ2042との整合性を判定する判定部124、論理楽譜データ2041および演奏制御データ2042の内容や判定部124による判定の結果を画面表示によりユーザに報知する表示部125、ユーザによる論理楽譜データ2041もしくは演奏制御データ2042に対する変更指示を取得する変更指示取得部126、判定部124による判定の結果および変更指示取得部126により取得されるユーザの変更指示に応じて論理楽譜データ2041もしくは演奏制御データ2042に対する変更を行う変更部127、変更部127により変更された論理楽譜データ2041をHD104等に出力する論理楽譜データ出力部128、そして変更部127により変更された演奏制御データ2042をHD104等に出力する演奏制御データ出力部129を備えている。なお、エラーチェックツール10は、表示部125による画面表示による報知に加え、判定部124による判定結果を音等で報知する報知部をさらに備えるようにしてもよい。   The error check tool 10 includes a logical score data acquisition unit 121 that acquires logic score data 2041 from the HD 104 and the like, a performance control data acquisition unit 122 that acquires performance control data 2042 from the HD 104, a logic score data acquisition unit 121, and performance control data. The storage unit 123 that temporarily stores the logical score data 2041 and the performance control data 2042 acquired by the acquisition unit 122, the determination unit 124 that determines the consistency between the logical score data 2041 and the performance control data 2042, and the logical score data 2041 And a display unit 125 that notifies the user of the contents of the performance control data 2042 and the determination result by the determination unit 124 by a screen display, a change instruction acquisition unit 126 that acquires a change instruction for the logical score data 2041 or the performance control data 2042 by the user, Judgment part 24 and the logical score data 2041 changed by the change unit 127 for changing the logical score data 2041 or the performance control data 2042 according to the change instruction of the user acquired by the change instruction acquisition unit 126. Is output to the HD 104 or the like, and a performance control data output unit 129 is provided to output the performance control data 2042 changed by the changing unit 127 to the HD 104 or the like. Note that the error check tool 10 may further include a notification unit that notifies the determination result by the determination unit 124 by sound or the like in addition to the notification by the screen display by the display unit 125.

図9における記憶部123、表示部125および変更指示取得部126は、それぞれ図8におけるCPU101の制御の下で、RAM103、ディスプレイ105およびキーボード106またはマウス107により実現される。図9におけるその他の構成部は、主としてCPU101により実現される。また、以下の説明においては、エラーチェックツール10は図8に示した装置がエラーチェックプログラムを実行することにより実現されるものとするが、図9に示した各構成部の機能をそれぞれ実行可能なプロセッサ等の組合せにより実現されてもよい。   The storage unit 123, the display unit 125, and the change instruction acquisition unit 126 in FIG. 9 are realized by the RAM 103, the display 105, the keyboard 106, and the mouse 107, respectively, under the control of the CPU 101 in FIG. The other components in FIG. 9 are mainly realized by the CPU 101. In the following description, the error check tool 10 is realized by the apparatus shown in FIG. 8 executing the error check program. However, the functions of the components shown in FIG. 9 can be executed. It may be realized by a combination of various processors.

[1.6.エラーチェックツールの動作]
以下、エラーチェックツール10の動作を説明する。図10は、エラーチェックツール10のディスプレイ105に表示される画面(以下、「チェック画面」と呼ぶ)を例示した図である。チェック画面には、ユーザが整合性チェックを行う論理楽譜データ2041および演奏制御データ2042のファイル名(拡張子を除く)を指定するためのボックス1051、ボックス1053に表示されている楽譜の範囲を示すボックス1052、楽譜を示すボックス1053、演奏制御データを表示するためのリスト1054、ユーザが整合性チェックを行いたいと考える項目を選択するためのチェックボックス1055、ユーザがデータ間の不整合の修正を行う方法を選択するためのチェックボックス1056、ユーザがデータ間の不整合チェックの開始を指示するためのボタン1057、そしてユーザが不整合チェックにより変更されたデータの保存を指示するためのボタン1058が含まれている。
[1.6. Operation of error check tool]
Hereinafter, the operation of the error check tool 10 will be described. FIG. 10 is a diagram illustrating a screen (hereinafter referred to as “check screen”) displayed on the display 105 of the error check tool 10. The check screen shows the ranges of musical scores displayed in boxes 1051 and 1053 for designating file names (excluding extensions) of the logical musical score data 2041 and performance control data 2042 for which the user performs consistency check. Box 1052, score box 1053, list 1054 for displaying performance control data, check box 1055 for selecting an item that the user wants to perform consistency check, and correction of inconsistency between data by the user. A check box 1056 for selecting a method to be performed, a button 1057 for instructing the user to start an inconsistency check between data, and a button 1058 for instructing the user to save data changed by the inconsistency check. include.

ユーザは、まずボックス1051において、整合性チェックを行いたい論理楽譜データ2041および演奏制御データ2042のファイル名(拡張子を除く)を選択する。ここで、ユーザは「聖者の行進」を選択するものとする。論理楽譜データ取得部121および演奏制御データ取得部122は、そのユーザの選択に応じて、HD104から論理楽譜データ2041aおよび演奏制御データ2042aをそれぞれ読み出し、記憶部123に一時的に記憶する。表示部125は記憶部123に新たに記憶されたそれらのデータに従い、ボックス1053およびリスト1054の表示を行う。その場合、表示部125は、ボックス1052に初期値として楽曲の最初の4小節を示す「001〜004」を表示するとともに、ボックス1053には論理楽譜データ2041aに従い生成される楽譜の第1段を、またリスト1054には演奏制御データ2042aに含まれる要素データの最初の部分を表示する。また、表示部125は、チェックボックス1055の表示を、初期値である「全て」が選択された状態で、またチェックボックス1056の表示を、初期値である「修正候補を表示」が選択された状態で表示する。図10は、表示部125によるこれらの処理が完了した時点におけるチェック画面を示している。   The user first selects the file names (excluding the extension) of the logical score data 2041 and performance control data 2042 to be checked for consistency in box 1051. Here, it is assumed that the user selects “Saint March”. The logical score data acquisition unit 121 and the performance control data acquisition unit 122 read the logical score data 2041a and the performance control data 2042a from the HD 104 according to the user's selection, and temporarily store them in the storage unit 123. The display unit 125 displays the box 1053 and the list 1054 according to the data newly stored in the storage unit 123. In this case, the display unit 125 displays “001 to 004” indicating the first four measures of the music as an initial value in the box 1052, and displays the first level of the score generated according to the logical score data 2041a in the box 1053. The list 1054 displays the first part of the element data included in the performance control data 2042a. Further, the display unit 125 displays the check box 1055 in a state where “all” as an initial value is selected, and displays the check box 1056 as “display correction candidates” as an initial value. Display with status. FIG. 10 shows a check screen when these processes by the display unit 125 are completed.

ユーザは、チェックボックス1055およびチェックボックス1056に示されるオプションの初期値を用いてデータの整合性チェックを行いたい場合、ボタン1057をクリックする。その操作に応じて、判定部124は、例えば、反復、音高および音長、音量、速度、歌詞、そしてコードの順で、整合性チェックを行う。図11は、判定部124により行われるこれらの判定処理の処理フローを示した図である。   When the user wants to perform data consistency check using the initial values of options shown in the check box 1055 and the check box 1056, the user clicks a button 1057. In accordance with the operation, the determination unit 124 performs the consistency check in the order of repetition, pitch and length, volume, speed, lyrics, and chord, for example. FIG. 11 is a diagram illustrating a processing flow of these determination processes performed by the determination unit 124.

判定部124は、記憶部123に記憶されている論理楽譜データ2041a(図3および図4参照)の先頭から順に、「Type」が反復記号を示す楽譜要素データを検索する。反復記号を示す「Type」としては、「リピートマーク」、「エンディング」、「コーダ」、「セーニョ」等がある。この場合、判定部124はまず、「Type」が「リピートマーク」である楽譜要素データ「136」を検索結果として得る。判定部124は、楽譜要素データ「136」の「Value」が「スタート」であることから、続いて、「Type」が「リピートマーク」であり、かつ「Value」が「エンド」である楽譜要素データを検索する。その結果、判定部124は楽譜要素データ「174」を検索結果として得る。   The determination unit 124 searches for musical score element data in which “Type” indicates a repetition symbol in order from the top of the logical musical score data 2041a (see FIGS. 3 and 4) stored in the storage unit 123. “Type” indicating a repetition symbol includes “repeat mark”, “ending”, “coder”, “Seño”, and the like. In this case, the determination unit 124 first obtains musical score element data “136” whose “Type” is “repeat mark” as a search result. Since the “Value” of the score element data “136” is “Start”, the determination unit 124 continues to the score element whose “Type” is “Repeat Mark” and whose “Value” is “End”. Search for data. As a result, the determination unit 124 obtains the musical score element data “174” as a search result.

続いて、判定部124は、「Type」が「エンディング」である楽譜要素データを先頭から検索する。「Type」が「エンディング」である楽譜要素データは、楽譜においてリピートマークとともに用いられる楽曲末尾における第1括弧、第2括弧等を示す楽譜要素データであるからである。この場合、判定部124は楽譜要素データ「170」を検索結果として得る。判定部124は、楽譜要素データ「170」の「Value」が「ファースト」であることから、続いて、「Type」が「エンディング」であり、かつ「Value」が「セカンド」である楽譜要素データを検索する。その結果、判定部124は楽譜要素データ「175」を検索結果として得る。判定部124は、楽譜要素データ「175」の検索に成功すると、一連の検索処理を終える(ステップS101)。   Subsequently, the determination unit 124 searches score element data whose “Type” is “ending” from the top. This is because the musical score element data in which “Type” is “ending” is musical score element data indicating the first parenthesis, the second parenthesis, and the like at the end of the music used together with the repeat mark in the musical score. In this case, the determination unit 124 obtains score element data “170” as a search result. Since the “Value” of the score element data “170” is “First”, the determination unit 124 continues to the score element data in which “Type” is “Ending” and “Value” is “Second”. Search for. As a result, the determination unit 124 obtains score element data “175” as a search result. If the determination unit 124 succeeds in searching the musical score element data “175”, the determination unit 124 ends the series of search processing (step S101).

判定部124は、上記の一連の検索処理に成功すると(ステップS102;Yes)、検索された楽譜要素データに含まれる「MBT1」および「MBT2」の値を、楽曲の先頭からのタイミングを示す値に変換する処理(以下、「MBT変換」と呼ぶ)を行う(ステップS103)。本実施形態においては、論理楽譜データ2041に含まれる「MBT1」および「MBT2」は、楽譜における各段の先頭からのタイミングを示しているからである。以下、MBT変換の処理を説明する。   If the determination unit 124 succeeds in the above-described series of search processing (step S102; Yes), the values of “MBT1” and “MBT2” included in the searched score element data are values indicating the timing from the beginning of the music piece. (Hereinafter referred to as “MBT conversion”) (step S103). This is because, in the present embodiment, “MBT1” and “MBT2” included in the logical score data 2041 indicate the timing from the beginning of each stage in the score. The MBT conversion process will be described below.

判定部124は、論理楽譜データ2041aの先頭から順次、(1)楽譜要素データが小節の区切りを示すものであるか、(2)楽譜要素データがステップS101において検索された楽譜要素データであるか、また(3)楽譜要素データが反復記号に関するものであるかの判定を行う。以下、(1)〜(3)の判定を「MBT変換のための判定」と呼ぶ。   The determination unit 124 sequentially determines from the top of the logical score data 2041a whether (1) the score element data indicates a bar break or (2) the score element data is the score element data searched in step S101. (3) It is determined whether the musical score element data is related to a repetition symbol. Hereinafter, the determinations (1) to (3) are referred to as “determination for MBT conversion”.

MBT変換のための判定において、楽譜要素データが小節の区切りを示すデータである場合、判定部124はカウンタに1を加算する。このカウンタの数値は先行する小節の総数を示す。なお、小節の区切りを示す楽譜要素データとしては、「Type」が「バーライン」であるものに加え、例えば「Type」が「リピートマーク」であり「Value」が「エンド」であるもの等がある。   In the determination for MBT conversion, when the musical score element data is data indicating a bar break, the determination unit 124 adds 1 to the counter. The value of this counter indicates the total number of preceding measures. Note that the musical score element data indicating the break between bars is not only “Type” is “barline”, but also “Type” is “repeat mark” and “Value” is “end”, for example. is there.

MBT変換のための判定において、判定対象の楽譜要素データがステップS101において検索されたものである場合、判定部124はその楽譜要素データの「MBT1」および「MBT2」に含まれる小節番号にその時点のカウンタの値を加算する。その結果、「MBT1」および「MBT2」は楽曲の先頭からのタイミングを示す数値となる。   In the determination for MBT conversion, if the musical score element data to be determined is the one retrieved in step S101, the determination unit 124 sets the bar number included in “MBT1” and “MBT2” of the musical score element data at that time. Add the counter value. As a result, “MBT1” and “MBT2” are numerical values indicating the timing from the beginning of the music.

また、判定部124は、MBT変換のための判定において、楽譜要素データが反復記号に関するものである場合、その反復記号に従って、既にMBT変換のための判定を行った楽譜要素データに関しても、再度、MBT変換のための判定およびMBT変換を行う。例えば、判定部124は、反復の終点を示す楽譜要素データ「174」までMBT変換のための判定を行った後、反復の始点を示す楽譜要素データ「136」に戻り、再度、楽譜要素データ「136」以降の楽譜要素データに関しMBT変換のための判定を繰り返す。以上がMBT変換の処理である。   Further, in the determination for MBT conversion, when the score element data is related to the repetition symbol, the determination unit 124 again performs the score element data that has already been determined for the MBT conversion according to the repetition symbol. The determination for MBT conversion and MBT conversion are performed. For example, the determination unit 124 performs determination for MBT conversion up to the musical score element data “174” indicating the end point of the repetition, and then returns to the musical score element data “136” indicating the starting point of the repetition. The determination for MBT conversion is repeated for the score element data after “136”. The above is the MBT conversion process.

MBT変換の結果、ステップS101において検索された楽譜要素データの「MBT1」および「MBT2」は、以下のように変換される。以下、MBT変換後の楽譜要素データを変換後楽譜要素データと呼ぶ。なお、楽譜要素データ「136」に関しては、反復記号に従い2回、MBT変換が行われる結果、2つの変換後楽譜要素データとなる。以下、それらを変換後楽譜要素データ「136−1」および変換後楽譜要素データ「136−2」として区別する。
変換後楽譜要素データ「136−1」・・・MBT1「13:0:000」、MBT2「13:0:000」。
変換後楽譜要素データ「170」・・・MBT1「16:0:000」、MBT2「16:4:480」。
変換後楽譜要素データ「174」・・・MBT1「16:4:480」、MBT2「16:4:480」。
変換後楽譜要素データ「136−2」・・・MBT1「17:0:000」、MBT2「17:0:000」。
変換後楽譜要素データ「175」・・・MBT1「20:0:000」、MBT2「21:4:480」。
As a result of the MBT conversion, “MBT1” and “MBT2” of the musical score element data searched in step S101 are converted as follows. Hereinafter, the score element data after the MBT conversion is referred to as the converted score element data. Note that the musical score element data “136” is subjected to MBT conversion twice according to the repetition symbol, resulting in two converted musical score element data. Hereinafter, they are distinguished as converted musical score element data “136-1” and converted musical score element data “136-2”.
Music score element data after conversion “136-1”... MBT1 “13: 0: 000”, MBT2 “13: 0: 000”.
The musical score element data after conversion “170”... MBT1 “16: 0: 000”, MBT2 “16: 4: 480”.
The musical score element data after conversion “174”... MBT1 “16: 4: 480”, MBT2 “16: 4: 480”.
The musical score element data after conversion “136-2”... MBT1 “17: 0: 000”, MBT2 “17: 0: 000”.
Music score element data after conversion “175”... MBT1 “20: 0: 000”, MBT2 “21: 4: 480”.

続いて、判定部124は、変換後楽譜要素データに基づき、楽曲において反復部分を示す小節番号を特定する。この場合、判定部124は変換後楽譜要素データの「Type」および「Value」の内容に従い、変換後楽譜要素データ「136−1」のMBT1「13:0:000」で始まり変換後楽譜要素データ「170」のMBT1「16:0:000」の直前で終わる楽曲の部分、すなわち第13小節〜第15小節と、変換後楽譜要素データ「136−2」のMBT1「17:0:000」で始まり変換後楽譜要素データ「175」のMBT1「20:0:000」の直前で終わる楽曲の部分、すなわち第17小節〜第19小節が反復演奏されるべき部分であると特定する。   Subsequently, the determination unit 124 specifies a bar number indicating a repetitive portion in the music based on the converted musical score element data. In this case, in accordance with the contents of “Type” and “Value” of the converted musical score element data, the determination unit 124 starts with MBT1 “13: 0: 000” of the converted musical score element data “136-1”. The part of the song that ends immediately before MBT1 “16: 0: 000” of “170”, that is, bars 13 to 15, and MBT1 “17: 0: 000” of the musical score element data “136-2” after conversion The part of the music that starts and ends immediately before MBT1 “20: 0: 000” of the musical score element data “175”, that is, the 17th bar to the 19th bar, is specified as a part to be repeatedly played.

続いて、判定部124は演奏制御データ2042aから、「MBT」が「13:1:000」以降のタイミングを示し、反復時において値が同じとなるべきデータを含む演奏要素データを検索する。反復時において値が同じとなるべきデータとは、例えば「Type」が「ノートオン」である演奏要素データの「Value」の値のうち、音高を示す部分である。一方、例えば「Type」が「テンポ」である演奏要素データは、反復時に「Value」の値が変化したり、また反復時のテンポが同じ場合に演奏要素データ自体が省略されたりする場合があるので、判定部124はそれらの演奏要素データを検索対象としない。この場合、判定部124は検索結果として、演奏要素データ「88」を得る。   Subsequently, the determination unit 124 searches the performance control data 2042a for performance element data that indicates the timing after “MBT” is “13: 1: 000” and includes data that should have the same value when repeated. The data that should have the same value at the time of repetition is, for example, the portion indicating the pitch among the values of “Value” of the performance element data whose “Type” is “Note On”. On the other hand, for example, for performance element data whose “Type” is “tempo”, the value of “Value” may change during repetition, or the performance element data itself may be omitted when the tempo during repetition is the same. Therefore, the determination unit 124 does not search these performance element data. In this case, the determination unit 124 obtains performance element data “88” as a search result.

演奏要素データ「88」の「MBT」は「13:1:000」であり、反復演奏されるべき部分は4小節ずれているので、判定部124は演奏制御データ2042aに含まれる要素データのうち、「MBT」が「17:1:000」の前後一定の範囲、例えば「16:4:466」〜「17:1:015」に含まれ、「Type」が「コード」であり、かつ「Value」が「B♭m」であるものを検索する。「MBT」を「17:1:000」とせず、例えば「16:4:466」〜「17:1:015」とするのは、演奏制御データ2042aが演奏者による実際の演奏に基づいて作成されたデータであるような場合、反復部分の対応する演奏要素データ間に、多少のタイミングのずれが生じるからである。   Since “MBT” of the performance element data “88” is “13: 1: 000” and the portion to be repeatedly played is shifted by 4 bars, the determination unit 124 includes the element data included in the performance control data 2042a. , “MBT” is included in a certain range before and after “17: 1: 000”, for example, “16: 4: 466” to “17: 1: 015”, “Type” is “code”, and “ Search for “Value” that is “B ♭ m”. “MBT” is not “17: 1: 000”, but “16: 4: 466” to “17: 1: 015” is created by the performance control data 2042a based on the actual performance by the performer. This is because there is a slight timing difference between the performance element data corresponding to the repetitive portion.

この場合、判定部124は検索に成功し、検索結果として演奏要素データ「120」を得る。判定部124は、このように検索に成功した場合、ステップS101において検索した楽譜要素データと、それらに対応する演奏要素データとの間の整合性に関する条件が満たされていると判定する。なお、ステップS105において、より正確な判定を行うために、判定部124は第13小節〜第15小節に含まれる複数の演奏要素データに関し、第17小節〜第19小節に含まれる対応する演奏要素データの検索を行い、それらの検索が全て成功した場合にのみ、ステップS101において検索した楽譜要素データと演奏制御データ2042aとの整合性が保たれていると判定するようにしてもよい。   In this case, the determination unit 124 succeeds in the search and obtains performance element data “120” as a search result. If the search is successful as described above, the determination unit 124 determines that the condition regarding the consistency between the musical score element data searched in step S101 and the performance element data corresponding thereto is satisfied. In step S105, in order to make a more accurate determination, the determination unit 124 relates to a plurality of performance element data included in the thirteenth bar to the fifteenth bar, and corresponding performance elements included in the seventeenth bar to the nineteenth bar. It may be determined that the consistency between the musical score element data searched in step S101 and the performance control data 2042a is maintained only when data search is performed and all the searches are successful.

上記のように、ステップS105において楽譜要素データと演奏要素データとの整合性が保たれていると判定した場合、判定部124はステップS101の検索処理に戻る(ステップS105;Yes)。論理楽譜データ2041aには、先のステップS101において検索した楽譜要素データの他に反復記号を示すものは含まれていないので、判定部124は2度目のステップS101の検索に失敗し(ステップS102;No)、反復記号に関する整合性チェックの処理を終了する。一方、ステップS101において新たに反復記号を示す楽譜要素データが検索された場合(ステップS102;Yes)、判定部124は新たに検索された楽譜要素データに関し、ステップS103以降の処理を繰り返す。   As described above, when it is determined in step S105 that the consistency between the musical score element data and the performance element data is maintained, the determination unit 124 returns to the search process in step S101 (step S105; Yes). Since the logical score data 2041a does not include data indicating repetition symbols in addition to the score element data searched in the previous step S101, the determination unit 124 fails in the second search in step S101 (step S102; No), the consistency check process regarding the repetition symbol is terminated. On the other hand, when the musical score element data newly indicating the repetition symbol is retrieved in step S101 (step S102; Yes), the determination unit 124 repeats the processing from step S103 on for the newly retrieved musical score element data.

ステップS105における検索において検索に失敗した場合、判定部124は、演奏制御データ2042aの内容がステップS101において検索した楽譜要素データの内容と整合していないと判定する(ステップS105;No)。その場合、判定部124は、図10に示したチェック画面のチェックボックス1056において「修正候補を表示」が選択されていることから、論理楽譜データ2041aを正しいと仮定した場合の演奏制御データ2042aの修正候補データと、演奏制御データ2042aが正しいと仮定した場合の論理楽譜データ2041aの修正候補データとを作成する。より具体的には、例えば、判定部124は演奏制御データ2042aの第17小節〜第19小節の内容を第13小節〜第15小節の内容で置換したものを演奏制御データ2042aの修正候補データとして作成する。また、判定部124は論理楽譜データ2041aからステップS101で検索した楽譜要素データを削除したものを、論理楽譜データ2041aの修正候補データとして作成する。判定部124は、上記のように作成した修正候補データを、修正箇所を示すデータ(以下、「修正箇所データ」と呼ぶ)とともに表示部125および変更部127に送出し(ステップS106)、一連の処理をいったん終了する。   If the search fails in the search in step S105, the determination unit 124 determines that the content of the performance control data 2042a is not consistent with the content of the musical score element data searched in step S101 (step S105; No). In that case, since “display correction candidates” is selected in the check box 1056 of the check screen shown in FIG. 10, the determination unit 124 selects the performance control data 2042a when the logical score data 2041a is assumed to be correct. The correction candidate data and the correction candidate data of the logical score data 2041a when the performance control data 2042a is assumed to be correct are created. More specifically, for example, the determination unit 124 replaces the contents of the seventeenth to nineteenth measures with the contents of the thirteenth to fifteenth measures in the performance control data 2042a as correction candidate data for the performance control data 2042a. create. In addition, the determination unit 124 creates data obtained by deleting the musical score element data searched in step S101 from the logical musical score data 2041a as correction candidate data of the logical musical score data 2041a. The determination unit 124 sends the correction candidate data created as described above to the display unit 125 and the change unit 127 together with data indicating the correction part (hereinafter referred to as “correction part data”) (step S106). Terminate processing once.

上記のステップS106において、表示部125は判定部124から修正候補データおよび修正箇所データを受け取ると、修正箇所データにより示される修正箇所を含むように、ボックス1052、ボックス1053およびリスト1054の表示を更新する。さらに、表示部125は別途、表示窓を開き、図12に例示するような修正候補データの内容を示す画面(以下、「変更指示画面」と呼ぶ)をその表示窓に表示する。変更指示画面には、演奏制御データ2042aが正しいと仮定した場合の論理楽譜データ2041aの修正候補データに従った楽譜の表示を行うボックス1061、論理楽譜データ2041aを正しいと仮定した場合の演奏制御データ2042aの修正候補データを示すリスト1062、それらの修正候補データの選択を行うためのボタン1063およびボタン1064、手動による修正を選択するためのボタン1065を含んでいる。   In step S106, when the display unit 125 receives the correction candidate data and the correction part data from the determination unit 124, the display unit 125 updates the display of the box 1052, the box 1053, and the list 1054 so that the correction part indicated by the correction part data is included. To do. Further, the display unit 125 separately opens a display window and displays a screen (hereinafter referred to as “change instruction screen”) showing the contents of the correction candidate data as illustrated in FIG. 12 on the display window. On the change instruction screen, a box 1061 for displaying a musical score according to correction candidate data of the logical musical score data 2041a when the performance control data 2042a is correct, and performance control data when the logical musical score data 2041a is assumed to be correct are displayed. A list 1062 indicating correction candidate data 2042a, a button 1063 and a button 1064 for selecting the correction candidate data, and a button 1065 for selecting manual correction are included.

ユーザは、チェック画面に示される現状の論理楽譜データ2041aおよび演奏制御データ2042aの内容と、変更指示画面に示される修正候補データの内容とを比較し、いずれかの修正候補データを選択する場合はボタン1063もしくはボタン1064をクリックする。ボタン1063がクリックされた場合、変更指示取得部126はユーザのクリック操作に応じて、論理楽譜データ2041aの修正候補データが選択されたことを示すデータを変更部127に送出する。変更部127は、変更指示取得部126から受け取ったデータに従い、ステップS106において判定部124から受け取った論理楽譜データ2041aの修正候補データにより、記憶部123に記憶されている論理楽譜データ2041aを更新する。同様に、ユーザによりボタン1064がクリックされた場合、変更指示取得部126は演奏制御データ2042aの修正候補データが選択されたことを示すデータを変更部127に送出し、変更部127は演奏制御データ2042aの修正候補データにより、記憶部123に記憶されている演奏制御データ2042aを更新する。   When the user compares the contents of the current logic score data 2041a and performance control data 2042a shown on the check screen with the contents of the correction candidate data shown on the change instruction screen, and selects one of the correction candidate data A button 1063 or a button 1064 is clicked. When the button 1063 is clicked, the change instruction acquisition unit 126 sends data indicating that the correction candidate data of the logical score data 2041a has been selected to the change unit 127 according to the user's click operation. The changing unit 127 updates the logical score data 2041a stored in the storage unit 123 with the correction candidate data of the logical score data 2041a received from the determination unit 124 in step S106 according to the data received from the change instruction acquiring unit 126. . Similarly, when button 1064 is clicked by the user, change instruction acquisition unit 126 sends data indicating that correction candidate data of performance control data 2042a has been selected to change unit 127, and change unit 127 performs performance control data. The performance control data 2042a stored in the storage unit 123 is updated with the correction candidate data 2042a.

一方、ユーザがボタン1065をクリックした場合、変更指示取得部126は手動修正が選択されたことを示すデータを表示部125に送出する。そのデータに応じて、表示部125はチェック画面におけるボックス1053およびリスト1054をユーザにより編集可能とする。楽譜表示もしくはリスト表示されたデータの編集処理は、通常のオーサリングツールにおけるものと同様であるので、その説明を省略する。変更指示取得部126は、ユーザによるボックス1053およびリスト1054に対する編集操作に応じたデータを変更部127に送出する。変更部127は、変更指示取得部126から受け取るデータに従い、記憶部123に記憶されている論理楽譜データ2041aおよび演奏制御データ2042aの内容を更新する。   On the other hand, when the user clicks the button 1065, the change instruction acquisition unit 126 sends data indicating that manual correction has been selected to the display unit 125. In accordance with the data, the display unit 125 allows the user to edit the box 1053 and the list 1054 on the check screen. The editing process for the data displayed in the score display or in the list display is the same as that in a normal authoring tool, and the description thereof will be omitted. The change instruction acquisition unit 126 sends data corresponding to the editing operation on the box 1053 and the list 1054 by the user to the change unit 127. The change unit 127 updates the contents of the logical score data 2041a and the performance control data 2042a stored in the storage unit 123 according to the data received from the change instruction acquisition unit 126.

以上のように、記憶部123に記憶されている論理楽譜データ2041aもしくは演奏制御データ2042aの更新が行われると、判定部124は再度、更新後のそれらのデータを用いて、その時点でいったん終了していた反復記号に関する整合性チェックの処理(図11;ステップS101〜ステップS106)を繰り返す。このようにして、論理楽譜データ2041aと演奏制御データ2042aとの間に反復記号に関する不整合性がなくなるまで、整合性チェックの処理およびデータの変更処理が繰り返される。   As described above, when the logical score data 2041a or the performance control data 2042a stored in the storage unit 123 is updated, the determination unit 124 uses the updated data again to end once at that time. The consistency check process (FIG. 11; step S101 to step S106) regarding the repeated symbol that has been performed is repeated. In this way, the consistency check process and the data change process are repeated until there is no inconsistency regarding the repeated symbols between the logical score data 2041a and the performance control data 2042a.

判定部124は、反復記号に関する整合性チェックの処理を終えると、続いて音高および音量に関し、類似の処理を行う。判定部124は、まず、論理楽譜データ2041aから、「Type」が「ノートヘッド」、「ステム」および「フラグ」であり、「MBT1」が等しい楽譜要素データを検索する。この場合、判定部124は楽譜要素データ「13」〜「15」を検索結果として得る。次に、判定部124は検索した楽譜要素データに先行する楽譜要素データのうち、「Type」が「キー」および「タイム」であり「MBT1」が検索した楽譜要素データに最も近いものを検索する。この場合、判定部124は楽譜要素データ「8」および「9」を検索結果として得る(図11;ステップS101)。判定部124はこれらの検索に成功すると(ステップS102;Yes)、検索した楽譜要素データに対しMBT変換を施す(ステップS103)。その結果、判定部124は変換後楽譜要素データを得る。ただし、この場合は楽譜要素データ「8」、「9」および「13」〜「15」は第1段に関する楽譜要素を示すものであるので、変換後楽譜要素データはMBT変換前の楽譜要素データと同じ内容となる。   When the determination unit 124 finishes the consistency check process for the repetitive symbols, the determination unit 124 subsequently performs similar processes for the pitch and the volume. First, the determination unit 124 searches the musical score element data 2041a for musical score element data in which “Type” is “note head”, “stem”, and “flag” and “MBT1” is equal. In this case, the determination unit 124 obtains score element data “13” to “15” as search results. Next, the determination unit 124 searches for the musical score element data preceding the musical score element data searched for “Type” that is “key” and “time”, and “MBT 1” that is closest to the searched musical score element data. . In this case, the determination unit 124 obtains score element data “8” and “9” as search results (FIG. 11; step S101). When the determination unit 124 succeeds in these searches (step S102; Yes), it performs MBT conversion on the searched score element data (step S103). As a result, the determination unit 124 obtains converted score element data. In this case, however, the musical score element data “8”, “9”, and “13” to “15” indicate the musical score elements related to the first stage, so that the musical score element data after conversion is the musical score element data before MBT conversion. Will be the same content.

変換後楽譜要素データは、それらの組合せにより「1:2:240」のタイミングに配置された中音域のヘ音の八分音符の表示を示している。そこで、判定部124は演奏制御データ2042aの中から、「MBT」が「1:2:240」の前後一定の範囲、例えば「1:2:225」〜「1:2:255」に含まれ、「Type」が「ノートオン」、「Value」に「F3」を含む演奏要素データを検索する。この場合、判定部124は検索結果として演奏要素データ「4」を得る。続いて、判定部124は演奏制御データ2042aの中から、「MBT」が「1:2:479」の前後一定の範囲、例えば「1:2:464」〜「1:3:014」に含まれ、「Type」が「ノートオフ」、「Value」が「F3」である演奏要素データを検索する(ステップS104)。なお、「1:2:479」は、「1:2:240」から八分音符の長さだけ経過したタイミングを示している。この場合、判定部124は検索結果として演奏制御データ「6」を得る。   The musical score element data after the conversion shows the display of eighth notes of midrange high notes arranged at the timing of “1: 2: 240” by the combination thereof. Accordingly, the determination unit 124 is included in the performance control data 2042a within a certain range around “MBT” of “1: 2: 240”, for example, “1: 2: 225” to “1: 2: 255”. , “Type” is “Note On”, and “Value” includes “F3”. In this case, the determination unit 124 obtains performance element data “4” as a search result. Subsequently, the determination unit 124 is included in the performance control data 2042a within a certain range before and after “MBT” is “1: 2: 479”, for example, “1: 2: 464” to “1: 3: 014”. Then, the performance element data in which “Type” is “Note Off” and “Value” is “F3” is searched (step S104). Note that “1: 2: 479” indicates the timing when the length of the eighth note has elapsed from “1: 2: 240”. In this case, the determination unit 124 obtains performance control data “6” as a search result.

判定部124は、上記のように、ステップS101において検索した楽譜要素データに応じた演奏要素データを検索し(ステップS104)、その検索に成功した場合、ステップS101において検索した楽譜要素データとそれらに対応する演奏要素データとの間で、整合性に関する条件が満たされていると判定する(ステップS105;Yes)。その場合、判定部124は処理をステップS101に戻し、論理楽譜データ2041aに含まれる音高および音長に関する他の楽譜要素データについて、ステップS101以降の処理を繰り返す。   As described above, the determination unit 124 searches for performance element data corresponding to the musical score element data searched in step S101 (step S104). If the search is successful, the musical score element data searched in step S101 and the musical score element data are included in them. It is determined that a condition regarding consistency with the corresponding performance element data is satisfied (step S105; Yes). In that case, the determination unit 124 returns the processing to step S101, and repeats the processing from step S101 onward for other musical score element data relating to the pitch and pitch included in the logical musical score data 2041a.

一方、判定部124はステップS104の検索に失敗した場合、ステップS101において検索した楽譜要素データとそれらに対応する演奏要素データとの間で、整合性に関する条件が満たされていないと判定する(ステップS105;No)。その場合、判定部124は演奏制御データ2042aに基づく論理楽譜データ2041aの修正候補データと、論理楽譜データ2041aに基づく演奏制御データ2042aの修正候補データを作成する。   On the other hand, if the determination in step S104 fails, the determination unit 124 determines that a condition regarding consistency is not satisfied between the musical score element data searched in step S101 and the performance element data corresponding thereto (step S104). S105; No). In this case, the determination unit 124 creates correction candidate data for the logic score data 2041a based on the performance control data 2042a and correction candidate data for the performance control data 2042a based on the logic score data 2041a.

例えば、楽譜要素データ「177」、「178」および「181」は第4段の第5小節から第6小節にかけてタイで結ばれ、継続して発音される中音域のヘ音を示す楽譜要素群を示している。しかしながら、図6に示される演奏制御データ2042aには、楽譜要素データ「177」、「178」および「181」により示されるへ音の発音終了のタイミングに対応するMBT「21:4:479」の前後に、Type「ノートオフ」、Value「F3」である演奏要素データは見つからない。代わりに、MBT「20:4:474」にType「ノートオフ」、Value「F3」である演奏要素データ「151」が見つかる。その場合、判定部124は、演奏制御データ2042aに基づき論理楽譜データ2041aの修正候補データとして、楽譜要素データ「177」および「181」を削除した論理楽譜データ2041aを作成する。また、判定部124は、論理楽譜データ2041aに基づき演奏制御データ2042aの修正候補データとして、演奏要素データ「151」の「MBT」を「21:4:479」に変更した演奏制御データ2042aを作成する。   For example, the musical score element data “177”, “178”, and “181” are tied in a tie from the fifth bar to the sixth bar in the fourth row, and a musical score element group that indicates a mid-range haute sound that is continuously pronounced. Is shown. However, the performance control data 2042a shown in FIG. 6 includes the MBT “21: 4: 479” corresponding to the timing of the end of the sound production indicated by the musical score element data “177”, “178”, and “181”. Before and after, the performance element data of Type “Note Off” and Value “F3” cannot be found. Instead, performance element data “151” with Type “Note Off” and Value “F3” is found in MBT “20: 4: 474”. In that case, the determination unit 124 creates logical score data 2041a in which the score element data “177” and “181” are deleted as correction candidate data of the logic score data 2041a based on the performance control data 2042a. Further, the determination unit 124 creates performance control data 2042a in which “MBT” of the performance element data “151” is changed to “21: 4: 479” as correction candidate data of the performance control data 2042a based on the logical score data 2041a. To do.

判定部124は、上記のように作成した修正候補データを表示部125および変更部127に送出する(ステップS106)。判定部124より修正候補データが送出された後の表示部125、変更指示取得部126および変更部127の処理は、反復記号に関する整合性チェックについて説明したものと同様であるので説明を省略する。このようにして、論理楽譜データ2041に含まれる音高および音長に関する楽譜要素データのそれぞれに関し、演奏制御データ2042aに含まれる演奏要素データとの間の整合性がとられる。   The determination unit 124 sends the correction candidate data created as described above to the display unit 125 and the change unit 127 (step S106). Since the processing of the display unit 125, the change instruction acquisition unit 126, and the change unit 127 after the correction candidate data is transmitted from the determination unit 124 is the same as that described for the consistency check regarding repetitive symbols, the description thereof is omitted. In this way, consistency with the performance element data included in the performance control data 2042a is obtained with respect to each of the score element data regarding the pitch and the sound length included in the logical score data 2041.

ところで、音高および音長に関する上記の整合性チェックによっては、論理楽譜データ2041aに含まれる楽譜要素データデータに関し整合性チェックが行われるため、例えば、論理楽譜データ2041aに含まれているべき楽譜要素データが欠落しているような場合、そのエラーは検出されない。そこで、判定部124は引き続き、論理楽譜データ2041aと演奏制御データ2042aとの関係を入れ替えて、上記の音高および音長に関する整合性チェックの処理を行う。その結果、論理楽譜データ2041aと演奏制御データ2042aに含まれる音高および音長に関する要素データは、より高い精度で互いに整合性を備えたものとなる。   By the way, depending on the consistency check regarding the pitch and the pitch, the consistency check is performed on the musical score element data included in the logical musical score data 2041a. For example, the musical score elements to be included in the logical musical score data 2041a If data is missing, the error is not detected. Therefore, the determination unit 124 continues the consistency check process regarding the pitch and the tone length by switching the relationship between the logic score data 2041a and the performance control data 2042a. As a result, the element data relating to the pitch and the pitch included in the logical score data 2041a and the performance control data 2042a have consistency with each other with higher accuracy.

判定部124は、音高および音長に関する上記処理を終えると、音高および音長に関する処理と同様の処理を音量、速度、歌詞およびコードのそれぞれに関し、繰り返す。例えば、判定部124は音量に関する整合性チェックにおいて、「Type」が「フォルテ」である楽譜要素データ「35」を検索し(ステップS101)、それに対応する演奏要素データとして演奏要素データ「18」を検索する(ステップS104)。演奏要素データ「18」の「Value」により示される音量はやや小さい音量を示す「32」であるため、この場合、判定部124は整合性の条件が満たされていないと判定する(ステップS105;No)。そして、判定部124は、楽譜要素データ「35」の「Type」を例えば「メゾピアノ」に変更した論理楽譜データ2041aと、演奏要素データ「18」の「Value」に含まれる数値を例えば「94」に変更した演奏制御データ2042aとをそれぞれ修正候補データとして作成し、表示部125および変更部127に送出する(ステップS106)。   When the determination unit 124 finishes the above processing relating to the pitch and the tone length, the determination unit 124 repeats the same processing as that related to the pitch and the tone length for each of the volume, speed, lyrics, and chord. For example, the determination unit 124 searches the musical score element data “35” whose “Type” is “Forte” in the consistency check regarding sound volume (step S101), and uses the performance element data “18” as performance element data corresponding thereto. Search is performed (step S104). Since the volume indicated by “Value” of the performance element data “18” is “32” indicating a slightly lower volume, in this case, the determination unit 124 determines that the consistency condition is not satisfied (step S105; No). Then, the determination unit 124 sets the numerical value included in the “Value” of the performance element data “18” and the logical score data 2041a obtained by changing “Type” of the score element data “35” to, for example, “Meso Piano”, for example, “94”. The performance control data 2042a changed to is generated as correction candidate data, and sent to the display unit 125 and the change unit 127 (step S106).

また、例えば、判定部124は速度に関する整合性チェックにおいて、「Type」が「リタルダンド」である楽譜要素データ「139」を検索し(ステップS101)、それに対応する演奏要素データとして「Type」が「テンポ」である演奏要素データ「87」および「106」を検索する(ステップS104)。演奏要素データ「87」および「106」の「Value」はそれぞれ「110」および「115」であり、徐々に演奏速度を速める指示であることを示しているので、この場合、判定部124は整合性の条件が満たされていないと判定する(ステップS105;No)。そして、判定部124は、楽譜要素データ「139」の「Type」を例えば「アッチェレランド」に変更した論理楽譜データ2041aと、演奏要素データ「106」の「Value」を例えば「105」に変更した演奏制御データ2042aとをそれぞれ修正候補データとして作成し、表示部125および変更部127に送出する(ステップS106)。   Further, for example, in the speed consistency check, the determination unit 124 searches for the musical score element data “139” whose “Type” is “Ritardando” (step S101), and “Type” is “ The performance element data “87” and “106” which are “tempo” are searched (step S104). “Value” of the performance element data “87” and “106” is “110” and “115”, respectively, indicating that the instruction is to gradually increase the performance speed. It is determined that the sex condition is not satisfied (step S105; No). Then, the determination unit 124 performs the logical score data 2041a in which “Type” in the score element data “139” is changed to “Accherland”, for example, and the performance in which “Value” in the performance element data “106” is changed to “105”, for example. The control data 2042a is created as correction candidate data, respectively, and sent to the display unit 125 and the change unit 127 (step S106).

また、例えば、判定部124は歌詞に関する整合性チェックにおいて、「Type」が「リリック」である楽譜要素データ「43」を検索し(ステップS101)、それに対応する演奏要素データの検索を行うが(ステップS104)、その検索に失敗し、代わりに「Type」が「メモ」である演奏要素データ「27」を発見する。この場合、判定部124は整合性の条件が満たされていないと判定する(ステップS105;No)。そして、判定部124は、楽譜要素データ「43」を削除した論理楽譜データ2041aと、演奏要素データ「27」の「Type」を「リリック」に変更した演奏制御データ2042aとをそれぞれ修正候補データとして作成し、表示部125および変更部127に送出する(ステップS106)。判定部124による、コードに関する整合性チェックの処理も、歌詞に関するものと全く同様である。   Further, for example, in the consistency check regarding lyrics, the determination unit 124 searches for musical score element data “43” whose “Type” is “lyric” (step S101), and searches for performance element data corresponding thereto (step S101). In step S104), the search fails, and instead, the performance element data “27” whose “Type” is “memo” is found. In this case, the determination unit 124 determines that the consistency condition is not satisfied (step S105; No). The determination unit 124 uses the musical score data 2041a from which the musical score element data “43” is deleted and the performance control data 2042a in which “Type” of the performance element data “27” is changed to “lyric” as correction candidate data. It is created and sent to the display unit 125 and the change unit 127 (step S106). The process of checking the consistency with respect to the code by the determination unit 124 is exactly the same as that with respect to the lyrics.

以上はエラーチェックツール10のユーザがチェック画面のチェックボックス1055およびチェックボックス1056に含まれるオプションのうち、初期値を選択した場合についてのエラーチェックツール10の動作であるが、ユーザはチェックボックス1055の他のオプションを選択することにより、エラーチェックツール10に対し、各項目に関して個別に整合性チェックを行わせることができる。また、ユーザはチェックボックス1056の「楽譜を基準に修正」もしくは「演奏を基準に修正」を選択することにより、エラーチェックツール10に自動的に論理楽譜データ2041aと演奏制御データ2042aとの間の不整合を修正させることができる。その場合、判定部124はデータ間の不整合を発見した場合、ユーザの選択に応じた修正候補データを作成し、その修正候補データを変更部127のみに送出し、表示部202は変更指示画面の表示を行わない。そして、変更部127は判定部124から受け取った修正候補データにより記憶部123に記憶されている論理楽譜データ2041aもしくは演奏制御データ2042aを更新する。   The above is the operation of the error check tool 10 when the user of the error check tool 10 selects an initial value among the options included in the check box 1055 and the check box 1056 on the check screen. By selecting other options, it is possible to cause the error check tool 10 to perform consistency check for each item individually. In addition, when the user selects “Modify based on score” or “Modify based on performance” in the check box 1056, the error check tool 10 automatically causes the logical score data 2041 a and the performance control data 2042 a to be between. Inconsistencies can be corrected. In that case, when the determination unit 124 finds inconsistency between the data, it creates correction candidate data according to the user's selection, sends the correction candidate data only to the changing unit 127, and the display unit 202 displays the change instruction screen. Is not displayed. Then, the changing unit 127 updates the logical score data 2041a or performance control data 2042a stored in the storage unit 123 with the correction candidate data received from the determination unit 124.

以上のような各種の整合性チェックを全て完了すると、判定部124はその完了を示すデータを表示部125に送出し、表示部125は整合性チェックの完了を示すメッセージを表示する。ユーザは、整合性チェックの処理において変更の加えられた論理楽譜データ2041aおよび演奏制御データ2042aを保存したい場合、チェック画面のボタン1058をクリックする。その操作に応じて、論理楽譜データ出力部128および演奏制御データ出力部129は、それぞれ記憶部123に記憶されている変更後の論理楽譜データ2041aおよび演奏制御データ2042aをHD104に出力し、HD104はそれらのデータを記憶する。その後、HD104に記憶された論理楽譜データ2041aおよび演奏制御データ2042aは記憶媒体や通信網を介してトレーナーツール20の記憶部204にコピーされ、トレーナーツール20のユーザの演奏習得に用いられるが、その場合、トレーナーツール20の表示部202により表示される楽譜の内容とサウンドシステム203により発音される演奏音との間には不整合がないため、高い品質の演奏習得支援サービスが提供される。   When all the various consistency checks as described above are completed, the determination unit 124 sends data indicating the completion to the display unit 125, and the display unit 125 displays a message indicating the completion of the consistency check. When the user wants to save the logical score data 2041a and the performance control data 2042a that have been changed in the consistency check process, the user clicks a button 1058 on the check screen. In response to the operation, the logic score data output unit 128 and the performance control data output unit 129 output the changed logic score data 2041a and the performance control data 2042a stored in the storage unit 123 to the HD 104, respectively. Store those data. Thereafter, the logical score data 2041a and the performance control data 2042a stored in the HD 104 are copied to the storage unit 204 of the trainer tool 20 via a storage medium or a communication network and used for learning the performance of the user of the trainer tool 20. In this case, since there is no inconsistency between the content of the score displayed on the display unit 202 of the trainer tool 20 and the performance sound generated by the sound system 203, a high-quality performance acquisition support service is provided.

[2.第2実施形態]
本発明の第2実施形態にかかるデータ処理装置(以下、「エラーチェックツール50」と呼ぶ)は、上記第1実施形態におけるエラーチェックツール10と同様に、ユーザに対する楽曲演奏の習得支援を行う装置(以下、「トレーナーツール60」と呼ぶ)において用いられるデータ間の整合性をチェックし、そのデータ間に不整合があった場合、必要なデータの修正を行う装置である。ただし、トレーナーツール60においては、第1実施形態における演奏制御データ2042の代わりに、実際に演奏者により行われた模範演奏の様子を録画したデータである動画データと、その動画データとともに模範演奏の音を録音したデータである演奏音データが用いられる。また、エラーチェックツール50は、第1実施形態における論理楽譜データ2041と演奏制御データ2042との間の整合性チェックの代わりに、論理楽譜データと動画データとの間の整合性チェックを行う。本実施形態におけるその他の点は第1実施形態と同様であるので、以下、本実施形態が第1実施形態と異なる点のみを説明する。また、以下の説明において、第1実施形態における構成部等と共通するものには、同じ名称および符号を用いる。
[2. Second Embodiment]
The data processing apparatus (hereinafter referred to as “error check tool 50”) according to the second embodiment of the present invention is an apparatus that supports learning of music performance for the user, similar to the error check tool 10 in the first embodiment. (Hereinafter, referred to as “trainer tool 60”) is a device that checks consistency of data used and corrects necessary data when there is a mismatch between the data. However, in the trainer tool 60, instead of the performance control data 2042 in the first embodiment, moving image data that is a record of the state of the exemplary performance actually performed by the performer, and the exemplary performance along with the moving image data. Performance sound data, which is data obtained by recording a sound, is used. Further, the error check tool 50 performs a consistency check between the logic score data and the moving image data instead of the consistency check between the logic score data 2041 and the performance control data 2042 in the first embodiment. Since other points in the present embodiment are the same as those in the first embodiment, only the points in which the present embodiment is different from the first embodiment will be described below. Moreover, in the following description, the same name and code | symbol are used for what is common with the structure part etc. in 1st Embodiment.

[2.1.動画データおよび演奏音データ]
トレーナーツール60の記憶部204には、複数の楽曲の各々に関し、論理楽譜データ2041、動画データ501および演奏音データ502が記憶されている。図13は、動画データ501の構造を模式的に示した図である。動画データ501は、複数の静止画データが時系列的に配列されたものである。以下の説明において、動画データ501は20ミリ秒毎の静止画データを含んでおり、各々の静止画データには、その静止画データを表示すべきタイミングを示すデータ(以下、「表示タイミングデータ」と呼ぶ)が付されている。表示タイミングデータは、例えば0分0秒000ミリ秒を示す場合、[0m0s000ms]と表される。以下、表示タイミングデータが付された静止画データの各々を「画像要素データ」と呼ぶ。トレーナーツール60の制御部201は、隣り合う画像要素データに基づき、それらを補間する静止画データを作成し、動画データ501に含まれる静止画データおよび補間により作成した静止画データを表示タイミングデータに示されるタイミングに従い順次、表示部202に送出する。その結果、表示部202により順次表示される静止画は、ユーザにより動画として見える。
[2.1. Movie data and performance sound data]
The storage unit 204 of the trainer tool 60 stores logical score data 2041, moving image data 501 and performance sound data 502 for each of a plurality of music pieces. FIG. 13 is a diagram schematically showing the structure of the moving image data 501. The moving image data 501 is a plurality of still image data arranged in time series. In the following description, the moving image data 501 includes still image data every 20 milliseconds, and each still image data includes data indicating timing at which the still image data is to be displayed (hereinafter, “display timing data”). Called). For example, when the display timing data indicates 0 minute 0 second 000 milliseconds, it is represented as [0m0s000ms]. Hereinafter, each of the still image data to which the display timing data is attached is referred to as “image element data”. The control unit 201 of the trainer tool 60 creates still image data that interpolates them based on adjacent image element data, and uses the still image data included in the moving image data 501 and the still image data created by interpolation as display timing data. The data are sequentially sent to the display unit 202 in accordance with the indicated timing. As a result, the still images sequentially displayed by the display unit 202 are viewed as a moving image by the user.

ところで、既述のように動画データ501は演奏者が実際に模範演奏を行う様子を録画することにより作成されたデータである。演奏者は録画の際に、ハ音の各鍵の近傍に基準位置を示す赤い円形のマーク(以下、「基準マーク」と呼ぶ)が付され、さらに全ての鍵の近傍に打鍵時に点灯する黄色のランプが配置されたミュージックキーボードを用いている。その結果、動画データ501に含まれる画像要素データにより示される画像には、基準マークおよび打鍵された鍵を示すランプを示す画像が含まれている。   By the way, as described above, the moving image data 501 is data created by recording how the performer actually performs the model performance. During recording, the performer is marked with a red circular mark (hereinafter referred to as “reference mark”) indicating the reference position in the vicinity of each key of the sound, and further, a yellow light that is lit when a key is pressed in the vicinity of all keys. A music keyboard with a lamp is used. As a result, the image indicated by the image element data included in the moving image data 501 includes an image indicating a reference mark and a lamp indicating the key that has been pressed.

図14は、演奏音データ502の構造を模式的に示した図である。演奏音データ502は、音の出力をすべきタイミングを示す「タイミング」、右側の音の出力値を示す「値−R」および左側の音の出力値を示す「値−L」を含む要素データ(以下、「音要素データ」と呼ぶ)の集合である。音要素データに含まれる「タイミング」は、[0m0s000ms0]のように表され、「0m0s000ms」の部分は表示タイミングデータと同様に0分0秒000ミリ秒を示し、末尾の「0」は1/32ミリ秒を単位とする時間の経過を示す。例えば、[0m0s000ms5]は、基準タイミングから5/32ミリ秒経過したタイミングを示す。   FIG. 14 is a diagram schematically showing the structure of the performance sound data 502. The performance sound data 502 includes element data including “timing” indicating the timing to output the sound, “value-R” indicating the output value of the right sound, and “value-L” indicating the output value of the left sound. (Hereinafter referred to as “sound element data”). The “timing” included in the sound element data is expressed as [0m0s000ms0], and the portion of “0m0s000ms” indicates 0 minute 0 second 000 milliseconds as in the display timing data, and the last “0” is 1 / Shows the passage of time in units of 32 milliseconds. For example, [0m0s000ms5] indicates a timing when 5/32 milliseconds have elapsed from the reference timing.

トレーナーツール60のサウンドシステム203は、各音要素データに含まれる「値−R」および「値−L」で示される値に応じた電圧を「タイミング」で示されるタイミングでアンプに入力することによりスピーカの振動板を振動させる。その結果、ユーザには演奏音データ502により示される演奏音が聞こえる。   The sound system 203 of the trainer tool 60 inputs a voltage corresponding to a value indicated by “value-R” and “value-L” included in each sound element data to the amplifier at a timing indicated by “timing”. Vibrate the diaphragm of the speaker. As a result, the user can hear the performance sound indicated by the performance sound data 502.

[2.2.トレーナーツールの動作]
図15は、トレーナーツール60の表示部202に表示されるトレーニング画面を例示した図である。トレーナーツール60におけるトレーニング画面は、トレーナーツール20におけるトレーニング画面の構成要素に加え、動画データ501に従った動画を表示するためのボックス601を含んでいる。トレーナーツール60のユーザがチェックボックス2025において「模範演奏」を選択した後、ボタン2026をクリックすると、動画データ501に従った動画がボックス601に表示され、同時に演奏音データ502に従った演奏音がサウンドシステム203から発音され、さらに動画および演奏音の進行に伴い、論理楽譜データ2041に従った楽譜2028aおよび楽譜2028bの表示が順次更新される。
[2.2. Operation of trainer tool]
FIG. 15 is a diagram illustrating a training screen displayed on the display unit 202 of the trainer tool 60. The training screen in the trainer tool 60 includes a box 601 for displaying a moving image according to the moving image data 501 in addition to the components of the training screen in the trainer tool 20. When the user of the trainer tool 60 selects “exemplary performance” in the check box 2025 and clicks the button 2026, a moving image according to the moving image data 501 is displayed in the box 601, and a performance sound according to the performance sound data 502 is simultaneously displayed. The display of the musical score 2028a and the musical score 2028b according to the logical musical score data 2041 is sequentially updated as sound is generated from the sound system 203 and the moving image and performance sound progress.

また、ユーザがチェックボックス2025において「練習」を選択した後、ボタン2026をクリックすると、動画データ501に従った動画がボックス601に表示され、同時にメトロノーム音がサウンドシステム203から発音され、さらに動画およびメトロノーム音の進行に伴い、論理楽譜データ2041に従った楽譜2028aおよび楽譜2028bの表示が順次更新される。   When the user clicks the button 2026 after selecting “practice” in the check box 2025, a moving image according to the moving image data 501 is displayed in the box 601, and at the same time, a metronome sound is generated from the sound system 203. As the metronome sound progresses, the display of the score 2028a and the score 2028b according to the logical score data 2041 is sequentially updated.

[2.3.エラーチェックツールの構成および動作]
エラーチェックツール50のハードウェア構成は、図8に示したエラーチェックツール10のハードウェア構成と同様である。ただし、エラーチェックツール50のHD104には、演奏制御データ2042の代わりに動画データ501および演奏音データ502が記憶されている。エラーチェックツール50のHD104に記憶されている論理楽譜データ2041、動画データ501および演奏音データ502は、同じ楽曲に関するものには拡張子のみが異なる同じファイル名が付されることにより、互いに対応付けられている。同じ楽曲に関する動画データ501と演奏音データ502は、同じ模範演奏を同じクロック信号に基づき動作する装置により録画および録音して得られたものであるので、それらの間の整合性は保たれている。しかしながら、論理楽譜データ2041は動画データ501および演奏音データ502とは個別に作成されるため、それらのデータ間には不整合がある可能性がある。エラーチェックツール50は、論理楽譜データ2041と動画データ501との整合性チェックを行うことにより、同じ楽曲に関する論理楽譜データ2041、動画データ501および演奏音データ502が整合性を持ったものとなるように、論理楽譜データ2041に修正を加えるツールである。
[2.3. Configuration and operation of error check tool]
The hardware configuration of the error check tool 50 is the same as the hardware configuration of the error check tool 10 shown in FIG. However, the moving image data 501 and the performance sound data 502 are stored in the HD 104 of the error check tool 50 instead of the performance control data 2042. The logical score data 2041, the moving image data 501 and the performance sound data 502 stored in the HD 104 of the error check tool 50 are associated with each other by assigning the same file names with different extensions only to the same music piece. It has been. The moving image data 501 and the performance sound data 502 relating to the same musical piece are obtained by recording and recording the same exemplary performance by a device that operates based on the same clock signal, so that the consistency between them is maintained. . However, since the logical score data 2041 is created separately from the moving image data 501 and the performance sound data 502, there is a possibility that there is an inconsistency between these data. The error check tool 50 checks the consistency between the logical score data 2041 and the moving image data 501, so that the logical score data 2041, the moving image data 501 and the performance sound data 502 relating to the same music are consistent. In addition, it is a tool for modifying the logic score data 2041.

図16は、エラーチェックツール50の機能構成を示したブロック図である。エラーチェックツール50は、第1実施形態におけるエラーチェックツール10と比較し、演奏制御データ取得部122の代わりに、動画データ取得部621を備えている。また、エラーチェックツール50は動画データ501に含まれる静止画データから基準マークおよび点灯したランプの画像を認識する画像認識処理部622を備えている。一方、エラーチェックツール50はエラーチェックツール10が備えている演奏制御データ出力部129を備えていない。   FIG. 16 is a block diagram showing a functional configuration of the error check tool 50. The error check tool 50 includes a moving image data acquisition unit 621 instead of the performance control data acquisition unit 122 as compared with the error check tool 10 in the first embodiment. Further, the error check tool 50 includes an image recognition processing unit 622 that recognizes a reference mark and an image of a lit lamp from still image data included in the moving image data 501. On the other hand, the error check tool 50 does not include the performance control data output unit 129 included in the error check tool 10.

ユーザがエラーチェックツール50の表示部125に表示される画面において、整合性チェックの対象とするデータ群のファイル名を選択し、整合性チェックの開始を指示すると、論理楽譜データ取得部121および動画データ取得部621は、それぞれ指定されたファイル名の論理楽譜データ2041および動画データ501をHD104から読み出し、記憶部123に一時的に記憶する。以下、ユーザはファイル名として「聖者の行進」を選択し、記憶部123には楽曲「聖者の行進」に関する論理楽譜データ2041aおよび動画データ501aが記憶されたものとする。   When the user selects a file name of a data group to be checked for consistency on the screen displayed on the display unit 125 of the error check tool 50 and instructs to start the consistency check, the logical score data acquisition unit 121 and the moving image The data acquisition unit 621 reads the logical score data 2041 and the moving image data 501 having the specified file names from the HD 104 and temporarily stores them in the storage unit 123. Hereinafter, it is assumed that the user selects “Saint March” as the file name, and the storage unit 123 stores logical score data 2041a and moving image data 501a related to the song “Saint March”.

論理楽譜データ2041aおよび動画データ501aが記憶部123に記憶されると、画像認識処理部622は動画データ501aに含まれる画像要素データのそれぞれについて、基準マークおよび点灯したランプの画像の認識処理を行う。画像認識処理部622は、まず画像要素データに含まれる各画素のRGB(Red,Green,Blue)データから、基準マークの色である赤およびそれに類似する色を示すものを抽出する。例えば、基準マークのRGBデータが[255,0,0]である場合、画像認識処理部622は画像要素データに含まれる画素のうち、RGBデータが[245〜225,0〜50,0〜50]の範囲に入るものを抽出する。   When the logical score data 2041a and the moving image data 501a are stored in the storage unit 123, the image recognition processing unit 622 performs recognition processing of the image of the reference mark and the lit lamp for each of the image element data included in the moving image data 501a. . First, the image recognition processing unit 622 extracts red and the similar color of the reference mark from RGB (Red, Green, Blue) data of each pixel included in the image element data. For example, when the RGB data of the reference mark is [255, 0, 0], the image recognition processing unit 622 has [245 to 225, 0 to 50, 0 to 50] among the pixels included in the image element data. ] Are extracted.

続いて、画像認識処理部622は抽出した画素のうち、互いに隣接する画素をグループ化し、各グループの画素により示される図形の重心の座標データを算出する。さらに、画像認識処理部622は図形の外縁に位置する画素のそれぞれにつき、重心との距離を算出する。そして、画像認識処理部622は算出した重心との距離が、図形の外縁に位置する画素のいずれについても基準マークの半径を示す値の前後に含まれる場合、その図形を、基準マークを示す画像であると認識する。画像認識処理部622は、基準マークを示す画像として認識した図形の重心の座標データを、画像要素データに含まれる表示タイミングデータとともに記憶部123に記憶する。以下、基準マークを示す画像として認識した図形の重心を「基準点」と呼ぶ。   Subsequently, the image recognition processing unit 622 groups adjacent pixels among the extracted pixels, and calculates coordinate data of the center of gravity of the graphic indicated by the pixels of each group. Further, the image recognition processing unit 622 calculates a distance from the center of gravity for each pixel located on the outer edge of the figure. If the calculated distance from the center of gravity is included before or after the value indicating the radius of the reference mark for any pixel located at the outer edge of the figure, the image recognition processing unit 622 displays the figure as an image indicating the reference mark. It is recognized that. The image recognition processing unit 622 stores the coordinate data of the center of gravity of the graphic recognized as the image indicating the reference mark in the storage unit 123 together with the display timing data included in the image element data. Hereinafter, the center of gravity of a figure recognized as an image indicating a reference mark is referred to as a “reference point”.

続いて、画像認識処理部622は画像要素データに含まれる点灯したランプの画像の認識処理を行う。画像認識処理部622が点灯したランプの画像を認識する処理は、画像要素データから抽出する画素のRBGデータの範囲が異なる点を除き、基準マークの画像を認識する場合と同様である。画像認識処理部622は、点灯したランプを示す画像として認識した図形の重心の座標データを、画像要素データに含まれる表示タイミングデータとともに記憶部123に記憶する。以下、点灯したランプを示す画像として認識した図形の重心を「点灯点」と呼ぶ。   Subsequently, the image recognition processing unit 622 performs recognition processing of the image of the lit lamp included in the image element data. The process of recognizing the image of the lamp with the image recognition processing unit 622 turned on is the same as the case of recognizing the image of the reference mark except that the range of the RBG data of the pixels extracted from the image element data is different. The image recognition processing unit 622 stores the coordinate data of the center of gravity of the figure recognized as an image showing the lit lamp together with the display timing data included in the image element data in the storage unit 123. Hereinafter, the center of gravity of a figure recognized as an image showing a lit lamp is referred to as a “lighting point”.

図17は、画像認識処理部622により記憶部123に記憶されるデータの構造を示す図である。ただし、画像認識処理部622が上記の画像認識処理を終えた時点では、「音高」の欄は空欄である。図17に示すデータは、動画データ501aに含まれる画像要素データから得られた座標データに基づき、いずれの音高の鍵がいずれのタイミングで打鍵されたかを特定するためのデータである。従って、図17に示すデータを以下、「打鍵データ」と呼ぶ。打鍵データは、各画像要素データから得られたデータである要素データ(以下、「打鍵要素データ」と呼ぶ)の集まりである。各打鍵要素データは、打鍵要素データを識別する「ID」、対応する画像要素データに含まれる表示タイミングデータを示す「タイミング」、基準点の座標データを示す「基準点」、点灯点の座標データを示す「点灯点」および打鍵されている鍵の音高を示す「音高」を含んでいる。各打鍵要素データは「基準点」および「点灯点」に複数の座標データを含むことができる。以下、打鍵要素データを区別する場合、「ID」を付して、打鍵要素データ「1」のように表す。   FIG. 17 is a diagram illustrating a structure of data stored in the storage unit 123 by the image recognition processing unit 622. However, when the image recognition processing unit 622 finishes the image recognition process, the “pitch” field is blank. The data shown in FIG. 17 is data for specifying which pitch key is pressed at which timing based on the coordinate data obtained from the image element data included in the moving image data 501a. Accordingly, the data shown in FIG. 17 is hereinafter referred to as “keystroke data”. The keystroke data is a collection of element data (hereinafter referred to as “keystroke element data”) that is data obtained from each image element data. Each keying element data includes “ID” for identifying keying element data, “timing” indicating display timing data included in the corresponding image element data, “reference point” indicating coordinate data of the reference point, and coordinate data of the lighting point “Lighting point” indicating “pitch” and “pitch” indicating the pitch of the key being pressed. Each keystroke element data can include a plurality of coordinate data at “reference point” and “lighting point”. Hereinafter, in order to distinguish the keying element data, “ID” is added and expressed as keying element data “1”.

画像認識処理部622は、各打鍵要素データに関し、「基準点」および「点灯点」に基づき「音高」を特定する処理を以下のように行う。まず、画像認識処理部622は「基準点」の座標データを用いて、隣接する2つの基準点を12等分に内分する点(以下、「内分点」と呼ぶ)の座標データを算出する。続いて、画像認識処理部622は基準点および内分点のそれぞれに音高を対応付ける。具体的には、画像認識処理部622は、基準点に対し、X座標の小さいものから順にC3、C4・・・のように音高を対応付け、例えばC3の基準点とC4の基準点の内分点に対し、C3に近いものから順にC#3、D3・・・のように音高を対応付ける。   The image recognition processing unit 622 performs processing for specifying “pitch” based on the “reference point” and the “lighting point” for each keying element data as follows. First, the image recognition processing unit 622 uses the coordinate data of “reference point” to calculate coordinate data of a point that internally divides two adjacent reference points into 12 equal parts (hereinafter referred to as “internal dividing points”). To do. Subsequently, the image recognition processing unit 622 associates a pitch with each of the reference point and the internal dividing point. Specifically, the image recognition processing unit 622 associates pitches in order from the smallest X coordinate to the reference point, such as C3, C4,..., For example, the reference point of C3 and the reference point of C4 The pitches are associated with the inner dividing points in the order of C # 3, D3,.

続いて、画像認識処理部622は、「点灯点」に含まれる座標データのそれぞれに関し、その座標データにより示される点灯点に最も近い基準点もしくは内分点を特定する。例えば、図17に例示される打鍵要素データ「40」の場合、「点灯点」に含まれる座標データ(102,163)は、「基準点」に含まれる座標データ(53,185)および(174,183)の内分点のうち、最も近いものとして5番目の内分点(103.4,184.2)を特定する。画像認識処理部622は、点灯点に最も近い基準点もしくは内分点に対応付けられた音高を、その点灯点に対応する音高として特定する。打鍵要素データ「40」の場合、点灯点(102,163)は、C3を示す基準点(53,185)から5番目に位置する内分点に最も近いため、対応する音高として「F3」が特定される。画像認識処理部622は以上のように点灯点の音高を特定すると、その音高を示すデータを打鍵要素データの「音高」に記憶する。   Subsequently, the image recognition processing unit 622 specifies, for each piece of coordinate data included in the “lighting point”, a reference point or internal division point closest to the lighting point indicated by the coordinate data. For example, in the case of the keystroke element data “40” illustrated in FIG. 17, the coordinate data (102, 163) included in the “lighting point” is the coordinate data (53, 185) and (174) included in the “reference point”. , 183), the fifth inner dividing point (103.4, 184.2) is specified as the closest one. The image recognition processing unit 622 specifies the pitch associated with the reference point or internal division point closest to the lighting point as the pitch corresponding to the lighting point. In the case of the keystroke element data “40”, the lighting point (102, 163) is the closest to the interior dividing point located fifth from the reference point (53, 185) indicating C3, and therefore the corresponding pitch is “F3”. Is identified. When the pitch of the lighting point is specified as described above, the image recognition processing unit 622 stores data indicating the pitch in the “pitch” of the keystroke element data.

ところで、基準点および点灯点を特定するにあたり、上述した方法以外の図形認識技術を用いてもよい。また、基準マークやランプを用いることなく、鍵の押下時の形状等を直接認識することにより、打鍵データにおける「音高」を特定するようにしてもよい。   By the way, in identifying the reference point and the lighting point, a graphic recognition technique other than the method described above may be used. Further, the “pitch” in the keystroke data may be specified by directly recognizing the shape when the key is pressed without using a reference mark or a lamp.

画像認識処理部622が全ての打鍵要素データに関し上記の音高の特定処理を終えると、判定部124は打鍵データに含まれる打鍵要素データのそれぞれに関し、論理楽譜データ2041aに対応する音符を示す楽譜要素データが含まれているか否かを、以下のように判定する。まず、判定部124は打鍵要素データの「タイミング」の値を、論理楽譜データ2041aの「MBT1」および「MBT2」において用いられているMBT形式に変換する。具体的には、判定部124は論理楽譜データ2041aに含まれる「Type」が「テンポ」である楽譜要素データを抽出し、各タイミングにおけるティックの時間長を決定した後、先頭タイミングからの経過時間に対応するMBTを算出する。例えば、テンポが「120」である場合、1ティックの時間長は60秒を120×480で除した時間長、すなわち約1.04ミリ秒である。従って、テンポが「120」で変化しない場合、打鍵要素データ「40」のタイミング[0m0s800ms]は先頭タイミングから768ティックだけ経過したタイミングとなり、MBT形式では「1:2:288」と表される。   When the image recognition processing unit 622 finishes the above-described pitch specification processing for all keying element data, the determination unit 124 indicates the musical score indicating the notes corresponding to the logical score data 2041a for each keying element data included in the keying data. Whether or not element data is included is determined as follows. First, the determination unit 124 converts the “timing” value of the keystroke element data into the MBT format used in “MBT1” and “MBT2” of the logical score data 2041a. Specifically, the determination unit 124 extracts score element data whose “Type” is “tempo” included in the logical score data 2041a, determines the time length of the tick at each timing, and then the elapsed time from the leading timing. MBT corresponding to is calculated. For example, when the tempo is “120”, the time length of one tick is a time length obtained by dividing 60 seconds by 120 × 480, that is, about 1.04 milliseconds. Therefore, when the tempo does not change at “120”, the timing [0m0s800ms] of the keying element data “40” is the timing when 768 ticks have elapsed from the head timing, and is expressed as “1: 2: 288” in the MBT format.

続いて、判定部124は打鍵要素データの「音高」の値を、論理楽譜データ2041aの「Y1」において用いられているY座標形式に変換する。例えば、打鍵要素データ「40」の音高「F3」は「105」に変換される。判定部124は、変換後の打鍵要素データを用いて、論理楽譜データ2041aに含まれる楽譜要素データのうち、「MBT1」が打鍵要素データのタイミング以前もしくは打鍵要素データのタイミング以降の一定期間に含まれ、「Type」が「ノートヘッド」、「Value」が打鍵要素データの「音高」であるものを検索する。ここで、「MBT1」が打鍵要素データのタイミング以降の一定期間に含まれるものも検索対象とするのは、打鍵要素データに含まれる「タイミング」は実際の演奏におけるタイミング情報であるため、ゆらぎを持っているためである。例えば、判定部124は打鍵要素データ「40」に関し、楽譜要素データ「13」を検索結果として得る。   Subsequently, the determination unit 124 converts the “pitch” value of the keystroke element data into the Y coordinate format used in “Y1” of the logical score data 2041a. For example, the pitch “F3” of the keystroke element data “40” is converted to “105”. Using the converted keying element data, the determination unit 124 includes “MBT1” of the score element data included in the logical score data 2041a before a timing of the keying element data or after a timing of the keying element data. Then, “Type” is searched for “note head” and “Value” is “pitch” of the keystroke element data. Here, “MBT1” included in a certain period after the timing of the keying element data is also searched for because “timing” included in the keying element data is timing information in actual performance. Because it has. For example, the determination unit 124 obtains score element data “13” as a search result for the keystroke element data “40”.

上記の検索に成功した場合、続いて判定部124は検索された楽譜要素データと「MBT1」の値が等しく、「Type」が「ステム」および「フラグ」である楽譜要素データを検索する。例えば上記の検索処理において楽譜要素データ「13」が検索された場合、判定部124は楽譜要素データ「14」および「15」を検索結果として得る。さらに、判定部124は、上記のように検索された楽譜要素データの「MBT1」以前のタイミングを示す「MBT1」を含み、「Type」が「キー」である楽譜要素データを検索する。この場合、楽譜要素データ「8」が検索される。   If the above search is successful, the determination unit 124 then searches for score element data in which the value of “MBT1” is equal to that of the searched score element data and “Type” is “stem” and “flag”. For example, when the musical score element data “13” is searched in the above search processing, the determination unit 124 obtains the musical score element data “14” and “15” as search results. Further, the determination unit 124 searches for musical score element data including “MBT1” indicating the timing before “MBT1” of the musical score element data searched as described above, and “Type” being “key”. In this case, the musical score element data “8” is searched.

判定部124は、上記のように検索した楽譜要素データが、打鍵要素データと整合性を有しているか否かを判定する。例えば、楽譜要素データ「8」および「13」〜「15」は全体として「1:2:240」のタイミングに配置された中音域のヘ音の発音を指示する八分音符を示している。すなわち、「1:2:240」〜「1:2:479」の期間、中音域のへ音の発音が行われるべきであることを示している。一方、打鍵要素データ「40」は「1:2:288」のタイミングにおいて、F3(中音域のへ音)が打鍵されていることを示しているので、判定部124はこれらのデータの整合性が保たれている、と判定する。判定部124は、論理楽譜データ2041aが打鍵要素データと整合性を保っていると判定した場合、打鍵データに含まれる次の打鍵要素データに関し、上記の一連の整合性チェックに関する処理を繰り返す。   The determination unit 124 determines whether or not the musical score element data searched as described above is consistent with the keystroke element data. For example, the musical score element data “8” and “13” to “15” indicate the eighth notes that instruct the pronunciation of the middle tone of the middle tone arranged at the timing of “1: 2: 240” as a whole. That is, it is shown that the middle tone should be pronounced during the period of “1: 2: 240” to “1: 2: 479”. On the other hand, the keying element data “40” indicates that F3 (medium tone) is keyed at the timing of “1: 2: 288”, so the determination unit 124 matches the consistency of these data. Is determined to be maintained. If the determination unit 124 determines that the logical score data 2041a is consistent with the keying element data, the determination unit 124 repeats the above-described processing related to the consistency check regarding the next keying element data included in the keying data.

一方、判定部124が打鍵要素データに対応する楽譜要素データの検索に失敗したり、対応する楽譜要素データの検索には成功したものの、打鍵要素データのタイミングが検索された楽譜要素データの示す音符により示される発音期間およびその前後に含まれていない場合、判定部124は論理楽譜データ2041aが打鍵要素データと整合性を保っていないと判定する。その場合、判定部124は打鍵要素データに基づき論理楽譜データ2041aの修正候補データを作成し、作成した修正候補データを表示部125および変更部127に送出する。その後、表示部125はユーザに修正指示を促す画面を表示し、その画面に応じたユーザの修正指示に従い、変更部127は論理楽譜データ2041aを更新する。論理楽譜データ2041aの更新が行われると、判定部124は更新後の論理楽譜データ2041aを用いて、上記の一連の整合性チェックに関する処理を繰り返す。   On the other hand, although the determination unit 124 has failed to retrieve the musical score element data corresponding to the keying element data, or has succeeded in retrieving the corresponding musical score element data, the musical note indicated by the musical score element data for which the timing of the keying element data has been retrieved. Is not included before and after the sound generation period indicated by, the determination unit determines that the logical score data 2041a does not maintain consistency with the keystroke element data. In that case, the determination unit 124 creates correction candidate data of the logical score data 2041a based on the keystroke element data, and sends the created correction candidate data to the display unit 125 and the change unit 127. Thereafter, the display unit 125 displays a screen prompting the user to make a correction instruction, and the changing unit 127 updates the logical score data 2041a in accordance with the user's correction instruction corresponding to the screen. When the logical score data 2041a is updated, the determination unit 124 repeats the above-described processing relating to the consistency check using the updated logic score data 2041a.

判定部124は、以上のような整合性チェックを打鍵データに含まれる全ての打鍵要素データについて完了すると、同様の整合性チェックを動画データ501aと論理楽譜データ2041aとを入れ替えて行う。その結果、例えば、論理楽譜データ2041aに含まれている音符に応じた打鍵が、動画データ501によればなされていないような不整合も検出される。   When the determination unit 124 completes the consistency check as described above for all the keying element data included in the keying data, the determination unit 124 performs the same consistency check by exchanging the moving image data 501a and the logical score data 2041a. As a result, for example, an inconsistency such that the keystroke corresponding to the note included in the logical score data 2041a is not made according to the moving image data 501 is also detected.

以上のような整合性チェックを全て完了すると、表示部125は整合性チェックの完了を示すメッセージを表示する。そのメッセージに応じてユーザがデータの保存を指示するボタンをクリックすると、論理楽譜データ出力部128は変更後の論理楽譜データ2041aをHD104に出力し、HD104はそのデータを記憶する。このようにしてHD104に記憶された論理楽譜データ2041aが動画データ501aおよび演奏音データ502aとともにトレーナーツール60において用いられる場合、提供される演奏習得支援サービスは、表示される楽譜の内容と映像および発音される演奏音との間に不整合のない高い品質のものとなる。   When all the consistency checks as described above are completed, the display unit 125 displays a message indicating the completion of the consistency check. When the user clicks a button for instructing data storage in response to the message, the logic score data output unit 128 outputs the changed logic score data 2041a to the HD 104, and the HD 104 stores the data. When the logical score data 2041a stored in the HD 104 in this way is used in the trainer tool 60 together with the moving image data 501a and the performance sound data 502a, the provided performance acquisition support service provides the content, video and pronunciation of the displayed score. It will be of high quality with no discrepancy between the playing sound.

[3.第3実施形態]
本発明の第3実施形態にかかるデータ処理装置(以下、「エラーチェックツール70」と呼ぶ)は、カラオケにおける歌詞の表示および着色を指示するデータ(以下、「歌詞データ」と呼ぶ)と、模範歌唱の音声データとの整合性をチェックし、そのデータ間に不整合があった場合、必要なデータの修正を行う装置である。本実施形態におけるエラーチェックツール70の構成および動作は、多くの点で第2実施形態におけるエラーチェックツール50と共通しているので、以下、本実施形態が第2実施形態と異なっている点のみを説明する。また、以下の説明において、第2実施形態における構成部等と共通するものには、同じ名称および符号を用いる。
[3. Third Embodiment]
A data processing apparatus according to the third embodiment of the present invention (hereinafter referred to as “error check tool 70”) includes data for instructing display and coloring of lyrics in karaoke (hereinafter referred to as “lyric data”), and a model. It is a device that checks the consistency with singing voice data and corrects the necessary data if there is a mismatch between the data. Since the configuration and operation of the error check tool 70 in this embodiment are the same as the error check tool 50 in the second embodiment in many respects, only the points that this embodiment is different from the second embodiment will be described below. Will be explained. Moreover, in the following description, the same name and code | symbol are used for what is common with the structure part etc. in 2nd Embodiment.

[3.1.エラーチェックツールの構成]
エラーチェックツール70のハードウェア構成は、図8に示したエラーチェックツール10のハードウェア構成と同様である。ただし、エラーチェックツール70のHD104には、論理楽譜データ2041および演奏制御データ2042の代わりに音声データ701および歌詞データ702が記憶されている。同じ楽曲に関するこれらのデータは、拡張子のみが異なる同じファイル名が付されることにより互いに対応付けられている。さらに、エラーチェックツール70のHD104には、後述する音声認識処理において利用される素片データベース703が記憶されている。
[3.1. Error check tool configuration]
The hardware configuration of the error check tool 70 is the same as the hardware configuration of the error check tool 10 shown in FIG. However, the HD 104 of the error check tool 70 stores audio data 701 and lyrics data 702 instead of the logical score data 2041 and performance control data 2042. These pieces of data relating to the same musical piece are associated with each other by being given the same file name with different extensions only. Furthermore, a segment database 703 used in a speech recognition process described later is stored in the HD 104 of the error check tool 70.

音声データ701の構造は、第2実施形態における演奏音データ502(図14参照)の構造と同様である。図18は歌詞データ702の構造を示した図である。歌詞データ702は、カラオケ装置の表示部にいずれの文字をいずれのタイミングで表示し、かついずれのタイミングで着色するかを示す要素データ(以下、「歌詞要素データ」と呼ぶ)の集合である。各歌詞要素データは、「ID」、「歌詞」、「表示開始タイミング」、「表示終了タイミング」、「着色タイミング」および「表示位置」を含んでいる。以下、歌詞要素データを区別する必要がある場合、「ID」を付して、歌詞要素データ「1」のように表す。   The structure of the sound data 701 is the same as the structure of the performance sound data 502 (see FIG. 14) in the second embodiment. FIG. 18 is a diagram showing the structure of the lyrics data 702. The lyric data 702 is a set of element data (hereinafter referred to as “lyric element data”) indicating which character is displayed at which timing on the display unit of the karaoke device and which timing is colored. Each lyric element data includes “ID”, “lyric”, “display start timing”, “display end timing”, “coloring timing”, and “display position”. Hereinafter, when it is necessary to distinguish the lyric element data, “ID” is added and expressed as lyric element data “1”.

「歌詞」は歌詞に含まれる各々の文字を示す。「表示開始タイミング」および「表示終了タイミング」は、第2実施形態における表示タイミングデータ等と同様の形式のデータである。「着色タイミング」は、カラオケの歌唱者に対し歌唱開始のタイミングを示すために、表示されている歌詞の文字の表示色を変化させるタイミングを示すデータであり、その形式は「表示開始タイミング」および「表示終了タイミング」と同様である。「表示位置」は、カラオケ装置の表示部の左端位置を基準とした水平方向の位置を示す数値である。   “Lyrics” indicates each character included in the lyrics. “Display start timing” and “display end timing” are data in the same format as the display timing data and the like in the second embodiment. “Coloring timing” is data indicating the timing to change the display color of the displayed lyrics characters in order to indicate the timing of singing to the karaoke singer, and the format is “display start timing” and This is the same as “display end timing”. “Display position” is a numerical value indicating a horizontal position with reference to the left end position of the display unit of the karaoke apparatus.

素片データベース703は、素片、すなわち音声学的な特徴部分に対応する音声波形の、スペクトルを示すデータ(以下、「スペクトルデータ」と呼ぶ)を格納したデータベースである。例えば、「さくら」という歌詞を発音した場合、その音は「#s」「s」「s−a」「a」「a−k」「k」「k−u」「u」「u−r」「r」「r−a」「a#」の素片に分解される。ただし、「#s」は「s」の音の立ち上がり部分を、また例えば「s−a」は「s」から「a」に変化する部分を、また「a#」は「a」の音の減衰部分を示す。素片データベース703は、これらの素片を示す記号(以下、「素片記号」と呼ぶ)と、各素片の音声波形のスペクトルデータを対応付けて記憶している。   The segment database 703 is a database that stores data indicating a spectrum (hereinafter referred to as “spectrum data”) of a speech waveform corresponding to a segment, that is, a phonetic feature. For example, when the lyrics “Sakura” are pronounced, the sound is “#s” “s” “sa” “a” “ak” “k” “ku” “u” “ur”. ”,“ R ”,“ r−a ”, and“ a # ”. However, “#s” indicates the rising portion of the sound of “s”, for example, “s-a” indicates the portion that changes from “s” to “a”, and “a #” indicates the sound of “a”. The attenuation part is shown. The segment database 703 stores symbols indicating these segments (hereinafter referred to as “segment symbols”) and spectrum data of the speech waveform of each segment in association with each other.

図19は、エラーチェックツール70の機能構成を示したブロック図である。エラーチェックツール70は、第2実施形態におけるエラーチェックツール50と比較し、論理楽譜データ取得部121および動画データ取得部621の代わりに音声データ取得部721および歌詞データ取得部722を備えている。また、エラーチェックツール70は画像認識処理部622の代わりに、音声データ701からいずれの素片の発音がなされているかを認識する音声認識処理部723を備えている。また、エラーチェックツール70は論理楽譜データ出力部128の代わりに、歌詞データ出力部724を備えている。さらに、エラーチェックツール70は素片データベース取得部725を備えている。   FIG. 19 is a block diagram showing a functional configuration of the error check tool 70. The error check tool 70 includes an audio data acquisition unit 721 and a lyrics data acquisition unit 722 instead of the logical score data acquisition unit 121 and the moving image data acquisition unit 621 as compared with the error check tool 50 in the second embodiment. Further, the error check tool 70 includes a voice recognition processing unit 723 that recognizes which segment is pronounced from the voice data 701 instead of the image recognition processing unit 622. Further, the error check tool 70 includes a lyrics data output unit 724 instead of the logic score data output unit 128. Further, the error check tool 70 includes a segment database acquisition unit 725.

[3.2.エラーチェックツールの動作]
本実施形態におけるエラーチェックツール70の動作は、第2実施形態におけるエラーチェックツール50の動作と、音声認識処理部723および判定部124の動作のみが異なる。従って、以下、それらの異なる動作のみを説明する。
[3.2. Operation of error check tool]
The operation of the error check tool 70 in this embodiment is different from the operation of the error check tool 50 in the second embodiment only in the operations of the speech recognition processing unit 723 and the determination unit 124. Therefore, only those different operations will be described below.

ユーザの整合性チェックの開始指示に応じて、音声データ取得部721、歌詞データ取得部722および素片データベース取得部725は、それぞれ音声データ701、歌詞データ702および素片データベース703をHD104から読み出し、記憶部123に記憶する。続いて、音声認識処理部723は音声データ701に含まれる要素データ(以下、「音声要素データ」と呼ぶ)のうち、例えば先頭の100ミリ秒の期間に含まれるものを取り出し、取り出した音声要素データ群により示される音声波形のスペクトルデータを算出する。音声認識処理部723は、算出したスペクトルデータと、素片データベース703に含まれるスペクトルデータの各々との相関係数を求める等の方法により、算出したスペクトルデータに最も近い素片のスペクトルデータを特定する。音声認識処理部723は、特定した素片のスペクトルデータに対応付けられている素片記号を、その音声要素データ群のタイミングを示すデータ[0m0s000ms0」とともに記憶部123に記憶する。このタイミングを示すデータは、取り出した音声要素データ群の先頭のものの「タイミング」の値である。   In response to the user's start instruction for consistency check, the audio data acquisition unit 721, the lyrics data acquisition unit 722, and the segment database acquisition unit 725 read the audio data 701, the lyrics data 702, and the segment database 703 from the HD 104, respectively. Store in the storage unit 123. Subsequently, the speech recognition processing unit 723 extracts, for example, the element data included in the first 100 milliseconds from the element data included in the audio data 701 (hereinafter referred to as “audio element data”), and extracts the extracted audio element The spectrum data of the speech waveform indicated by the data group is calculated. The speech recognition processing unit 723 specifies the spectrum data of the nearest segment to the calculated spectrum data by a method such as obtaining a correlation coefficient between the calculated spectrum data and each spectrum data included in the segment database 703. To do. The speech recognition processing unit 723 stores, in the storage unit 123, the unit symbol associated with the specified unit spectrum data together with the data [0m0s000ms0] indicating the timing of the speech element data group. The data indicating this timing is the “timing” value of the head of the extracted audio element data group.

続いて、音声認識処理部723は音声データ701から次の100ミリ秒の期間に含まれる音声要素データを取り出し、上記と同様に対応する素片記号の特定を行う。特定した素片記号が最後に記憶部123に記憶したものと同じ場合、音声認識処理部723は新たに特定した素片記号を記憶部123に記憶することなく、次の100ミリ秒の期間に含まれる音声要素データに関し、対応する素片記号を特定する処理を繰り返す。一方、音声認識処理部723は新たに特定した素片記号が最後に記憶部123に記憶したものと異なる場合、新たに特定した素片記号を、取り出した音声要素データ群のタイミングを示すデータとともに記憶部123に記憶した後、次の100ミリ秒の期間に含まれる音声要素データに関し、対応する素片記号を特定する処理を繰り返す。   Subsequently, the speech recognition processing unit 723 extracts speech element data included in the next 100 millisecond period from the speech data 701 and specifies the corresponding unit symbol in the same manner as described above. If the identified unit symbol is the same as the last one stored in the storage unit 123, the speech recognition processing unit 723 does not store the newly specified unit symbol in the storage unit 123, but in the next 100 milliseconds. With respect to the included speech element data, the process of specifying the corresponding unit symbol is repeated. On the other hand, when the newly identified segment symbol is different from the last one stored in the storage unit 123, the speech recognition processing unit 723 displays the newly identified segment symbol together with data indicating the timing of the extracted speech element data group. After the data is stored in the storage unit 123, the process of specifying the corresponding unit symbol is repeated for the speech element data included in the next 100 millisecond period.

図20は、音声認識処理部723により記憶部123に記憶されたデータ(以下、「素片タイミングデータ」と呼ぶ)を例示した図である。素片タイミングデータは、複数の要素データ(以下、「素片要素データ」と呼ぶ)の集合であり、各素片要素データは「ID」、「素片記号」および「タイミング」を含んでいる。以下、各素片要素データを区別する場合、「ID」を付して素片要素データ「1」のように表す。   FIG. 20 is a diagram illustrating data stored in the storage unit 123 by the voice recognition processing unit 723 (hereinafter referred to as “unit timing data”). The element timing data is a set of a plurality of element data (hereinafter referred to as “element element data”), and each element element data includes “ID”, “element symbol”, and “timing”. . Hereinafter, when distinguishing each piece element data, “ID” is added and represented as piece element data “1”.

音声認識処理部723により、素片タイミングデータの作成が音声データ701の全てに関し完了すると、判定部124は素片タイミングデータに含まれる素片要素データを先頭から順次、1つの文字の発音に対応する素片要素データ群にグループ化する。例えば、「#s」「s」「s−a」「a」は「さ」の発音を構成する一連の素片を示すので、判定部124は素片要素データ「1」〜「4」を1つの素片要素データ群とする。   When the speech recognition processing unit 723 completes the generation of the segment timing data for all of the speech data 701, the determination unit 124 sequentially handles the segment element data included in the segment timing data from the top in response to the pronunciation of one character. Group into segment element data groups. For example, “#s”, “s”, “s-a”, and “a” indicate a series of segments that constitute the pronunciation of “sa”, so that the determination unit 124 stores the segment element data “1” to “4”. A single element element data group is assumed.

続いて、判定部124は各素片要素データ群に関し、歌詞データ702の中から、「歌詞」が素片要素データ群により示される文字を示し、かつ「着色タイミング」が素片要素データ群に含まれる先頭の素片要素データの「タイミング」により示されるタイミングの前後に含まれる歌詞要素データを検索する。例えば、素片要素データ「1」〜「4」に関し、判定部124は「歌詞」が「さ」であり、「着色タイミング」が例えば[0m41s300ms]〜[0m41s700ms]の範囲に含まれる歌詞要素データを検索し、歌詞要素データ「1」を検索結果として得る。   Subsequently, for each segment element data group, the determination unit 124 indicates, from the lyrics data 702, “Lyrics” indicates the character indicated by the segment element data group, and “Coloring timing” is the segment element data group. The lyrics element data included before and after the timing indicated by the “timing” of the first element element data included is searched. For example, regarding the element element data “1” to “4”, the determination unit 124 includes “lyric” as “sa” and “coloring timing” included in the range of [0m41s300ms] to [0m41s700ms], for example. And lyric element data “1” is obtained as a search result.

判定部124は、上記の歌詞要素データの検索に成功すると、音声データ701と素片要素データ群との間に整合性があると判定して、次の素片要素データ群に関し、上記の一連の整合性チェックを繰り返す。一方、判定部124は、上記の歌詞要素データの検索に失敗すると、音声データ701と素片要素データ群との間に整合性がないと判定して、素片要素データ群に基づき歌詞データ702の修正候補データを作成し、作成した修正候補データを表示部125および変更部127に送出する。その後、ユーザの変更指示に従い変更部127が歌詞データ702の更新を行うと、判定部124は変更後の歌詞データ702を用いて、上記の一連の整合性チェックを繰り返す。   If the lyric element data is successfully searched, the determination unit 124 determines that there is consistency between the speech data 701 and the segment element data group, and the above-described series of segment element data groups is related to the above-described series. Repeat the consistency check. On the other hand, if the search for the lyric element data fails, the determining unit 124 determines that there is no consistency between the speech data 701 and the segment element data group, and the lyric data 702 based on the segment element data group. Correction candidate data is generated, and the generated correction candidate data is sent to the display unit 125 and the change unit 127. Thereafter, when the changing unit 127 updates the lyrics data 702 in accordance with the change instruction from the user, the determination unit 124 repeats the above-described series of consistency checks using the changed lyrics data 702.

以上のような整合性チェックを素片タイミングデータに含まれる全ての素片要素データに関し完了すると、表示部125は整合性チェックの完了を示すメッセージを表示する。そのメッセージに応じてユーザがデータの保存を指示するボタンをクリックすると、歌詞データ出力部724は変更後の歌詞データ702をHD104に出力し、HD104はそのデータを記憶する。このようにしてHD104に記憶された歌詞データ702は、模範歌唱の内容と整合性が保たれているため、カラオケ装置において歌詞データ702による歌詞表示が行われる際、正確なタイミングで歌詞の文字の表示色変更が行われる。   When the consistency check as described above is completed for all the element element data included in the element timing data, the display unit 125 displays a message indicating the completion of the consistency check. When the user clicks a button for instructing data storage in response to the message, the lyrics data output unit 724 outputs the changed lyrics data 702 to the HD 104, and the HD 104 stores the data. Since the lyrics data 702 stored in the HD 104 in this way is consistent with the contents of the model song, when the lyrics are displayed by the lyrics data 702 in the karaoke apparatus, the lyrics characters 702 are displayed at an accurate timing. The display color is changed.

本発明の第1実施形態にかかるトレーナーツールの構成を示した図である。It is the figure which showed the structure of the trainer tool concerning 1st Embodiment of this invention. 本発明の第1実施形態にかかるトレーナーツールの表示部に表示される楽譜を示した図である。It is the figure which showed the score displayed on the display part of the trainer tool concerning 1st Embodiment of this invention. 本発明の第1実施形態にかかる論理楽譜データの内容を例示した図である。It is the figure which illustrated the content of the logic score data concerning 1st Embodiment of this invention. 本発明の第1実施形態にかかる論理楽譜データの内容を例示した図である。It is the figure which illustrated the content of the logic score data concerning 1st Embodiment of this invention. 本発明の第1実施形態にかかる演奏制御データの内容を例示した図である。It is the figure which illustrated the content of the performance control data concerning 1st Embodiment of this invention. 本発明の第1実施形態にかかる演奏制御データの内容を例示した図である。It is the figure which illustrated the content of the performance control data concerning 1st Embodiment of this invention. 本発明の第1実施形態にかかるトレーナーツールの表示部に表示される画面を例示した図である。It is the figure which illustrated the screen displayed on the display part of the trainer tool concerning a 1st embodiment of the present invention. 本発明の第1実施形態にかかるエラーチェックツールのハードウェア構成を示した図である。It is the figure which showed the hardware constitutions of the error check tool concerning 1st Embodiment of this invention. 本発明の第1実施形態にかかるエラーチェックツールの機能構成を示したブロック図である。It is the block diagram which showed the function structure of the error check tool concerning 1st Embodiment of this invention. 本発明の第1実施形態にかかるエラーチェックツールのディスプレイに表示される画面を例示した図である。It is the figure which illustrated the screen displayed on the display of the error check tool concerning a 1st embodiment of the present invention. 本発明の第1実施形態にかかるエラーチェックツールの判定部により行われる整合性チェックの処理フローを示した図である。It is the figure which showed the processing flow of the consistency check performed by the determination part of the error check tool concerning 1st Embodiment of this invention. 本発明の第1実施形態にかかるエラーチェックツールの表示部に表示される画面を例示した図である。It is the figure which illustrated the screen displayed on the display part of the error check tool concerning 1st Embodiment of this invention. 本発明の第2実施形態にかかる動画データの構造を模式的に示した図である。It is the figure which showed typically the structure of the moving image data concerning 2nd Embodiment of this invention. 本発明の第2実施形態にかかる演奏音データの構造を模式的に示した図である。It is the figure which showed typically the structure of the performance sound data concerning 2nd Embodiment of this invention. 本発明の第2実施形態にかかるトレーナーツールの表示部に表示される画面を例示した図である。It is the figure which illustrated the screen displayed on the display part of the trainer tool concerning 2nd Embodiment of this invention. 本発明の第2実施形態にかかるエラーチェックツールの機能構成を示したブロック図である。It is the block diagram which showed the function structure of the error check tool concerning 2nd Embodiment of this invention. 本発明の第2実施形態にかかる打鍵データの構造を示した図である。It is the figure which showed the structure of the keystroke data concerning 2nd Embodiment of this invention. 本発明の第2実施形態にかかる歌詞データの構造を示した図である。It is the figure which showed the structure of the lyric data concerning 2nd Embodiment of this invention. 本発明の第2実施形態にかかるエラーチェックツールの機能構成を示したブロック図である。It is the block diagram which showed the function structure of the error check tool concerning 2nd Embodiment of this invention. 本発明の第2実施形態にかかる素片タイミングデータの構造を示した図である。It is the figure which showed the structure of the fragment | piece timing data concerning 2nd Embodiment of this invention.

符号の説明Explanation of symbols

10・50・70…エラーチェックツール、20・60…トレーナーツール、30…キーボード、101…CPU、102…ROM、103…RAM、104…HD、105…ディスプレイ、106…キーボード、107…マウス、108・205…入出力I/F、121…論理楽譜データ取得部、122…演奏制御データ取得部、123・204…記憶部、124…判定部、125・202…表示部、126…変更指示取得部、127…変更部、128…論理楽譜データ出力部、129…演奏制御データ出力部、201…制御部、203…サウンドシステム、206…発振器、401…外部記憶装置、402…インターネット、621…動画データ取得部、622…画像認識処理部、721…音声データ取得部、722…歌詞データ取得部、723…音声認識処理部、724…歌詞データ出力部、725…素片データベース取得部。   10.50.70 ... Error check tool, 20.60 ... Trainer tool, 30 ... Keyboard, 101 ... CPU, 102 ... ROM, 103 ... RAM, 104 ... HD, 105 ... Display, 106 ... Keyboard, 107 ... Mouse, 108 205 ... Input / output I / F, 121 ... Logical score data acquisition unit, 122 ... Performance control data acquisition unit, 123/204 ... Storage unit, 124 ... Determination unit, 125/202 ... Display unit, 126 ... Change instruction acquisition unit DESCRIPTION OF SYMBOLS 127 ... Change part, 128 ... Logic score data output part, 129 ... Performance control data output part, 201 ... Control part, 203 ... Sound system, 206 ... Oscillator, 401 ... External storage device, 402 ... Internet, 621 ... Movie data Acquisition unit, 622 ... Image recognition processing unit, 721 ... Audio data acquisition unit, 722 ... Lyric data acquisition unit 723 ... voice recognition processing unit, 724 ... lyric data output unit, 725 ... unit database acquisition unit.

Claims (5)

タイミングを示すタイミングデータと当該タイミングデータにより示されるタイミングに関連するデータである内容データとの組合せである要素データを1以上含む第1の集合データを取得する第1取得手段と、
タイミングを示すタイミングデータと当該タイミングデータにより示されるタイミングに関連するデータである内容データとの組合せである要素データを1以上含む集合データであって、前記第1の集合データとは異なる形式の内容データを含む第2の集合データを取得する第2取得手段と、
前記第1の集合データに含まれる要素データのうち、特定のタイミングを示すタイミングデータを含む要素データに含まれる内容データにより示される第1の内容と、前記第2の集合データに含まれる要素データのうち、前記特定のタイミングを示すタイミングデータを含む要素データに含まれる内容データにより示される第2の内容とが予め定められた関係を満たすか否かを判定する判定手段と
を備えることを特徴とするデータ処理装置。
First acquisition means for acquiring first aggregate data including at least one element data that is a combination of timing data indicating timing and content data that is data related to timing indicated by the timing data;
Aggregated data including one or more element data that is a combination of timing data indicating timing and content data relating to the timing indicated by the timing data, and content in a format different from that of the first aggregated data Second acquisition means for acquiring second set data including data;
Of the element data included in the first aggregate data, the first content indicated by the content data included in the element data including the timing data indicating a specific timing, and the element data included in the second aggregate data Determination means for determining whether or not the second content indicated by the content data included in the element data including the timing data indicating the specific timing satisfies a predetermined relationship. A data processing device.
前記判定手段により、前記第1の内容と前記第2の内容とが予め定められた関係を満たさないと判定された場合、前記第1の内容を示す内容データを含む要素データおよび前記第2の内容を示す内容データを含む要素データの少なくともいずれか一方を特定する情報を報知する報知手段
を備えることを特徴とする請求項1に記載のデータ処理装置。
If the determination means determines that the first content and the second content do not satisfy a predetermined relationship, element data including content data indicating the first content and the second content The data processing apparatus according to claim 1, further comprising a notifying unit that notifies information specifying at least one of element data including content data indicating content.
前記判定手段により、前記第1の内容と前記第2の内容とが予め定められた関係を満たさないと判定された場合、前記第1の内容を示す内容データおよび前記第2の内容を示す内容データの少なくともいずれか一方を、予め定められた条件に従い変更する変更手段
を備えることを特徴とする請求項1に記載のデータ処理装置。
When the determination means determines that the first content and the second content do not satisfy a predetermined relationship, content data indicating the first content and content indicating the second content The data processing apparatus according to claim 1, further comprising: a changing unit that changes at least one of the data according to a predetermined condition.
前記第1の集合データおよび前記第2の集合データの各々は、
楽曲に含まれる楽音の発音制御を自動演奏装置に指示する演奏制御データ、
楽曲の楽譜の構成要素を示すデータと当該構成要素の前記楽曲における時間軸上の位置を示すタイミングデータとの組合せである論理楽譜データ、
時系列的に配置された複数の文字データ、
楽曲の音または音声を示す音データ、
時系列的に配置された複数の静止画データおよび
動画データ
のうちの少なくともいずれか1つを含むデータである
ことを特徴とする請求項1乃至3のいずれかに記載のデータ処理装置。
Each of the first aggregate data and the second aggregate data is:
Performance control data for instructing the automatic performance device to control the tone of music contained in the music,
Logical score data that is a combination of data indicating the constituent elements of the musical score of the music and timing data indicating the position of the constituent elements on the time axis in the music;
Multiple character data arranged in time series,
Sound data indicating the sound or sound of a song,
The data processing apparatus according to any one of claims 1 to 3, wherein the data processing apparatus includes at least one of a plurality of still image data and moving image data arranged in time series.
タイミングを示すタイミングデータと当該タイミングデータにより示されるタイミングに関連するデータである内容データとの組合せである要素データを1以上含む第1の集合データに含まれる要素データのうち、特定のタイミングを示すタイミングデータを含む要素データに含まれる内容データにより示される第1の内容と、
タイミングを示すタイミングデータと当該タイミングデータにより示されるタイミングに関連するデータである内容データとの組合せである要素データを1以上含む集合データであって、前記第1の集合データとは異なる形式の内容データを含む第2の集合データに含まれる要素データのうち、特定のタイミングを示すタイミングデータを含む要素データに含まれる内容データにより示される第2の内容と
が予め定められた関係を満たすか否かを判定する処理
をコンピュータに実行させることを特徴とするプログラム。
Indicates a specific timing among the element data included in the first set data including one or more element data that is a combination of the timing data indicating the timing and the content data that is the data related to the timing indicated by the timing data. First content indicated by content data included in element data including timing data;
Aggregated data including one or more element data that is a combination of timing data indicating timing and content data relating to the timing indicated by the timing data, and content in a format different from that of the first aggregated data Whether the second content indicated by the content data included in the element data including the timing data indicating the specific timing among the element data included in the second set data including the data satisfies a predetermined relationship A program for causing a computer to execute a process for determining whether or not.
JP2004240011A 2004-08-19 2004-08-19 Data processor and program for processing two or more time-series data Pending JP2006058577A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004240011A JP2006058577A (en) 2004-08-19 2004-08-19 Data processor and program for processing two or more time-series data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004240011A JP2006058577A (en) 2004-08-19 2004-08-19 Data processor and program for processing two or more time-series data

Publications (1)

Publication Number Publication Date
JP2006058577A true JP2006058577A (en) 2006-03-02

Family

ID=36106092

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004240011A Pending JP2006058577A (en) 2004-08-19 2004-08-19 Data processor and program for processing two or more time-series data

Country Status (1)

Country Link
JP (1) JP2006058577A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007264155A (en) * 2006-03-28 2007-10-11 Yamaha Corp Electronic musical instrument and program
EP2498248A1 (en) * 2011-03-07 2012-09-12 Casio Computer Co., Ltd. Musical-score information generating apparatus, music-tone generation controlling apparatus, musical-score information generating method, and music-tone generation controlling method
WO2017009954A1 (en) * 2015-07-14 2017-01-19 株式会社日立システムズ Feeling share system, operation device, and feeling share method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05257465A (en) * 1992-03-11 1993-10-08 Kawai Musical Instr Mfg Co Ltd Feature extraction and reproduction device for musical instrument player
JPH1063175A (en) * 1996-08-21 1998-03-06 Tokyo Denshi Sekkei Kk Classroomless music education system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05257465A (en) * 1992-03-11 1993-10-08 Kawai Musical Instr Mfg Co Ltd Feature extraction and reproduction device for musical instrument player
JPH1063175A (en) * 1996-08-21 1998-03-06 Tokyo Denshi Sekkei Kk Classroomless music education system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007264155A (en) * 2006-03-28 2007-10-11 Yamaha Corp Electronic musical instrument and program
JP4609728B2 (en) * 2006-03-28 2011-01-12 ヤマハ株式会社 Electronic musical instruments and programs
EP2498248A1 (en) * 2011-03-07 2012-09-12 Casio Computer Co., Ltd. Musical-score information generating apparatus, music-tone generation controlling apparatus, musical-score information generating method, and music-tone generation controlling method
CN102682752A (en) * 2011-03-07 2012-09-19 卡西欧计算机株式会社 Musical-score information generating apparatus, musical-score information generating method, music-tone generation controlling apparatus, and music-tone generation controlling method
CN102682752B (en) * 2011-03-07 2014-11-05 卡西欧计算机株式会社 Musical-score information generating apparatus, musical-score information generating method, music-tone generation controlling apparatus, and music-tone generation controlling method
WO2017009954A1 (en) * 2015-07-14 2017-01-19 株式会社日立システムズ Feeling share system, operation device, and feeling share method

Similar Documents

Publication Publication Date Title
US10347229B2 (en) Electronic musical instrument, method of controlling the electronic musical instrument, and recording medium
US7041888B2 (en) Fingering guide displaying apparatus for musical instrument and computer program therefor
US10403166B2 (en) Musical performance assistance device and method
JP3744366B2 (en) Music symbol automatic determination device based on music data, musical score display control device based on music data, and music symbol automatic determination program based on music data
JP2016224462A (en) Musical score display device, musical score display method, and program for actualizing musical score display method
US6323411B1 (en) Apparatus and method for practicing a musical instrument using categorized practice pieces of music
JP4497513B2 (en) Code practice device
JP2009169103A (en) Practice support device
JP6520162B2 (en) Accompaniment teaching device and accompaniment teaching program
JP2006058577A (en) Data processor and program for processing two or more time-series data
US11302296B2 (en) Method implemented by processor, electronic device, and performance data display system
JP2006301019A (en) Pitch-notifying device and program
JP4618704B2 (en) Code practice device
JP5847048B2 (en) Piano roll type score display apparatus, piano roll type score display program, and piano roll type score display method
US10002541B1 (en) Musical modification method
JP4595852B2 (en) Performance data processing apparatus and program
JP4162556B2 (en) Information search and display device for codes
JP2017173641A (en) Score display control device and program
JP6424907B2 (en) Program for realizing performance information search method, performance information search method and performance information search apparatus
JP4457199B2 (en) Code display method
JP6587396B2 (en) Karaoke device with guitar karaoke scoring function
JP6183002B2 (en) Program for realizing performance information analysis method, performance information analysis method and performance information analysis apparatus
JP5754449B2 (en) Music code score generator
JP2007240556A (en) Musical score display device and program
JP2006195045A (en) Pitch name determination device and computer-readable pitch name determination program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070618

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081125

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090317