JP2006058577A - Data processor and program for processing two or more time-series data - Google Patents
Data processor and program for processing two or more time-series data Download PDFInfo
- Publication number
- JP2006058577A JP2006058577A JP2004240011A JP2004240011A JP2006058577A JP 2006058577 A JP2006058577 A JP 2006058577A JP 2004240011 A JP2004240011 A JP 2004240011A JP 2004240011 A JP2004240011 A JP 2004240011A JP 2006058577 A JP2006058577 A JP 2006058577A
- Authority
- JP
- Japan
- Prior art keywords
- data
- timing
- score
- content
- element data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、複数の時系列データの処理技術に関し、より具体的には、複数の関連する時系列データにおける不整合を検出するための技術に関する。 The present invention relates to a technique for processing a plurality of time series data, and more specifically, to a technique for detecting inconsistencies in a plurality of related time series data.
楽曲の演奏習得を支援する目的で、楽曲の楽譜をディスプレイに表示させると同時に、自動演奏装置に当該楽曲の自動演奏を行わせたり、当該楽曲の演奏習得者のためにメトロノーム音を鳴らせたりする技術がある。 For the purpose of supporting the acquisition of musical performance, the musical score is displayed on the display, and at the same time, the automatic performance device automatically performs the musical composition, or the metronome sounds for the musical performance master. There is technology.
例えば、特許文献1および特許文献2には、楽曲の進行に合わせて、当該楽曲の楽譜のうち現在演奏等がなされている部分を順次ディスプレイに表示する技術が開示されている。
ところで、楽曲の楽譜をディスプレイ等に表示させると同時に、自動演奏装置に当該楽曲の自動演奏を行わせる場合、楽譜により示される情報と自動演奏装置に演奏の指示を与える演奏制御データとの間に整合性がなければならない。自動演奏装置により行われる演奏が楽譜の内容に従っていないと、自動演奏装置により行われる演奏を模範演奏としつつ楽譜に従った演奏を行おうとするユーザが、模範演奏と楽譜のいずれを信頼してよいか分からず混乱したり、誤った演奏方法や知識を身に付けてしまったりするからである。 By the way, when the musical score is displayed on a display or the like and at the same time, the automatic performance apparatus performs automatic performance of the musical composition, between the information indicated by the musical score and the performance control data that gives the automatic performance apparatus a performance instruction. There must be consistency. If the performance performed by the automatic performance device does not conform to the content of the score, the user who wants to perform the performance according to the score while using the performance performed by the automatic performance device as an exemplary performance may trust either the exemplary performance or the score. This is because they are confused and don't know how to play.
しかし、楽譜を表示するためのデータと、自動演奏装置に演奏者の指示を与える演奏制御データとは、異なるプロセスにより作成される場合がある。例えば、印刷物としての楽譜を見ながら、あるミュージックエンジニアが楽譜を表示するためのデータを作成する一方で、他のミュージックエンジニアが演奏制御データを作成するような場合である。このように、異なるプロセスにより作成されるデータ間には、データ入力ミス等により不整合が生じる可能性がある。 However, the data for displaying the score and the performance control data for giving the player's instruction to the automatic performance device may be created by different processes. For example, this is a case where a music engineer creates data for displaying a score while viewing a score as a printed material, while another music engineer creates performance control data. As described above, there is a possibility that inconsistency may occur between data created by different processes due to a data input error or the like.
従来、そのようなデータ間の不整合を検出し修正する作業は手作業で行われていた。すなわち、チェック担当者が楽譜の表示用データに従いディスプレイに表示される楽譜を目で確認すると同時に、演奏制御データに従い自動演奏装置により自動演奏される演奏音を耳で確認し、それらの内容を比べることにより、データ間の不整合の有無をチェックし、誤りがあればいずれかのデータを修正していた。このような従来のチェック作業は多大な時間と労力を要するだけでなく、チェック担当者の経験や能力によってチェックの品質が左右される、という問題があった。 Conventionally, the work of detecting and correcting such inconsistencies between data has been performed manually. In other words, the person in charge of the check visually confirms the score displayed on the display according to the display data of the score, and at the same time, confirms the performance sound automatically played by the automatic performance device according to the performance control data, and compares the contents. As a result, the data is checked for inconsistencies, and if there is an error, one of the data is corrected. Such conventional check work not only requires a lot of time and labor, but also has a problem that the quality of the check depends on the experience and ability of the checker.
同様な問題は、例えば楽譜を表示するためのデータと熟練演奏者による模範演奏の様子を録画した動画データとの間にも生じる。さらに、楽曲に関するものに限らず、例えば映画の内容を示す動画データと、その映画の字幕を示す文字データとの間等においても生じる。すなわち、この問題は相互に整合していることが要求される異なる形式の時系列データ間に広く生じる問題であると言える。 A similar problem occurs between, for example, data for displaying a musical score and moving image data in which an example performance by an experienced player is recorded. Furthermore, the present invention is not limited to music, but occurs, for example, between moving image data indicating the contents of a movie and character data indicating subtitles of the movie. That is, it can be said that this problem occurs widely between time series data of different formats that are required to be consistent with each other.
上記の状況に鑑み、本発明は、相互に整合していることが要求される異なる形式の時系列データ間において、整合性が保たれているか否かを判定する作業を容易かつ正確に行うことを可能とする手段を提供することを目的とする。 In view of the above situation, the present invention makes it easy and accurate to determine whether or not consistency is maintained between time-series data of different formats that are required to be consistent with each other. It is an object of the present invention to provide means for enabling the above.
上記課題を達成するために、本発明は、タイミングを示すタイミングデータと当該タイミングデータにより示されるタイミングに関連するデータである内容データとの組合せである要素データを1以上含む第1の集合データを取得する第1取得手段と、タイミングを示すタイミングデータと当該タイミングデータにより示されるタイミングに関連するデータである内容データとの組合せである要素データを1以上含む集合データであって、前記第1の集合データとは異なる形式の内容データを含む第2の集合データを取得する第2取得手段と、前記第1の集合データに含まれる要素データのうち、特定のタイミングを示すタイミングデータを含む要素データに含まれる内容データにより示される第1の内容と、前記第2の集合データに含まれる要素データのうち、前記特定のタイミングを示すタイミングデータを含む要素データに含まれる内容データにより示される第2の内容とが予め定められた関係を満たすか否かを判定する判定手段とを備えることを特徴とするデータ処理装置を提供する。 In order to achieve the above object, the present invention provides first aggregate data including at least one element data that is a combination of timing data indicating timing and content data that is data related to timing indicated by the timing data. First data acquisition means, aggregate data including at least one element data that is a combination of timing data indicating timing and content data that is data related to the timing indicated by the timing data, the first data Second acquisition means for acquiring second aggregate data including content data in a format different from the aggregate data, and element data including timing data indicating a specific timing among the element data included in the first aggregate data Included in the first content indicated by the content data included in the second set data Determination means for determining whether or not the second content indicated by the content data included in the element data including the timing data indicating the specific timing among the element data satisfies a predetermined relationship. A data processing apparatus is provided.
かかる構成のデータ処理装置によれば、時系列情報を伴う異なる形式のデータ間において、それぞれに含まれるデータのうち、同じタイミングに対応するものの内容が整合しているか否かを自動的に判定させることができる。その結果、ユーザは、手作業で同様の作業を行う場合と比べて手間を要することなく、一定の正確性を伴う結果を得ることができる。 According to the data processing device having such a configuration, it is automatically determined whether or not the contents of the data corresponding to the same timing among the data included in the different types of data accompanied with time-series information are consistent. be able to. As a result, the user can obtain a result with a certain degree of accuracy without taking time and effort compared to the case where the same operation is performed manually.
好ましい態様において、上記のデータ処理装置は、前記判定手段により、前記第1の内容と前記第2の内容とが予め定められた関係を満たさないと判定された場合、前記第1の内容を示す内容データを含む要素データおよび前記第2の内容を示す内容データを含む要素データの少なくともいずれか一方を特定する情報を報知する報知手段を備える。 In a preferred aspect, the data processing device indicates the first content when the determination unit determines that the first content and the second content do not satisfy a predetermined relationship. Informing means for informing information specifying at least one of element data including content data and element data including content data indicating the second content is provided.
かかる構成のデータ処理装置によれば、ユーザは時系列情報を伴う異なる形式のデータ間に不整合があった場合に、その不整合を生じているデータ部分を容易に修正することが可能となる。 According to the data processing apparatus having such a configuration, when there is a mismatch between data of different formats accompanied by time-series information, the user can easily correct the data portion causing the mismatch. .
また、他の好ましい態様において、上記のデータ処理装置は、前記判定手段により、前記第1の内容と前記第2の内容とが予め定められた関係を満たさないと判定された場合、前記第1の内容を示す内容データおよび前記第2の内容を示す内容データの少なくともいずれか一方を、予め定められた条件に従い変更する変更手段を備える。 In another preferable aspect, when the data processing apparatus determines that the first content and the second content do not satisfy a predetermined relationship by the determination unit, the first processing unit And changing means for changing at least one of the content data indicating the content of the content and the content data indicating the second content according to a predetermined condition.
かかる構成のデータ処理装置によれば、ユーザは時系列情報を伴う異なる形式のデータ間に不整合があった場合に、手作業による修正等を行うことなく、その不整合が修正されたデータを得ることができる。 According to the data processing apparatus having such a configuration, when there is a mismatch between data in different formats accompanied by time series information, the user can retrieve the corrected data without performing manual correction or the like. Obtainable.
また、他の好ましい態様において、上記のデータ処理装置により処理される前記第1の集合データおよび前記第2の集合データの各々は、楽曲に含まれる楽音の発音制御を自動演奏装置に指示する演奏制御データ、楽曲の楽譜の構成要素を示すデータと当該構成要素の前記楽曲における時間軸上の位置を示すタイミングデータとの組合せである論理楽譜データ、時系列的に配置された複数の文字データ、楽曲の音または音声を示す音データ、時系列的に配置された複数の静止画データおよび動画データのうちの少なくともいずれか1つを含むデータである。 In another preferred embodiment, each of the first set data and the second set data processed by the data processing device is a performance for instructing an automatic performance device to control pronunciation of a tone included in a musical piece. Control data, logical score data that is a combination of data indicating the components of the musical score and timing data indicating the position of the component on the time axis, a plurality of character data arranged in time series, It is data including at least one of sound data indicating the sound or sound of music, a plurality of still image data and moving image data arranged in time series.
かかる構成のデータ編集装置によれば、例えば、同じ楽曲の楽譜と自動演奏や、映画の映像と字幕など、様々な視聴覚に関するデータ間において、各タイミングにおける整合性のチェックが可能である。 According to the data editing apparatus having such a configuration, it is possible to check consistency at various timings between various audiovisual data such as a score and automatic performance of the same music, a movie image and subtitles.
さらに、本発明は、タイミングを示すタイミングデータと当該タイミングデータにより示されるタイミングに関連するデータである内容データとの組合せである要素データを1以上含む第1の集合データに含まれる要素データのうち、特定のタイミングを示すタイミングデータを含む要素データに含まれる内容データにより示される第1の内容と、タイミングを示すタイミングデータと当該タイミングデータにより示されるタイミングに関連するデータである内容データとの組合せである要素データを1以上含む集合データであって、前記第1の集合データとは異なる形式の内容データを含む第2の集合データに含まれる要素データのうち、特定のタイミングを示すタイミングデータを含む要素データに含まれる内容データにより示される第2の内容とが予め定められた関係を満たすか否かを判定する処理をコンピュータに実行させることを特徴とするプログラムを提供する。 Furthermore, the present invention relates to element data included in first set data including at least one element data that is a combination of timing data indicating timing and content data that is data related to the timing indicated by the timing data. A combination of the first content indicated by the content data included in the element data including the timing data indicating the specific timing, and the content data which is the timing data indicating the timing and the data related to the timing indicated by the timing data Timing data indicating a specific timing among element data included in second set data including content data in a format different from that of the first set data. Specified by the content data included in the included element data And content of providing a program for causing execute processing for determining the computer whether it satisfies a predetermined relationship.
かかるプログラムによれば、上述した本発明にかかるデータ処理装置を、コンピュータにより実現することが可能となる。 According to such a program, the above-described data processing apparatus according to the present invention can be realized by a computer.
本発明にかかるデータ処理装置およびプログラムによれば、手作業による手間を要することなく、時系列情報を伴う異なる形式のデータ間の整合性の有無に関し、正確な判定結果を得ることができる。 According to the data processing device and the program according to the present invention, it is possible to obtain an accurate determination result regarding the presence or absence of consistency between different types of data accompanied by time-series information without requiring manual labor.
[1.第1実施形態]
本発明の第1実施形態にかかるデータ処理装置(以下、「エラーチェックツール10」と呼ぶ)は、ユーザに対する楽曲演奏の習得支援を行う装置(以下、「トレーナーツール20」と呼ぶ)が用いるデータ間の整合性をチェックし、そのデータ間に不整合があった場合、必要なデータの修正を行う装置である。従って、以下、トレーナーツール20の機能概要およびトレーナーツール20が用いるデータの構造を説明した後、本実施形態にかかるエラーチェックツール10の構成および動作を説明する。
[1. First Embodiment]
The data processing apparatus (hereinafter referred to as “
[1.1.トレーナーツールの構成]
図1は、トレーナーツール20の構成およびトレーナーツール20に接続されたキーボード30を示す図である。トレーナーツール20は、トレーナーツール20の各構成部の制御を行う制御部201、ユーザに対し楽譜等の表示を行う表示部202、音源部やスピーカ等を備え楽音の発音を行うサウンドシステム203、制御部201が行うべき処理を指示するプログラム等を記憶する記憶部204、キーボード30とのデータの送受信を行う入出力I/F(Interface)205およびトレーナーツール20の構成部間の処理の同期に用いられるクロック信号を送出する発振器206を備えている。キーボード30は、ユーザが楽曲演奏を行うための鍵盤等を備えたミュージックキーボードであり、ユーザの打鍵に応じたデータをトレーナーツール20に送信する。
[1.1. Configuration of trainer tool]
FIG. 1 is a diagram showing the configuration of the
記憶部204は、制御部201に対し各種処理を指示するプログラムに加え、表示部202により表示される楽譜の内容を示す論理楽譜データ2041と、制御部201の制御の下でサウンドシステム203により行われる自動演奏の内容を示す演奏制御データ2042を、それぞれ複数記憶している。ある楽曲に関する論理楽譜データ2041と、同じ楽曲に関する演奏制御データ2042は、例えば拡張子を除くファイル名が共通しており、互いに対応付けがなされている。以下、個々の論理楽譜データ2041を論理楽譜データ2041a、論理楽譜データ2041b、・・・と表し、個々の演奏制御データ2042のそれぞれを演奏制御データ2042a、演奏制御データ2042b、・・・と表す。また、符号末尾が同じ論理楽譜データ2041と演奏制御データ2042は、同じ楽曲に関するデータであるものとする。さらに、論理楽譜データ2041aおよび演奏制御データ2042aは、ともに楽曲「聖者の行進」に関するデータであるものとする。
In addition to a program for instructing the
[1.2.論理楽譜データ]
続いて、論理楽譜データ2041の構造および役割を説明する。図2は、論理楽譜データ2041aに従ってトレーナーツール20の表示部202に表示される楽譜を示した図である。また、図3および図4は、論理楽譜データ2041aの一部を例示した図であり、図3および図4は、それぞれ図2に示した楽譜の第1段および第4段に対応している。なお、実際には論理楽譜データ2041aは図3および図4に示されるデータを含む一連のデータである。
[1.2. Logic score data]
Next, the structure and role of the logic score data 2041 will be described. FIG. 2 is a diagram showing a score displayed on the
論理楽譜データ2041aは、図3および図4において各行のデータとして示される要素データ(以下、「楽譜要素データ」と呼ぶ)の集合であり、各楽譜要素データは楽譜に含まれる音符や強弱記号等の各構成要素(以下、「楽譜要素」と呼ぶ)を表示するための情報を含んでいる。楽譜要素データは、楽譜要素データを識別するための「ID(Identifier)」、楽譜要素の表示位置の時間軸方向、すなわちX軸方向の位置を示す「MBT(Measure/Beat/Tick)1」および「MBT2」、楽譜要素の表示位置のY軸方向の位置を示す「Y1」および「Y2」、楽譜要素の種類を示す「Type」、楽譜要素の種類に応じた各種情報を示す「Value」を含んでいる。また、「MBT1」および「Y1」と「MBT2」および「Y2」はそれぞれ対をなし、楽譜上の1点を示す。以下、各楽譜要素データを区別する必要がある場合、IDを付して、楽譜要素データ「1」のように表す。 The logical score data 2041a is a set of element data (hereinafter referred to as “score element data”) shown as data in each row in FIGS. 3 and 4, and each score element data includes notes, dynamic symbols, and the like included in the score. Information for displaying each component (hereinafter referred to as "musical score element"). The score element data includes “ID (Identifier)” for identifying the score element data, “MBT (Measure / Beat / Tick) 1” indicating the time axis direction of the display position of the score element, that is, the position in the X axis direction, and “MBT2”, “Y1” and “Y2” indicating the display position of the score element in the Y-axis direction, “Type” indicating the type of the score element, and “Value” indicating various information according to the type of the score element Contains. In addition, “MBT1” and “Y1” and “MBT2” and “Y2” form a pair, and indicate one point on the score. Hereinafter, when it is necessary to distinguish each piece of musical score element data, an ID is attached and the musical piece element data is represented as “1”.
「MBT1」および「MBT2」は、3つの数値の組で構成されており、それぞれ小節番号、拍番号およびティック番号を示している。ティック番号とは、1拍を所定数に等分した時間単位であるティックの番号であり、以下の説明においては、例として1ティック=1/480拍とする。例えば、「1:1:000」は、第1小節第1拍の開始タイミングを示し、「1:1:001」は第1小節第1拍の開始タイミングから1ティック(1/480拍)だけ経過したタイミングを示す。論理楽譜データ2041aにおいて、「MBT1」および「MBT2」は楽譜の各段における先頭からのタイミングを示す。ただし、楽譜には、音部記号のようにいずれの小節にも属さない楽譜要素がある。そこで、「MBT1」および「MBT2」は、「Type」に応じて、実際には存在しないタイミングを示す「0:0:000」〜「0:1:479」、「#:0:000」(#は正の整数)および「#:X:480」(#およびXは正の整数)といった値をとることができる。 “MBT1” and “MBT2” are composed of a set of three numerical values, each indicating a bar number, a beat number, and a tick number. The tick number is a tick number that is a time unit obtained by equally dividing one beat into a predetermined number. In the following description, for example, 1 tick = 1/480 beats. For example, “1: 1: 000” indicates the start timing of the first beat of the first measure, and “1: 1: 001” indicates only one tick (1/480 beat) from the start timing of the first beat of the first measure. Indicates the elapsed timing. In the logical score data 2041a, “MBT1” and “MBT2” indicate the timing from the beginning of each stage of the score. However, there are musical score elements that do not belong to any measure, such as clef. Accordingly, “MBT1” and “MBT2” indicate “0: 0: 000” to “0: 1: 479”, “#: 0: 000” (“0: 0000”) indicating the timing that does not actually exist according to “Type”. # Is a positive integer) and “#: X: 480” (# and X are positive integers).
「0:0:000」〜「0:1:479」は、第1小節よりも前の位置を示し、音部記号、調子記号、拍子記号等を表示するための楽譜要素データに用いられる。「#:0:000」は、第#小節の始まりを示す小節線の位置を示す。「#:X:480」は、第#小節の終わりを示す小節線の位置を示す。その場合、Xは小節の最終拍の番号であり、例えば4/4拍子の楽曲においては、Xは「4」である。従って、例えば「2:4:480」と「3:0:000」はともに第2小節と第3小節を区切る小節線の位置を示す。本実施形態においては、通常の小節線は後続の小節の始まりを示すものとして扱い、例えば第2小節と第3小節の間に位置する小節線の位置としては「3:0:000」を用いる。そして、各段の最終小節の終了を示す小節線や、反復期間の終点を示すリピート記号のように、楽譜上、後続の小節が存在しない場合において、それらの小節線等の位置を「4:4:480」のように表す。ところで、「Type」が「バーライン」であり、「MBT1」および「MBT2」が「#:X:480」である楽譜要素データは、各段の末尾の小節線、すなわち各段の区切りを示す。そこで、以下、そのような楽譜要素データを「段区切りデータ」と呼ぶ。 “0: 0: 000” to “0: 1: 479” indicate positions before the first measure, and are used for musical score element data for displaying clef symbols, tone symbols, time signature symbols, and the like. “#: 0: 000” indicates the position of a bar line indicating the start of the #th bar. “#: X: 480” indicates the position of a bar line indicating the end of the #th bar. In that case, X is the number of the last beat of the measure. For example, in the music of 4/4 time, X is “4”. Therefore, for example, “2: 4: 480” and “3: 0: 000” both indicate the positions of the bar lines that divide the second bar and the third bar. In the present embodiment, a normal bar line is treated as indicating the start of the subsequent bar, and for example, “3: 0: 000” is used as the bar line position between the second bar and the third bar. . Then, when there are no subsequent bars on the score, such as a bar line indicating the end of the last bar of each stage or a repeat symbol indicating the end point of the repetition period, the positions of those bar lines and the like are set to “4: 4: 480 ". By the way, the musical score element data in which “Type” is “bar line” and “MBT1” and “MBT2” are “#: X: 480” indicates the bar line at the end of each stage, that is, the break of each stage. . Thus, hereinafter, such musical score element data is referred to as “column break data”.
楽譜の各段に対応する楽譜要素データ群において、各楽譜要素データは「MBT1」により示されるタイミングが早い順に並んでいる。また、「MBT1」により示されるタイミングが同じ場合、「Y1」により示される値が小さい順に並んでいる。「Y1」および「Y2」は整数値であり、楽譜において第一線のY軸方向の位置を「100」とし、隣り合う線間の距離を「10」とした場合のY軸方向の位置を示す。例えば、第二線を示す楽譜要素データの「Y1」および「Y2」は「110」となる。 In the musical score element data group corresponding to each stage of the musical score, the musical score element data are arranged in the order of the timing indicated by “MBT1”. When the timings indicated by “MBT1” are the same, the values indicated by “Y1” are arranged in ascending order. “Y1” and “Y2” are integer values. In the score, the position of the first line in the Y-axis direction is “100”, and the distance between adjacent lines is “10”. Show. For example, “Y1” and “Y2” of the musical score element data indicating the second line are “110”.
論理楽譜データ2041aに含まれる全ての楽譜要素データは「MBT1」と「Y1」の値を有しており、「MBT1」と「Y1」の組合せは、楽譜要素データの「Type」に応じて、楽譜要素の基準点もしくは始点を示す。基準点とは、例えばト音記号のト音位置を示す点や音符の符頭の中心点など、1点により位置を特定可能な各楽譜要素が持つ特徴点のことである。「MBT1」と「Y1」の組合せが楽譜要素の基準点を示す場合、その楽譜要素データは「MBT2」と「Y2」の値を持たない。一方、表示位置を特定するために始点と終点を要する楽譜要素は、「MBT1」と「Y1」の組合せが楽譜要素の表示位置の始点を示し、「MBT2」と「Y2」の組合せがその楽譜要素の表示位置の終点を示す。 All the musical score element data included in the logical musical score data 2041a have values of “MBT1” and “Y1”, and the combination of “MBT1” and “Y1” depends on “Type” of the musical score element data. Indicates the reference point or starting point of the score element. The reference point is a feature point of each musical score element whose position can be specified by one point, such as a point indicating the treble position of the treble clef or the center point of the note head. When the combination of “MBT1” and “Y1” indicates the reference point of the score element, the score element data does not have the values “MBT2” and “Y2”. On the other hand, for a musical score element that requires a start point and an end point to specify the display position, the combination of “MBT1” and “Y1” indicates the start point of the display position of the musical score element, and the combination of “MBT2” and “Y2” is the score. Indicates the end point of the display position of the element.
「Type」の値としては、第一線から第五線を示す「スコアライン」、音部記号を示す「クレフ」、調子記号を示す「キー」、拍子記号を示す「タイム」、楽曲の速度表示を示す「テンポ」、音符の符頭を示す「ノートヘッド」、音符の符尾を示す「ステム」、音符の符鈎を示す「フラグ」、小節線を示す「バーライン」、和声記号を示す「コード」、歌詞を示す「リリック」、備考等を示す「メモ」、タイおよびスラーの記号を示す「カーブ」、強弱記号を示す「フォルテ」等、音量変化記号を示す「クレッシェンド」等、速度変化記号を示す「リタルダンド」等、反復記号を示す「リピートマーク」等といった各種記号を示すものが用いられる。 The value of “Type” includes “score line” indicating the first to fifth lines, “clef” indicating the clef, “key” indicating the tone symbol, “time” indicating the time signature, and the speed of the music “Tempo” indicating the display, “Note head” indicating the note head, “Stem” indicating the note tail, “Flag” indicating the note note, “Bar line” indicating the bar line, Harmonic symbol "Cord" indicating lyrics, "Lyric" indicating lyrics, "Memo" indicating remarks, "Curve" indicating tie and slur symbols, "Forte" indicating strength symbols, "Crescendo" indicating volume change symbols, etc. Those indicating various symbols such as “Ritardando” indicating a speed change symbol and “Repeat Mark” indicating a repetition symbol are used.
上記に例示した「Type」の値のうち、例えば「スコアライン」、「ステム」、「バーライン」、「カーブ」および「クレッシェンド」は始点および終点を要する楽譜要素を示しており、「MBT2」および「Y2」の値を持つ。一方、その他の楽譜要素データは「MBT2」および「Y2」の値を持たない。 Among the values of “Type” exemplified above, for example, “score line”, “stem”, “bar line”, “curve”, and “crescendo” indicate musical score elements that require a start point and an end point, and “MBT2”. And “Y2”. On the other hand, the other musical score element data does not have the values “MBT2” and “Y2”.
「Value」は「Type」に応じて様々な値をとり、また不要の場合には値をとらない。例えば、「Type」が「クレフ」の場合、「Value」の値は「ト音記号」、「へ音記号」もしくは「ハ音記号」のいずれかである。また、例えば「Type」が「スコアライン」の場合、「Value」は不要のため、いずれの値も入らない。 “Value” takes various values according to “Type”, and does not take a value when unnecessary. For example, when “Type” is “Clef”, the value of “Value” is any one of “G clef”, “H clef”, or “C clef”. Further, for example, when “Type” is “score line”, “Value” is unnecessary, and therefore no value is entered.
以下、論理楽譜データ2041aにより楽譜の表示が指示される様子を、図2および図3を用いて簡単に説明する。既に述べたように、図3に示されるデータは、図2に示される楽譜の第1段の表示を指示するデータである。楽譜要素データ「1」は、「Y1」および「Y2」により示されるY軸方向「100」の高さに、MBT1「0:0:000」で示される段の左端から、MBT2「4:4:480」で示される段の右端にかけて線を引くことを指示している。すなわち、楽譜要素データ「1」は第1段の第一線の表示を指示している。同様に、楽譜要素データ「2」〜「5」は、第1段の第二線〜第五線の表示を指示している。 Hereinafter, a state in which the display of the score is instructed by the logical score data 2041a will be briefly described with reference to FIGS. As already described, the data shown in FIG. 3 is data instructing the display of the first stage of the score shown in FIG. The musical score element data “1” has an MBT2 “4: 4” from the left end of the stage indicated by MBT1 “0: 0: 000” at the height in the Y-axis direction “100” indicated by “Y1” and “Y2”. : 480 "is instructed to draw a line toward the right end of the stage. That is, the musical score element data “1” indicates the display of the first line of the first row. Similarly, the musical score element data “2” to “5” indicates the display of the second line to the fifth line in the first stage.
楽譜要素データ「6」〜「9」は、それぞれト音記号、テンポ記号、調子記号および拍子記号の表示を指示するデータである。楽譜要素データ「10」および「11」は、第1小節における第1拍および第2拍に位置する休符記号の表示を指示するデータである。楽譜要素データ「12」は、「Oh,」という歌詞の表示を指示するデータである。 The musical score element data “6” to “9” are data instructing display of a treble clef, a tempo symbol, a tone symbol, and a time signature symbol, respectively. The musical score element data “10” and “11” are data for instructing display of rest symbols located at the first beat and the second beat in the first measure. The musical score element data “12” is data instructing display of the lyrics “Oh,”.
楽譜要素データ「13」〜「15」は、それぞれ八分音符の符頭、符尾および符鈎を示し、これら3つで一つの音符の表示を指示している。楽譜要素データ「13」の「MBT1」と「Y1」は符頭の中心点を示しており、「Value」はその符頭が黒であることを示している。楽譜要素データ「14」の「MBT1」と「Y1」は符尾の始点を、また「MBT2」と「Y2」は符尾の終点を示している。トレーナーツール20は、楽譜要素データ「14」の「Y1」の値より「Y2」の値が大きいことから、楽譜要素データ「14」に従って符尾を表示する場合、「MBT1」および「MBT2」で示されるX軸方向の位置より、符頭の幅の半分だけ右側にずれた位置に符尾を表示する。楽譜要素データ「15」の「MBT1」と「Y1」は符鈎の始点を、「MBT2」と「Y2」は符鈎の終点を、また「Value」はその符鈎が八分音符を示す一重の符鈎であることを示している。トレーナーツール20は、楽譜要素データ「15」の「Y1」の値より「Y2」の値が小さいことから、楽譜要素データ「15」に従って符鈎を表示する場合、「MBT1」および「MBT2」で示されるX軸方向の位置より、符頭の幅の半分だけ右側にずれた位置に、右側に凸を描く符鈎を表示する。
The musical score element data “13” to “15” respectively indicate the note head, note tail, and note pad of the eighth note, and these three indicate the display of one note. “MBT1” and “Y1” of the musical score element data “13” indicate the center point of the note head, and “Value” indicates that the note head is black. “MBT1” and “Y1” of the musical score element data “14” indicate the start point of the note, and “MBT2” and “Y2” indicate the end point of the note. Since the value of “Y2” is larger than the value of “Y1” of the score element data “14”, the
楽譜要素データ「16」以降が楽譜要素の表示を指示する仕組みは楽譜要素データ「1」〜「15」と同様であるので、その説明を省略する。ここで、楽譜要素データ「46」は「MBT1」および「MBT2」の値が「4:4:480」であり、「Value」が「バーライン」であるため、段区切りデータである。従って、トレーナーツール20は、楽譜要素データ「46」に従い小節線を表示するとともに、後続の楽譜要素データにより示される楽譜要素を異なる段に表示する。なお、本実施形態においては、楽譜要素データの「MBT1」および「MBT2」は各段の先頭を基準とするタイミングを示すように構成されているが、楽曲の先頭を基準とするタイミングを示すように構成してもよい。その場合、例えば、第4段の先頭小節は楽曲における第13小節であるため、楽譜要素データ「137」の「MBT1」は「13:1:000」となる。
Since the mechanism for instructing the display of the musical score elements from the musical score element data “16” and thereafter is the same as the musical score element data “1” to “15”, description thereof will be omitted. Here, the score element data “46” is column-delimited data because the values of “MBT1” and “MBT2” are “4: 4: 480” and “Value” is “barline”. Therefore, the
[1.3.演奏制御データ]
続いて、演奏制御データ2042の構成を説明する。図5および図6は、演奏制御データ2042aの内容の一部を例示した図であり、それぞれ、図2に示した楽譜の第1段および第4段に対応している。なお、実際には演奏制御データ2042aは図5および図6に示されるデータを含む一連のデータである。演奏制御データ2042aは、図5および図6において各行のデータとして示される要素データ(以下、「演奏要素データ」と呼ぶ)の集合であり、各演奏要素データは楽音の発音を指示したり、歌詞等の楽曲に関する情報を示したりするデータである。各演奏要素データは、演奏要素データを識別するための「ID」、楽曲の演奏パートを示す「Track」、楽曲における特定のタイミングを示す「MBT」、演奏要素データの種類を示す「Type」、演奏要素データの種類に応じた各種情報を示す「Value」を含んでいる。以下、各演奏要素データを区別する必要がある場合、IDを付して、演奏要素データ「1」のように表す。
[1.3. Performance control data]
Next, the configuration of the performance control data 2042 will be described. 5 and 6 are diagrams illustrating a part of the contents of the performance control data 2042a, which correspond to the first and fourth levels of the score shown in FIG. 2, respectively. Actually, the performance control data 2042a is a series of data including the data shown in FIGS. The performance control data 2042a is a set of element data (hereinafter referred to as “performance element data”) shown as data in each row in FIGS. 5 and 6, and each performance element data instructs the pronunciation of a musical sound or lyrics. It is data indicating information related to music such as. Each performance element data includes “ID” for identifying performance element data, “Track” indicating the performance part of the music, “MBT” indicating specific timing in the music, “Type” indicating the type of performance element data, “Value” indicating various information corresponding to the type of performance element data is included. Hereinafter, when it is necessary to distinguish each piece of performance element data, an ID is attached and the performance element data is represented as “1”.
本実施形態において、楽曲「聖者の進行」は演奏パートを1つしか含んでいないため、全ての演奏要素データに関し「Track」は「1」である。演奏要素データは「MBT」により示されるタイミングが早い順に並んでいる。 In the present embodiment, since the musical piece “Progress of Saints” includes only one performance part, “Track” is “1” for all performance element data. The performance element data are arranged in the order of the timing indicated by “MBT”.
「Type」の値は、楽曲の調子を示す「キー」、楽曲の拍子を指示する「タイム」、楽曲の速度を指示する「テンポ」、楽音の発音開始を指示する「ノートオン」、楽音の発音終了を指示する「ノートオフ」、楽曲に付される和声を示す「コード」、楽曲に付される歌詞を示す「リリック」および楽曲に付される備考等の情報を指示する「メモ」のいずれかである。ただし、「Type」の値として、音色や音響効果に関するものなど、上記以外のものを用いるようにしてもよい。また、以下の説明において、「メモ」の「Value」は、「リリック」等の「Value」と異なり、通常は楽譜上に表示されないものとする。 The value of “Type” is “key” indicating the tone of the music, “time” indicating the time of the music, “tempo” indicating the speed of the music, “note-on” indicating the start of musical sound, "Note off" to indicate the end of pronunciation, "chord" to indicate the harmony attached to the song, "lyric" to indicate the lyrics attached to the song, and "memo" to indicate information such as remarks attached to the song One of them. However, as the value of “Type”, a value other than those described above, such as those related to timbre and acoustic effect, may be used. In the following description, “Value” of “Memo” is not normally displayed on the score unlike “Value” such as “Lyric”.
「Type」が「キー」、「タイム」、「コード」、「リリック」および「メモ」である演奏要素データの「Value」は、それぞれ調子、拍子、和声、歌詞および備考等の情報を示す。「Type」が「テンポ」である演奏要素データの「Value」は楽曲の速度を示し、例えば「120」は4分音符が(1/120)分の長さとなる速度であることを示す。「Type」が「ノートオン」である演奏要素データの「Value」は、楽音の音高を示す文字列と音量を示す数値との組合せである。例えば、演奏要素データ「4」のValue「F3(72)」は中央のヘ音を72(中程度)の音量で発音することを示す。なお、音量を示す数値は0〜127のいずれかの整数値である。「Type」が「ノートオフ」である演奏要素データの「Value」は、発音を終了すべき楽音の音高を示す。 “Value” of the performance element data whose “Type” is “key”, “time”, “chord”, “lyric”, and “memo” indicate information such as tone, time signature, harmony, lyrics, and remarks, respectively. . “Value” of the performance element data whose “Type” is “tempo” indicates the speed of the music, for example, “120” indicates that the quarter note has a speed of (1/120). “Value” of the performance element data whose “Type” is “Note On” is a combination of a character string indicating the pitch of a musical sound and a numerical value indicating the volume. For example, the value “F3 (72)” of the performance element data “4” indicates that the central sound is pronounced at a volume of 72 (medium). The numerical value indicating the volume is an integer value from 0 to 127. “Value” of the performance element data whose “Type” is “Note Off” indicates the pitch of a musical tone whose sound generation should be terminated.
演奏制御データ2042aの役割は、SMF(Standard MIDI File)等の、自動演奏装置に自動演奏を指示するための一般的なデータの役割と同様であるので、その説明を省略する。 The role of the performance control data 2042a is the same as the role of general data for instructing automatic performance to an automatic performance device such as SMF (Standard MIDI File), and the description thereof will be omitted.
[1.4.トレーナーツールの動作]
続いて、トレーナーツール20が上述した演奏制御データ2042aおよび論理楽譜データ2041aを用いて、ユーザに対し楽曲演奏の習得支援を行う際の動作を説明する。図7は、ユーザがトレーナーツール20を用いた楽曲演奏の習得を行う際に、トレーナーツール20の表示部202に表示される画面(以下、「トレーニング画面」と呼ぶ)を例示した図である。
[1.4. Operation of trainer tool]
Next, the operation when the
トレーニング画面には、ユーザが演奏習得を行う楽曲を指定するためのボックス2021、ユーザが演奏習得を行いたいと考える楽曲部分の開始小節番号を指定するためのボックス2022、ユーザが演奏習得を行いたいと考える楽曲部分の終了小節番号を指定するためのボックス2023、ユーザが楽曲の演奏速度を指定するためのボックス2024、ユーザが模範演奏を聴くか自分で演奏の練習を行うかを選択するためのチェックボックス2025、ユーザが模範演奏もしくはユーザによる練習の開始を指示するためのボタン2026、そしてユーザが模範演奏もしくはユーザによる練習の停止を指示するためのボタン2027が表示されている。
On the training screen, a
また、トレーニング画面には、ユーザによりボックス2021に入力された楽曲名に対応する楽譜のうち、ボックス2022に入力された小節番号から始まる8小節分が、楽譜2028aおよび楽譜2028bとして2段にわたり表示されている。また、楽譜2028aの上部には、現在の演奏位置を示すマーク2029が表示されている。
Also, on the training screen, 8 bars starting from the bar number input in the
ユーザは、まずボックス2021において演奏習得を行いたい楽曲名を選択する。ここで、ユーザは「聖者の行進」を選択するものとする。トレーナーツール20は、そのユーザの選択に応じて、記憶部204から演奏制御データ2042aを読み出し、演奏制御データ2042aに含まれる最後の演奏要素データの「MBT」から、楽曲「聖者の行進」が第21小節まであることを特定し、ボックス2022に楽曲の先頭小節番号を示す「001」を、ボックス2023に楽曲の末尾小節番号を示す「021」を表示する。また、トレーナーツール20は、演奏制御データ2042aから「Type」が「テンポ」である最初の演奏要素データを検索し、検索した演奏要素データの「Value」から楽曲「聖者の行進」の速度の初期値が「120」であることを特定し、ボックス2024に「120」を表示する。
First, the user selects the name of a song for which he / she wants to learn a performance in
続いて、トレーナーツール20は、記憶部204から論理楽譜データ2041aを読み出し、論理楽譜データ2041aに含まれる楽譜要素データの先頭から最初の段区切りデータまでのもの(図3参照)に従い、楽譜2028aの表示を、また最初の段区切りデータと次の段区切りデータの間に含まれる楽譜要素データに従い、楽譜2028bの表示を行う。さらに、トレーナーツール20は、マーク2029を楽譜2028aの第1小節の先頭部分に表示する。
Subsequently, the
ユーザは、模範演奏を聴きたい場合、チェックボックス2025の「模範演奏」にチェックを付け、ボタン2026をクリックする。その操作に応じて、トレーナーツール20は演奏制御データ2042aに従いサウンドシステム203により楽音の発音を行うことにより、楽曲「聖者の行進」の自動演奏を開始する。その自動演奏の進行に伴い、トレーナーツール20はマーク2029が楽譜2028aにおける現在の演奏位置を示すように、マーク2029の表示位置を十分に短い時間間隔で変更する。
When the user wants to listen to the model performance, the user checks the “model performance” in the
自動演奏が楽譜2028aに示される楽曲部分の最後に達した場合、トレーナーツール20は楽譜2028bに表示していた表示内容で楽譜2028aの表示を更新し、楽譜2028aの左端にマーク2029を移動するとともに、楽譜2028bの位置に後続する段の楽譜を表示する。ただし、更新後の楽譜2028aに表示されている段が最終段である場合、トレーナーツール20は楽譜2028bの位置には何も表示しない。その後、トレーナーツール20は楽曲の自動演奏が終わるまで、上述したトレーニング画面の表示の更新を繰り返す。このようにして、トレーナーツール20により楽譜の表示と模範演奏の自動演奏が連動して行われる。
When the automatic performance reaches the end of the music portion shown in the
一方、ユーザは自分で演奏の練習を行いたい場合、チェックボックス2025の「練習」にチェックを付け、ボタン2026をクリックする。その操作に応じて、トレーナーツール20は演奏制御データ2042aに含まれる「Type」が「タイム」および「テンポ」である演奏要素データに従い、サウンドシステム203によるメトロノーム音の発音を開始する。そのメトロノーム音の発音に伴い、トレーナーツール20は、ユーザが「模範演奏」を選択した場合と同様に、楽譜2028a等の表示の更新を行う。ユーザは、表示部202に表示される楽譜に従い、キーボード30を用いて楽曲の演奏を行う。キーボード30はユーザによる打鍵に応じたデータをトレーナーツール20に送信し、トレーナーツール20はキーボード30から受信するデータに従い、サウンドシステム203による楽音の発音を行う。その結果、ユーザは楽譜に従った演奏の練習を行うことができる。
On the other hand, if the user wants to practice the performance by himself / herself, the “practice”
なお、演奏制御データ2042aには1つの演奏パートに関するデータしか含まれていないが、複数の演奏パートに関するデータを含む演奏制御データ2042を用いる場合、例えばユーザが自分で演奏を行う演奏パートを選択し、トレーナーツール20はユーザにより選択されなかった演奏パートのみを自動演奏するようにしてもよい。
The performance control data 2042a includes only data related to one performance part. However, when using the performance control data 2042 including data related to a plurality of performance parts, for example, the user selects a performance part to perform by himself / herself. The
[1.5.エラーチェックツールの構成]
続いて、本発明にかかるエラーチェックツール10の構成を説明する。図8は、エラーチェックツール10のハードウェア構成を示す図である。エラーチェックツール10は、一般的なコンピュータと同様に、各種データ処理を行うとともに他の構成部の制御を行うCPU(Central Processing Unit)101、CPU101に基本的処理を行わせるBIOS(Basic Input Output System)等を記憶するROM(Read Only Memory)102、CPU101のデータ処理において一時的にデータを記憶するRAM(Random Access Memory)103、エラーチェックツール10の機能を実現するためのアプリケーションプログラム(以下、「エラーチェックプログラム」と呼ぶ)や各種データを記憶するHD(Hard Disk)104、CPU101の指示に従い画像を表示するディスプレイ105、ユーザの操作に応じた信号を送信するキーボード106およびマウス107、そして各種の外部機器との間でデータの送受信を行う入出力I/F108を有している。
[1.5. Error check tool configuration]
Next, the configuration of the
入出力I/F108には、例えば外部記憶装置401が接続され、エラーチェックツール10は、外部記憶装置401との間で、論理楽譜データ2041および演奏制御データ2042の送受信を行うことができる。また、入出力I/F108はインターネット402とも接続され、インターネット402に接続された他の通信装置との間で、論理楽譜データ2041および演奏制御データ2042の送受信を行うこともできる。以下の説明においては、エラーチェックツール10のHD104には、入出力I/F108等を介してエラーチェックツール10が取得した論理楽譜データ2041a(図3および図4参照)および演奏制御データ2042a(図5および図6参照)が既に記憶されているものとする。
For example, an
CPU101は、エラーチェックプログラムを実行することにより、エラーチェックツール10の各種機能を実現する。図9は、エラーチェックツール10の機能構成を示したブロック図である。ただし、エラーチェックツール10が外部記憶装置401との間でデータ通信を行うための通信部等は、一般的な通信機器におけるものと同様であるため、図9においては省略されている。
The
エラーチェックツール10は、論理楽譜データ2041をHD104等から取得する論理楽譜データ取得部121、演奏制御データ2042をHD104等から取得する演奏制御データ取得部122、論理楽譜データ取得部121および演奏制御データ取得部122により取得された論理楽譜データ2041および演奏制御データ2042を一時的に記憶する記憶部123、論理楽譜データ2041と演奏制御データ2042との整合性を判定する判定部124、論理楽譜データ2041および演奏制御データ2042の内容や判定部124による判定の結果を画面表示によりユーザに報知する表示部125、ユーザによる論理楽譜データ2041もしくは演奏制御データ2042に対する変更指示を取得する変更指示取得部126、判定部124による判定の結果および変更指示取得部126により取得されるユーザの変更指示に応じて論理楽譜データ2041もしくは演奏制御データ2042に対する変更を行う変更部127、変更部127により変更された論理楽譜データ2041をHD104等に出力する論理楽譜データ出力部128、そして変更部127により変更された演奏制御データ2042をHD104等に出力する演奏制御データ出力部129を備えている。なお、エラーチェックツール10は、表示部125による画面表示による報知に加え、判定部124による判定結果を音等で報知する報知部をさらに備えるようにしてもよい。
The
図9における記憶部123、表示部125および変更指示取得部126は、それぞれ図8におけるCPU101の制御の下で、RAM103、ディスプレイ105およびキーボード106またはマウス107により実現される。図9におけるその他の構成部は、主としてCPU101により実現される。また、以下の説明においては、エラーチェックツール10は図8に示した装置がエラーチェックプログラムを実行することにより実現されるものとするが、図9に示した各構成部の機能をそれぞれ実行可能なプロセッサ等の組合せにより実現されてもよい。
The
[1.6.エラーチェックツールの動作]
以下、エラーチェックツール10の動作を説明する。図10は、エラーチェックツール10のディスプレイ105に表示される画面(以下、「チェック画面」と呼ぶ)を例示した図である。チェック画面には、ユーザが整合性チェックを行う論理楽譜データ2041および演奏制御データ2042のファイル名(拡張子を除く)を指定するためのボックス1051、ボックス1053に表示されている楽譜の範囲を示すボックス1052、楽譜を示すボックス1053、演奏制御データを表示するためのリスト1054、ユーザが整合性チェックを行いたいと考える項目を選択するためのチェックボックス1055、ユーザがデータ間の不整合の修正を行う方法を選択するためのチェックボックス1056、ユーザがデータ間の不整合チェックの開始を指示するためのボタン1057、そしてユーザが不整合チェックにより変更されたデータの保存を指示するためのボタン1058が含まれている。
[1.6. Operation of error check tool]
Hereinafter, the operation of the
ユーザは、まずボックス1051において、整合性チェックを行いたい論理楽譜データ2041および演奏制御データ2042のファイル名(拡張子を除く)を選択する。ここで、ユーザは「聖者の行進」を選択するものとする。論理楽譜データ取得部121および演奏制御データ取得部122は、そのユーザの選択に応じて、HD104から論理楽譜データ2041aおよび演奏制御データ2042aをそれぞれ読み出し、記憶部123に一時的に記憶する。表示部125は記憶部123に新たに記憶されたそれらのデータに従い、ボックス1053およびリスト1054の表示を行う。その場合、表示部125は、ボックス1052に初期値として楽曲の最初の4小節を示す「001〜004」を表示するとともに、ボックス1053には論理楽譜データ2041aに従い生成される楽譜の第1段を、またリスト1054には演奏制御データ2042aに含まれる要素データの最初の部分を表示する。また、表示部125は、チェックボックス1055の表示を、初期値である「全て」が選択された状態で、またチェックボックス1056の表示を、初期値である「修正候補を表示」が選択された状態で表示する。図10は、表示部125によるこれらの処理が完了した時点におけるチェック画面を示している。
The user first selects the file names (excluding the extension) of the logical score data 2041 and performance control data 2042 to be checked for consistency in
ユーザは、チェックボックス1055およびチェックボックス1056に示されるオプションの初期値を用いてデータの整合性チェックを行いたい場合、ボタン1057をクリックする。その操作に応じて、判定部124は、例えば、反復、音高および音長、音量、速度、歌詞、そしてコードの順で、整合性チェックを行う。図11は、判定部124により行われるこれらの判定処理の処理フローを示した図である。
When the user wants to perform data consistency check using the initial values of options shown in the
判定部124は、記憶部123に記憶されている論理楽譜データ2041a(図3および図4参照)の先頭から順に、「Type」が反復記号を示す楽譜要素データを検索する。反復記号を示す「Type」としては、「リピートマーク」、「エンディング」、「コーダ」、「セーニョ」等がある。この場合、判定部124はまず、「Type」が「リピートマーク」である楽譜要素データ「136」を検索結果として得る。判定部124は、楽譜要素データ「136」の「Value」が「スタート」であることから、続いて、「Type」が「リピートマーク」であり、かつ「Value」が「エンド」である楽譜要素データを検索する。その結果、判定部124は楽譜要素データ「174」を検索結果として得る。
The
続いて、判定部124は、「Type」が「エンディング」である楽譜要素データを先頭から検索する。「Type」が「エンディング」である楽譜要素データは、楽譜においてリピートマークとともに用いられる楽曲末尾における第1括弧、第2括弧等を示す楽譜要素データであるからである。この場合、判定部124は楽譜要素データ「170」を検索結果として得る。判定部124は、楽譜要素データ「170」の「Value」が「ファースト」であることから、続いて、「Type」が「エンディング」であり、かつ「Value」が「セカンド」である楽譜要素データを検索する。その結果、判定部124は楽譜要素データ「175」を検索結果として得る。判定部124は、楽譜要素データ「175」の検索に成功すると、一連の検索処理を終える(ステップS101)。
Subsequently, the
判定部124は、上記の一連の検索処理に成功すると(ステップS102;Yes)、検索された楽譜要素データに含まれる「MBT1」および「MBT2」の値を、楽曲の先頭からのタイミングを示す値に変換する処理(以下、「MBT変換」と呼ぶ)を行う(ステップS103)。本実施形態においては、論理楽譜データ2041に含まれる「MBT1」および「MBT2」は、楽譜における各段の先頭からのタイミングを示しているからである。以下、MBT変換の処理を説明する。
If the
判定部124は、論理楽譜データ2041aの先頭から順次、(1)楽譜要素データが小節の区切りを示すものであるか、(2)楽譜要素データがステップS101において検索された楽譜要素データであるか、また(3)楽譜要素データが反復記号に関するものであるかの判定を行う。以下、(1)〜(3)の判定を「MBT変換のための判定」と呼ぶ。
The
MBT変換のための判定において、楽譜要素データが小節の区切りを示すデータである場合、判定部124はカウンタに1を加算する。このカウンタの数値は先行する小節の総数を示す。なお、小節の区切りを示す楽譜要素データとしては、「Type」が「バーライン」であるものに加え、例えば「Type」が「リピートマーク」であり「Value」が「エンド」であるもの等がある。
In the determination for MBT conversion, when the musical score element data is data indicating a bar break, the
MBT変換のための判定において、判定対象の楽譜要素データがステップS101において検索されたものである場合、判定部124はその楽譜要素データの「MBT1」および「MBT2」に含まれる小節番号にその時点のカウンタの値を加算する。その結果、「MBT1」および「MBT2」は楽曲の先頭からのタイミングを示す数値となる。
In the determination for MBT conversion, if the musical score element data to be determined is the one retrieved in step S101, the
また、判定部124は、MBT変換のための判定において、楽譜要素データが反復記号に関するものである場合、その反復記号に従って、既にMBT変換のための判定を行った楽譜要素データに関しても、再度、MBT変換のための判定およびMBT変換を行う。例えば、判定部124は、反復の終点を示す楽譜要素データ「174」までMBT変換のための判定を行った後、反復の始点を示す楽譜要素データ「136」に戻り、再度、楽譜要素データ「136」以降の楽譜要素データに関しMBT変換のための判定を繰り返す。以上がMBT変換の処理である。
Further, in the determination for MBT conversion, when the score element data is related to the repetition symbol, the
MBT変換の結果、ステップS101において検索された楽譜要素データの「MBT1」および「MBT2」は、以下のように変換される。以下、MBT変換後の楽譜要素データを変換後楽譜要素データと呼ぶ。なお、楽譜要素データ「136」に関しては、反復記号に従い2回、MBT変換が行われる結果、2つの変換後楽譜要素データとなる。以下、それらを変換後楽譜要素データ「136−1」および変換後楽譜要素データ「136−2」として区別する。
変換後楽譜要素データ「136−1」・・・MBT1「13:0:000」、MBT2「13:0:000」。
変換後楽譜要素データ「170」・・・MBT1「16:0:000」、MBT2「16:4:480」。
変換後楽譜要素データ「174」・・・MBT1「16:4:480」、MBT2「16:4:480」。
変換後楽譜要素データ「136−2」・・・MBT1「17:0:000」、MBT2「17:0:000」。
変換後楽譜要素データ「175」・・・MBT1「20:0:000」、MBT2「21:4:480」。
As a result of the MBT conversion, “MBT1” and “MBT2” of the musical score element data searched in step S101 are converted as follows. Hereinafter, the score element data after the MBT conversion is referred to as the converted score element data. Note that the musical score element data “136” is subjected to MBT conversion twice according to the repetition symbol, resulting in two converted musical score element data. Hereinafter, they are distinguished as converted musical score element data “136-1” and converted musical score element data “136-2”.
Music score element data after conversion “136-1”... MBT1 “13: 0: 000”, MBT2 “13: 0: 000”.
The musical score element data after conversion “170”... MBT1 “16: 0: 000”, MBT2 “16: 4: 480”.
The musical score element data after conversion “174”... MBT1 “16: 4: 480”, MBT2 “16: 4: 480”.
The musical score element data after conversion “136-2”... MBT1 “17: 0: 000”, MBT2 “17: 0: 000”.
Music score element data after conversion “175”... MBT1 “20: 0: 000”, MBT2 “21: 4: 480”.
続いて、判定部124は、変換後楽譜要素データに基づき、楽曲において反復部分を示す小節番号を特定する。この場合、判定部124は変換後楽譜要素データの「Type」および「Value」の内容に従い、変換後楽譜要素データ「136−1」のMBT1「13:0:000」で始まり変換後楽譜要素データ「170」のMBT1「16:0:000」の直前で終わる楽曲の部分、すなわち第13小節〜第15小節と、変換後楽譜要素データ「136−2」のMBT1「17:0:000」で始まり変換後楽譜要素データ「175」のMBT1「20:0:000」の直前で終わる楽曲の部分、すなわち第17小節〜第19小節が反復演奏されるべき部分であると特定する。
Subsequently, the
続いて、判定部124は演奏制御データ2042aから、「MBT」が「13:1:000」以降のタイミングを示し、反復時において値が同じとなるべきデータを含む演奏要素データを検索する。反復時において値が同じとなるべきデータとは、例えば「Type」が「ノートオン」である演奏要素データの「Value」の値のうち、音高を示す部分である。一方、例えば「Type」が「テンポ」である演奏要素データは、反復時に「Value」の値が変化したり、また反復時のテンポが同じ場合に演奏要素データ自体が省略されたりする場合があるので、判定部124はそれらの演奏要素データを検索対象としない。この場合、判定部124は検索結果として、演奏要素データ「88」を得る。
Subsequently, the
演奏要素データ「88」の「MBT」は「13:1:000」であり、反復演奏されるべき部分は4小節ずれているので、判定部124は演奏制御データ2042aに含まれる要素データのうち、「MBT」が「17:1:000」の前後一定の範囲、例えば「16:4:466」〜「17:1:015」に含まれ、「Type」が「コード」であり、かつ「Value」が「B♭m」であるものを検索する。「MBT」を「17:1:000」とせず、例えば「16:4:466」〜「17:1:015」とするのは、演奏制御データ2042aが演奏者による実際の演奏に基づいて作成されたデータであるような場合、反復部分の対応する演奏要素データ間に、多少のタイミングのずれが生じるからである。
Since “MBT” of the performance element data “88” is “13: 1: 000” and the portion to be repeatedly played is shifted by 4 bars, the
この場合、判定部124は検索に成功し、検索結果として演奏要素データ「120」を得る。判定部124は、このように検索に成功した場合、ステップS101において検索した楽譜要素データと、それらに対応する演奏要素データとの間の整合性に関する条件が満たされていると判定する。なお、ステップS105において、より正確な判定を行うために、判定部124は第13小節〜第15小節に含まれる複数の演奏要素データに関し、第17小節〜第19小節に含まれる対応する演奏要素データの検索を行い、それらの検索が全て成功した場合にのみ、ステップS101において検索した楽譜要素データと演奏制御データ2042aとの整合性が保たれていると判定するようにしてもよい。
In this case, the
上記のように、ステップS105において楽譜要素データと演奏要素データとの整合性が保たれていると判定した場合、判定部124はステップS101の検索処理に戻る(ステップS105;Yes)。論理楽譜データ2041aには、先のステップS101において検索した楽譜要素データの他に反復記号を示すものは含まれていないので、判定部124は2度目のステップS101の検索に失敗し(ステップS102;No)、反復記号に関する整合性チェックの処理を終了する。一方、ステップS101において新たに反復記号を示す楽譜要素データが検索された場合(ステップS102;Yes)、判定部124は新たに検索された楽譜要素データに関し、ステップS103以降の処理を繰り返す。
As described above, when it is determined in step S105 that the consistency between the musical score element data and the performance element data is maintained, the
ステップS105における検索において検索に失敗した場合、判定部124は、演奏制御データ2042aの内容がステップS101において検索した楽譜要素データの内容と整合していないと判定する(ステップS105;No)。その場合、判定部124は、図10に示したチェック画面のチェックボックス1056において「修正候補を表示」が選択されていることから、論理楽譜データ2041aを正しいと仮定した場合の演奏制御データ2042aの修正候補データと、演奏制御データ2042aが正しいと仮定した場合の論理楽譜データ2041aの修正候補データとを作成する。より具体的には、例えば、判定部124は演奏制御データ2042aの第17小節〜第19小節の内容を第13小節〜第15小節の内容で置換したものを演奏制御データ2042aの修正候補データとして作成する。また、判定部124は論理楽譜データ2041aからステップS101で検索した楽譜要素データを削除したものを、論理楽譜データ2041aの修正候補データとして作成する。判定部124は、上記のように作成した修正候補データを、修正箇所を示すデータ(以下、「修正箇所データ」と呼ぶ)とともに表示部125および変更部127に送出し(ステップS106)、一連の処理をいったん終了する。
If the search fails in the search in step S105, the
上記のステップS106において、表示部125は判定部124から修正候補データおよび修正箇所データを受け取ると、修正箇所データにより示される修正箇所を含むように、ボックス1052、ボックス1053およびリスト1054の表示を更新する。さらに、表示部125は別途、表示窓を開き、図12に例示するような修正候補データの内容を示す画面(以下、「変更指示画面」と呼ぶ)をその表示窓に表示する。変更指示画面には、演奏制御データ2042aが正しいと仮定した場合の論理楽譜データ2041aの修正候補データに従った楽譜の表示を行うボックス1061、論理楽譜データ2041aを正しいと仮定した場合の演奏制御データ2042aの修正候補データを示すリスト1062、それらの修正候補データの選択を行うためのボタン1063およびボタン1064、手動による修正を選択するためのボタン1065を含んでいる。
In step S106, when the
ユーザは、チェック画面に示される現状の論理楽譜データ2041aおよび演奏制御データ2042aの内容と、変更指示画面に示される修正候補データの内容とを比較し、いずれかの修正候補データを選択する場合はボタン1063もしくはボタン1064をクリックする。ボタン1063がクリックされた場合、変更指示取得部126はユーザのクリック操作に応じて、論理楽譜データ2041aの修正候補データが選択されたことを示すデータを変更部127に送出する。変更部127は、変更指示取得部126から受け取ったデータに従い、ステップS106において判定部124から受け取った論理楽譜データ2041aの修正候補データにより、記憶部123に記憶されている論理楽譜データ2041aを更新する。同様に、ユーザによりボタン1064がクリックされた場合、変更指示取得部126は演奏制御データ2042aの修正候補データが選択されたことを示すデータを変更部127に送出し、変更部127は演奏制御データ2042aの修正候補データにより、記憶部123に記憶されている演奏制御データ2042aを更新する。
When the user compares the contents of the current logic score data 2041a and performance control data 2042a shown on the check screen with the contents of the correction candidate data shown on the change instruction screen, and selects one of the correction candidate
一方、ユーザがボタン1065をクリックした場合、変更指示取得部126は手動修正が選択されたことを示すデータを表示部125に送出する。そのデータに応じて、表示部125はチェック画面におけるボックス1053およびリスト1054をユーザにより編集可能とする。楽譜表示もしくはリスト表示されたデータの編集処理は、通常のオーサリングツールにおけるものと同様であるので、その説明を省略する。変更指示取得部126は、ユーザによるボックス1053およびリスト1054に対する編集操作に応じたデータを変更部127に送出する。変更部127は、変更指示取得部126から受け取るデータに従い、記憶部123に記憶されている論理楽譜データ2041aおよび演奏制御データ2042aの内容を更新する。
On the other hand, when the user clicks the
以上のように、記憶部123に記憶されている論理楽譜データ2041aもしくは演奏制御データ2042aの更新が行われると、判定部124は再度、更新後のそれらのデータを用いて、その時点でいったん終了していた反復記号に関する整合性チェックの処理(図11;ステップS101〜ステップS106)を繰り返す。このようにして、論理楽譜データ2041aと演奏制御データ2042aとの間に反復記号に関する不整合性がなくなるまで、整合性チェックの処理およびデータの変更処理が繰り返される。
As described above, when the logical score data 2041a or the performance control data 2042a stored in the
判定部124は、反復記号に関する整合性チェックの処理を終えると、続いて音高および音量に関し、類似の処理を行う。判定部124は、まず、論理楽譜データ2041aから、「Type」が「ノートヘッド」、「ステム」および「フラグ」であり、「MBT1」が等しい楽譜要素データを検索する。この場合、判定部124は楽譜要素データ「13」〜「15」を検索結果として得る。次に、判定部124は検索した楽譜要素データに先行する楽譜要素データのうち、「Type」が「キー」および「タイム」であり「MBT1」が検索した楽譜要素データに最も近いものを検索する。この場合、判定部124は楽譜要素データ「8」および「9」を検索結果として得る(図11;ステップS101)。判定部124はこれらの検索に成功すると(ステップS102;Yes)、検索した楽譜要素データに対しMBT変換を施す(ステップS103)。その結果、判定部124は変換後楽譜要素データを得る。ただし、この場合は楽譜要素データ「8」、「9」および「13」〜「15」は第1段に関する楽譜要素を示すものであるので、変換後楽譜要素データはMBT変換前の楽譜要素データと同じ内容となる。
When the
変換後楽譜要素データは、それらの組合せにより「1:2:240」のタイミングに配置された中音域のヘ音の八分音符の表示を示している。そこで、判定部124は演奏制御データ2042aの中から、「MBT」が「1:2:240」の前後一定の範囲、例えば「1:2:225」〜「1:2:255」に含まれ、「Type」が「ノートオン」、「Value」に「F3」を含む演奏要素データを検索する。この場合、判定部124は検索結果として演奏要素データ「4」を得る。続いて、判定部124は演奏制御データ2042aの中から、「MBT」が「1:2:479」の前後一定の範囲、例えば「1:2:464」〜「1:3:014」に含まれ、「Type」が「ノートオフ」、「Value」が「F3」である演奏要素データを検索する(ステップS104)。なお、「1:2:479」は、「1:2:240」から八分音符の長さだけ経過したタイミングを示している。この場合、判定部124は検索結果として演奏制御データ「6」を得る。
The musical score element data after the conversion shows the display of eighth notes of midrange high notes arranged at the timing of “1: 2: 240” by the combination thereof. Accordingly, the
判定部124は、上記のように、ステップS101において検索した楽譜要素データに応じた演奏要素データを検索し(ステップS104)、その検索に成功した場合、ステップS101において検索した楽譜要素データとそれらに対応する演奏要素データとの間で、整合性に関する条件が満たされていると判定する(ステップS105;Yes)。その場合、判定部124は処理をステップS101に戻し、論理楽譜データ2041aに含まれる音高および音長に関する他の楽譜要素データについて、ステップS101以降の処理を繰り返す。
As described above, the
一方、判定部124はステップS104の検索に失敗した場合、ステップS101において検索した楽譜要素データとそれらに対応する演奏要素データとの間で、整合性に関する条件が満たされていないと判定する(ステップS105;No)。その場合、判定部124は演奏制御データ2042aに基づく論理楽譜データ2041aの修正候補データと、論理楽譜データ2041aに基づく演奏制御データ2042aの修正候補データを作成する。
On the other hand, if the determination in step S104 fails, the
例えば、楽譜要素データ「177」、「178」および「181」は第4段の第5小節から第6小節にかけてタイで結ばれ、継続して発音される中音域のヘ音を示す楽譜要素群を示している。しかしながら、図6に示される演奏制御データ2042aには、楽譜要素データ「177」、「178」および「181」により示されるへ音の発音終了のタイミングに対応するMBT「21:4:479」の前後に、Type「ノートオフ」、Value「F3」である演奏要素データは見つからない。代わりに、MBT「20:4:474」にType「ノートオフ」、Value「F3」である演奏要素データ「151」が見つかる。その場合、判定部124は、演奏制御データ2042aに基づき論理楽譜データ2041aの修正候補データとして、楽譜要素データ「177」および「181」を削除した論理楽譜データ2041aを作成する。また、判定部124は、論理楽譜データ2041aに基づき演奏制御データ2042aの修正候補データとして、演奏要素データ「151」の「MBT」を「21:4:479」に変更した演奏制御データ2042aを作成する。
For example, the musical score element data “177”, “178”, and “181” are tied in a tie from the fifth bar to the sixth bar in the fourth row, and a musical score element group that indicates a mid-range haute sound that is continuously pronounced. Is shown. However, the performance control data 2042a shown in FIG. 6 includes the MBT “21: 4: 479” corresponding to the timing of the end of the sound production indicated by the musical score element data “177”, “178”, and “181”. Before and after, the performance element data of Type “Note Off” and Value “F3” cannot be found. Instead, performance element data “151” with Type “Note Off” and Value “F3” is found in MBT “20: 4: 474”. In that case, the
判定部124は、上記のように作成した修正候補データを表示部125および変更部127に送出する(ステップS106)。判定部124より修正候補データが送出された後の表示部125、変更指示取得部126および変更部127の処理は、反復記号に関する整合性チェックについて説明したものと同様であるので説明を省略する。このようにして、論理楽譜データ2041に含まれる音高および音長に関する楽譜要素データのそれぞれに関し、演奏制御データ2042aに含まれる演奏要素データとの間の整合性がとられる。
The
ところで、音高および音長に関する上記の整合性チェックによっては、論理楽譜データ2041aに含まれる楽譜要素データデータに関し整合性チェックが行われるため、例えば、論理楽譜データ2041aに含まれているべき楽譜要素データが欠落しているような場合、そのエラーは検出されない。そこで、判定部124は引き続き、論理楽譜データ2041aと演奏制御データ2042aとの関係を入れ替えて、上記の音高および音長に関する整合性チェックの処理を行う。その結果、論理楽譜データ2041aと演奏制御データ2042aに含まれる音高および音長に関する要素データは、より高い精度で互いに整合性を備えたものとなる。
By the way, depending on the consistency check regarding the pitch and the pitch, the consistency check is performed on the musical score element data included in the logical musical score data 2041a. For example, the musical score elements to be included in the logical musical score data 2041a If data is missing, the error is not detected. Therefore, the
判定部124は、音高および音長に関する上記処理を終えると、音高および音長に関する処理と同様の処理を音量、速度、歌詞およびコードのそれぞれに関し、繰り返す。例えば、判定部124は音量に関する整合性チェックにおいて、「Type」が「フォルテ」である楽譜要素データ「35」を検索し(ステップS101)、それに対応する演奏要素データとして演奏要素データ「18」を検索する(ステップS104)。演奏要素データ「18」の「Value」により示される音量はやや小さい音量を示す「32」であるため、この場合、判定部124は整合性の条件が満たされていないと判定する(ステップS105;No)。そして、判定部124は、楽譜要素データ「35」の「Type」を例えば「メゾピアノ」に変更した論理楽譜データ2041aと、演奏要素データ「18」の「Value」に含まれる数値を例えば「94」に変更した演奏制御データ2042aとをそれぞれ修正候補データとして作成し、表示部125および変更部127に送出する(ステップS106)。
When the
また、例えば、判定部124は速度に関する整合性チェックにおいて、「Type」が「リタルダンド」である楽譜要素データ「139」を検索し(ステップS101)、それに対応する演奏要素データとして「Type」が「テンポ」である演奏要素データ「87」および「106」を検索する(ステップS104)。演奏要素データ「87」および「106」の「Value」はそれぞれ「110」および「115」であり、徐々に演奏速度を速める指示であることを示しているので、この場合、判定部124は整合性の条件が満たされていないと判定する(ステップS105;No)。そして、判定部124は、楽譜要素データ「139」の「Type」を例えば「アッチェレランド」に変更した論理楽譜データ2041aと、演奏要素データ「106」の「Value」を例えば「105」に変更した演奏制御データ2042aとをそれぞれ修正候補データとして作成し、表示部125および変更部127に送出する(ステップS106)。
Further, for example, in the speed consistency check, the
また、例えば、判定部124は歌詞に関する整合性チェックにおいて、「Type」が「リリック」である楽譜要素データ「43」を検索し(ステップS101)、それに対応する演奏要素データの検索を行うが(ステップS104)、その検索に失敗し、代わりに「Type」が「メモ」である演奏要素データ「27」を発見する。この場合、判定部124は整合性の条件が満たされていないと判定する(ステップS105;No)。そして、判定部124は、楽譜要素データ「43」を削除した論理楽譜データ2041aと、演奏要素データ「27」の「Type」を「リリック」に変更した演奏制御データ2042aとをそれぞれ修正候補データとして作成し、表示部125および変更部127に送出する(ステップS106)。判定部124による、コードに関する整合性チェックの処理も、歌詞に関するものと全く同様である。
Further, for example, in the consistency check regarding lyrics, the
以上はエラーチェックツール10のユーザがチェック画面のチェックボックス1055およびチェックボックス1056に含まれるオプションのうち、初期値を選択した場合についてのエラーチェックツール10の動作であるが、ユーザはチェックボックス1055の他のオプションを選択することにより、エラーチェックツール10に対し、各項目に関して個別に整合性チェックを行わせることができる。また、ユーザはチェックボックス1056の「楽譜を基準に修正」もしくは「演奏を基準に修正」を選択することにより、エラーチェックツール10に自動的に論理楽譜データ2041aと演奏制御データ2042aとの間の不整合を修正させることができる。その場合、判定部124はデータ間の不整合を発見した場合、ユーザの選択に応じた修正候補データを作成し、その修正候補データを変更部127のみに送出し、表示部202は変更指示画面の表示を行わない。そして、変更部127は判定部124から受け取った修正候補データにより記憶部123に記憶されている論理楽譜データ2041aもしくは演奏制御データ2042aを更新する。
The above is the operation of the
以上のような各種の整合性チェックを全て完了すると、判定部124はその完了を示すデータを表示部125に送出し、表示部125は整合性チェックの完了を示すメッセージを表示する。ユーザは、整合性チェックの処理において変更の加えられた論理楽譜データ2041aおよび演奏制御データ2042aを保存したい場合、チェック画面のボタン1058をクリックする。その操作に応じて、論理楽譜データ出力部128および演奏制御データ出力部129は、それぞれ記憶部123に記憶されている変更後の論理楽譜データ2041aおよび演奏制御データ2042aをHD104に出力し、HD104はそれらのデータを記憶する。その後、HD104に記憶された論理楽譜データ2041aおよび演奏制御データ2042aは記憶媒体や通信網を介してトレーナーツール20の記憶部204にコピーされ、トレーナーツール20のユーザの演奏習得に用いられるが、その場合、トレーナーツール20の表示部202により表示される楽譜の内容とサウンドシステム203により発音される演奏音との間には不整合がないため、高い品質の演奏習得支援サービスが提供される。
When all the various consistency checks as described above are completed, the
[2.第2実施形態]
本発明の第2実施形態にかかるデータ処理装置(以下、「エラーチェックツール50」と呼ぶ)は、上記第1実施形態におけるエラーチェックツール10と同様に、ユーザに対する楽曲演奏の習得支援を行う装置(以下、「トレーナーツール60」と呼ぶ)において用いられるデータ間の整合性をチェックし、そのデータ間に不整合があった場合、必要なデータの修正を行う装置である。ただし、トレーナーツール60においては、第1実施形態における演奏制御データ2042の代わりに、実際に演奏者により行われた模範演奏の様子を録画したデータである動画データと、その動画データとともに模範演奏の音を録音したデータである演奏音データが用いられる。また、エラーチェックツール50は、第1実施形態における論理楽譜データ2041と演奏制御データ2042との間の整合性チェックの代わりに、論理楽譜データと動画データとの間の整合性チェックを行う。本実施形態におけるその他の点は第1実施形態と同様であるので、以下、本実施形態が第1実施形態と異なる点のみを説明する。また、以下の説明において、第1実施形態における構成部等と共通するものには、同じ名称および符号を用いる。
[2. Second Embodiment]
The data processing apparatus (hereinafter referred to as “
[2.1.動画データおよび演奏音データ]
トレーナーツール60の記憶部204には、複数の楽曲の各々に関し、論理楽譜データ2041、動画データ501および演奏音データ502が記憶されている。図13は、動画データ501の構造を模式的に示した図である。動画データ501は、複数の静止画データが時系列的に配列されたものである。以下の説明において、動画データ501は20ミリ秒毎の静止画データを含んでおり、各々の静止画データには、その静止画データを表示すべきタイミングを示すデータ(以下、「表示タイミングデータ」と呼ぶ)が付されている。表示タイミングデータは、例えば0分0秒000ミリ秒を示す場合、[0m0s000ms]と表される。以下、表示タイミングデータが付された静止画データの各々を「画像要素データ」と呼ぶ。トレーナーツール60の制御部201は、隣り合う画像要素データに基づき、それらを補間する静止画データを作成し、動画データ501に含まれる静止画データおよび補間により作成した静止画データを表示タイミングデータに示されるタイミングに従い順次、表示部202に送出する。その結果、表示部202により順次表示される静止画は、ユーザにより動画として見える。
[2.1. Movie data and performance sound data]
The
ところで、既述のように動画データ501は演奏者が実際に模範演奏を行う様子を録画することにより作成されたデータである。演奏者は録画の際に、ハ音の各鍵の近傍に基準位置を示す赤い円形のマーク(以下、「基準マーク」と呼ぶ)が付され、さらに全ての鍵の近傍に打鍵時に点灯する黄色のランプが配置されたミュージックキーボードを用いている。その結果、動画データ501に含まれる画像要素データにより示される画像には、基準マークおよび打鍵された鍵を示すランプを示す画像が含まれている。 By the way, as described above, the moving image data 501 is data created by recording how the performer actually performs the model performance. During recording, the performer is marked with a red circular mark (hereinafter referred to as “reference mark”) indicating the reference position in the vicinity of each key of the sound, and further, a yellow light that is lit when a key is pressed in the vicinity of all keys. A music keyboard with a lamp is used. As a result, the image indicated by the image element data included in the moving image data 501 includes an image indicating a reference mark and a lamp indicating the key that has been pressed.
図14は、演奏音データ502の構造を模式的に示した図である。演奏音データ502は、音の出力をすべきタイミングを示す「タイミング」、右側の音の出力値を示す「値−R」および左側の音の出力値を示す「値−L」を含む要素データ(以下、「音要素データ」と呼ぶ)の集合である。音要素データに含まれる「タイミング」は、[0m0s000ms0]のように表され、「0m0s000ms」の部分は表示タイミングデータと同様に0分0秒000ミリ秒を示し、末尾の「0」は1/32ミリ秒を単位とする時間の経過を示す。例えば、[0m0s000ms5]は、基準タイミングから5/32ミリ秒経過したタイミングを示す。
FIG. 14 is a diagram schematically showing the structure of the performance sound data 502. The performance sound data 502 includes element data including “timing” indicating the timing to output the sound, “value-R” indicating the output value of the right sound, and “value-L” indicating the output value of the left sound. (Hereinafter referred to as “sound element data”). The “timing” included in the sound element data is expressed as [0m0s000ms0], and the portion of “0m0s000ms” indicates 0
トレーナーツール60のサウンドシステム203は、各音要素データに含まれる「値−R」および「値−L」で示される値に応じた電圧を「タイミング」で示されるタイミングでアンプに入力することによりスピーカの振動板を振動させる。その結果、ユーザには演奏音データ502により示される演奏音が聞こえる。
The
[2.2.トレーナーツールの動作]
図15は、トレーナーツール60の表示部202に表示されるトレーニング画面を例示した図である。トレーナーツール60におけるトレーニング画面は、トレーナーツール20におけるトレーニング画面の構成要素に加え、動画データ501に従った動画を表示するためのボックス601を含んでいる。トレーナーツール60のユーザがチェックボックス2025において「模範演奏」を選択した後、ボタン2026をクリックすると、動画データ501に従った動画がボックス601に表示され、同時に演奏音データ502に従った演奏音がサウンドシステム203から発音され、さらに動画および演奏音の進行に伴い、論理楽譜データ2041に従った楽譜2028aおよび楽譜2028bの表示が順次更新される。
[2.2. Operation of trainer tool]
FIG. 15 is a diagram illustrating a training screen displayed on the
また、ユーザがチェックボックス2025において「練習」を選択した後、ボタン2026をクリックすると、動画データ501に従った動画がボックス601に表示され、同時にメトロノーム音がサウンドシステム203から発音され、さらに動画およびメトロノーム音の進行に伴い、論理楽譜データ2041に従った楽譜2028aおよび楽譜2028bの表示が順次更新される。
When the user clicks the
[2.3.エラーチェックツールの構成および動作]
エラーチェックツール50のハードウェア構成は、図8に示したエラーチェックツール10のハードウェア構成と同様である。ただし、エラーチェックツール50のHD104には、演奏制御データ2042の代わりに動画データ501および演奏音データ502が記憶されている。エラーチェックツール50のHD104に記憶されている論理楽譜データ2041、動画データ501および演奏音データ502は、同じ楽曲に関するものには拡張子のみが異なる同じファイル名が付されることにより、互いに対応付けられている。同じ楽曲に関する動画データ501と演奏音データ502は、同じ模範演奏を同じクロック信号に基づき動作する装置により録画および録音して得られたものであるので、それらの間の整合性は保たれている。しかしながら、論理楽譜データ2041は動画データ501および演奏音データ502とは個別に作成されるため、それらのデータ間には不整合がある可能性がある。エラーチェックツール50は、論理楽譜データ2041と動画データ501との整合性チェックを行うことにより、同じ楽曲に関する論理楽譜データ2041、動画データ501および演奏音データ502が整合性を持ったものとなるように、論理楽譜データ2041に修正を加えるツールである。
[2.3. Configuration and operation of error check tool]
The hardware configuration of the
図16は、エラーチェックツール50の機能構成を示したブロック図である。エラーチェックツール50は、第1実施形態におけるエラーチェックツール10と比較し、演奏制御データ取得部122の代わりに、動画データ取得部621を備えている。また、エラーチェックツール50は動画データ501に含まれる静止画データから基準マークおよび点灯したランプの画像を認識する画像認識処理部622を備えている。一方、エラーチェックツール50はエラーチェックツール10が備えている演奏制御データ出力部129を備えていない。
FIG. 16 is a block diagram showing a functional configuration of the
ユーザがエラーチェックツール50の表示部125に表示される画面において、整合性チェックの対象とするデータ群のファイル名を選択し、整合性チェックの開始を指示すると、論理楽譜データ取得部121および動画データ取得部621は、それぞれ指定されたファイル名の論理楽譜データ2041および動画データ501をHD104から読み出し、記憶部123に一時的に記憶する。以下、ユーザはファイル名として「聖者の行進」を選択し、記憶部123には楽曲「聖者の行進」に関する論理楽譜データ2041aおよび動画データ501aが記憶されたものとする。
When the user selects a file name of a data group to be checked for consistency on the screen displayed on the
論理楽譜データ2041aおよび動画データ501aが記憶部123に記憶されると、画像認識処理部622は動画データ501aに含まれる画像要素データのそれぞれについて、基準マークおよび点灯したランプの画像の認識処理を行う。画像認識処理部622は、まず画像要素データに含まれる各画素のRGB(Red,Green,Blue)データから、基準マークの色である赤およびそれに類似する色を示すものを抽出する。例えば、基準マークのRGBデータが[255,0,0]である場合、画像認識処理部622は画像要素データに含まれる画素のうち、RGBデータが[245〜225,0〜50,0〜50]の範囲に入るものを抽出する。
When the logical score data 2041a and the moving image data 501a are stored in the
続いて、画像認識処理部622は抽出した画素のうち、互いに隣接する画素をグループ化し、各グループの画素により示される図形の重心の座標データを算出する。さらに、画像認識処理部622は図形の外縁に位置する画素のそれぞれにつき、重心との距離を算出する。そして、画像認識処理部622は算出した重心との距離が、図形の外縁に位置する画素のいずれについても基準マークの半径を示す値の前後に含まれる場合、その図形を、基準マークを示す画像であると認識する。画像認識処理部622は、基準マークを示す画像として認識した図形の重心の座標データを、画像要素データに含まれる表示タイミングデータとともに記憶部123に記憶する。以下、基準マークを示す画像として認識した図形の重心を「基準点」と呼ぶ。
Subsequently, the image recognition processing unit 622 groups adjacent pixels among the extracted pixels, and calculates coordinate data of the center of gravity of the graphic indicated by the pixels of each group. Further, the image recognition processing unit 622 calculates a distance from the center of gravity for each pixel located on the outer edge of the figure. If the calculated distance from the center of gravity is included before or after the value indicating the radius of the reference mark for any pixel located at the outer edge of the figure, the image recognition processing unit 622 displays the figure as an image indicating the reference mark. It is recognized that. The image recognition processing unit 622 stores the coordinate data of the center of gravity of the graphic recognized as the image indicating the reference mark in the
続いて、画像認識処理部622は画像要素データに含まれる点灯したランプの画像の認識処理を行う。画像認識処理部622が点灯したランプの画像を認識する処理は、画像要素データから抽出する画素のRBGデータの範囲が異なる点を除き、基準マークの画像を認識する場合と同様である。画像認識処理部622は、点灯したランプを示す画像として認識した図形の重心の座標データを、画像要素データに含まれる表示タイミングデータとともに記憶部123に記憶する。以下、点灯したランプを示す画像として認識した図形の重心を「点灯点」と呼ぶ。
Subsequently, the image recognition processing unit 622 performs recognition processing of the image of the lit lamp included in the image element data. The process of recognizing the image of the lamp with the image recognition processing unit 622 turned on is the same as the case of recognizing the image of the reference mark except that the range of the RBG data of the pixels extracted from the image element data is different. The image recognition processing unit 622 stores the coordinate data of the center of gravity of the figure recognized as an image showing the lit lamp together with the display timing data included in the image element data in the
図17は、画像認識処理部622により記憶部123に記憶されるデータの構造を示す図である。ただし、画像認識処理部622が上記の画像認識処理を終えた時点では、「音高」の欄は空欄である。図17に示すデータは、動画データ501aに含まれる画像要素データから得られた座標データに基づき、いずれの音高の鍵がいずれのタイミングで打鍵されたかを特定するためのデータである。従って、図17に示すデータを以下、「打鍵データ」と呼ぶ。打鍵データは、各画像要素データから得られたデータである要素データ(以下、「打鍵要素データ」と呼ぶ)の集まりである。各打鍵要素データは、打鍵要素データを識別する「ID」、対応する画像要素データに含まれる表示タイミングデータを示す「タイミング」、基準点の座標データを示す「基準点」、点灯点の座標データを示す「点灯点」および打鍵されている鍵の音高を示す「音高」を含んでいる。各打鍵要素データは「基準点」および「点灯点」に複数の座標データを含むことができる。以下、打鍵要素データを区別する場合、「ID」を付して、打鍵要素データ「1」のように表す。
FIG. 17 is a diagram illustrating a structure of data stored in the
画像認識処理部622は、各打鍵要素データに関し、「基準点」および「点灯点」に基づき「音高」を特定する処理を以下のように行う。まず、画像認識処理部622は「基準点」の座標データを用いて、隣接する2つの基準点を12等分に内分する点(以下、「内分点」と呼ぶ)の座標データを算出する。続いて、画像認識処理部622は基準点および内分点のそれぞれに音高を対応付ける。具体的には、画像認識処理部622は、基準点に対し、X座標の小さいものから順にC3、C4・・・のように音高を対応付け、例えばC3の基準点とC4の基準点の内分点に対し、C3に近いものから順にC#3、D3・・・のように音高を対応付ける。
The image recognition processing unit 622 performs processing for specifying “pitch” based on the “reference point” and the “lighting point” for each keying element data as follows. First, the image recognition processing unit 622 uses the coordinate data of “reference point” to calculate coordinate data of a point that internally divides two adjacent reference points into 12 equal parts (hereinafter referred to as “internal dividing points”). To do. Subsequently, the image recognition processing unit 622 associates a pitch with each of the reference point and the internal dividing point. Specifically, the image recognition processing unit 622 associates pitches in order from the smallest X coordinate to the reference point, such as C3, C4,..., For example, the reference point of C3 and the reference point of C4 The pitches are associated with the inner dividing points in the order of
続いて、画像認識処理部622は、「点灯点」に含まれる座標データのそれぞれに関し、その座標データにより示される点灯点に最も近い基準点もしくは内分点を特定する。例えば、図17に例示される打鍵要素データ「40」の場合、「点灯点」に含まれる座標データ(102,163)は、「基準点」に含まれる座標データ(53,185)および(174,183)の内分点のうち、最も近いものとして5番目の内分点(103.4,184.2)を特定する。画像認識処理部622は、点灯点に最も近い基準点もしくは内分点に対応付けられた音高を、その点灯点に対応する音高として特定する。打鍵要素データ「40」の場合、点灯点(102,163)は、C3を示す基準点(53,185)から5番目に位置する内分点に最も近いため、対応する音高として「F3」が特定される。画像認識処理部622は以上のように点灯点の音高を特定すると、その音高を示すデータを打鍵要素データの「音高」に記憶する。 Subsequently, the image recognition processing unit 622 specifies, for each piece of coordinate data included in the “lighting point”, a reference point or internal division point closest to the lighting point indicated by the coordinate data. For example, in the case of the keystroke element data “40” illustrated in FIG. 17, the coordinate data (102, 163) included in the “lighting point” is the coordinate data (53, 185) and (174) included in the “reference point”. , 183), the fifth inner dividing point (103.4, 184.2) is specified as the closest one. The image recognition processing unit 622 specifies the pitch associated with the reference point or internal division point closest to the lighting point as the pitch corresponding to the lighting point. In the case of the keystroke element data “40”, the lighting point (102, 163) is the closest to the interior dividing point located fifth from the reference point (53, 185) indicating C3, and therefore the corresponding pitch is “F3”. Is identified. When the pitch of the lighting point is specified as described above, the image recognition processing unit 622 stores data indicating the pitch in the “pitch” of the keystroke element data.
ところで、基準点および点灯点を特定するにあたり、上述した方法以外の図形認識技術を用いてもよい。また、基準マークやランプを用いることなく、鍵の押下時の形状等を直接認識することにより、打鍵データにおける「音高」を特定するようにしてもよい。 By the way, in identifying the reference point and the lighting point, a graphic recognition technique other than the method described above may be used. Further, the “pitch” in the keystroke data may be specified by directly recognizing the shape when the key is pressed without using a reference mark or a lamp.
画像認識処理部622が全ての打鍵要素データに関し上記の音高の特定処理を終えると、判定部124は打鍵データに含まれる打鍵要素データのそれぞれに関し、論理楽譜データ2041aに対応する音符を示す楽譜要素データが含まれているか否かを、以下のように判定する。まず、判定部124は打鍵要素データの「タイミング」の値を、論理楽譜データ2041aの「MBT1」および「MBT2」において用いられているMBT形式に変換する。具体的には、判定部124は論理楽譜データ2041aに含まれる「Type」が「テンポ」である楽譜要素データを抽出し、各タイミングにおけるティックの時間長を決定した後、先頭タイミングからの経過時間に対応するMBTを算出する。例えば、テンポが「120」である場合、1ティックの時間長は60秒を120×480で除した時間長、すなわち約1.04ミリ秒である。従って、テンポが「120」で変化しない場合、打鍵要素データ「40」のタイミング[0m0s800ms]は先頭タイミングから768ティックだけ経過したタイミングとなり、MBT形式では「1:2:288」と表される。
When the image recognition processing unit 622 finishes the above-described pitch specification processing for all keying element data, the
続いて、判定部124は打鍵要素データの「音高」の値を、論理楽譜データ2041aの「Y1」において用いられているY座標形式に変換する。例えば、打鍵要素データ「40」の音高「F3」は「105」に変換される。判定部124は、変換後の打鍵要素データを用いて、論理楽譜データ2041aに含まれる楽譜要素データのうち、「MBT1」が打鍵要素データのタイミング以前もしくは打鍵要素データのタイミング以降の一定期間に含まれ、「Type」が「ノートヘッド」、「Value」が打鍵要素データの「音高」であるものを検索する。ここで、「MBT1」が打鍵要素データのタイミング以降の一定期間に含まれるものも検索対象とするのは、打鍵要素データに含まれる「タイミング」は実際の演奏におけるタイミング情報であるため、ゆらぎを持っているためである。例えば、判定部124は打鍵要素データ「40」に関し、楽譜要素データ「13」を検索結果として得る。
Subsequently, the
上記の検索に成功した場合、続いて判定部124は検索された楽譜要素データと「MBT1」の値が等しく、「Type」が「ステム」および「フラグ」である楽譜要素データを検索する。例えば上記の検索処理において楽譜要素データ「13」が検索された場合、判定部124は楽譜要素データ「14」および「15」を検索結果として得る。さらに、判定部124は、上記のように検索された楽譜要素データの「MBT1」以前のタイミングを示す「MBT1」を含み、「Type」が「キー」である楽譜要素データを検索する。この場合、楽譜要素データ「8」が検索される。
If the above search is successful, the
判定部124は、上記のように検索した楽譜要素データが、打鍵要素データと整合性を有しているか否かを判定する。例えば、楽譜要素データ「8」および「13」〜「15」は全体として「1:2:240」のタイミングに配置された中音域のヘ音の発音を指示する八分音符を示している。すなわち、「1:2:240」〜「1:2:479」の期間、中音域のへ音の発音が行われるべきであることを示している。一方、打鍵要素データ「40」は「1:2:288」のタイミングにおいて、F3(中音域のへ音)が打鍵されていることを示しているので、判定部124はこれらのデータの整合性が保たれている、と判定する。判定部124は、論理楽譜データ2041aが打鍵要素データと整合性を保っていると判定した場合、打鍵データに含まれる次の打鍵要素データに関し、上記の一連の整合性チェックに関する処理を繰り返す。
The
一方、判定部124が打鍵要素データに対応する楽譜要素データの検索に失敗したり、対応する楽譜要素データの検索には成功したものの、打鍵要素データのタイミングが検索された楽譜要素データの示す音符により示される発音期間およびその前後に含まれていない場合、判定部124は論理楽譜データ2041aが打鍵要素データと整合性を保っていないと判定する。その場合、判定部124は打鍵要素データに基づき論理楽譜データ2041aの修正候補データを作成し、作成した修正候補データを表示部125および変更部127に送出する。その後、表示部125はユーザに修正指示を促す画面を表示し、その画面に応じたユーザの修正指示に従い、変更部127は論理楽譜データ2041aを更新する。論理楽譜データ2041aの更新が行われると、判定部124は更新後の論理楽譜データ2041aを用いて、上記の一連の整合性チェックに関する処理を繰り返す。
On the other hand, although the
判定部124は、以上のような整合性チェックを打鍵データに含まれる全ての打鍵要素データについて完了すると、同様の整合性チェックを動画データ501aと論理楽譜データ2041aとを入れ替えて行う。その結果、例えば、論理楽譜データ2041aに含まれている音符に応じた打鍵が、動画データ501によればなされていないような不整合も検出される。
When the
以上のような整合性チェックを全て完了すると、表示部125は整合性チェックの完了を示すメッセージを表示する。そのメッセージに応じてユーザがデータの保存を指示するボタンをクリックすると、論理楽譜データ出力部128は変更後の論理楽譜データ2041aをHD104に出力し、HD104はそのデータを記憶する。このようにしてHD104に記憶された論理楽譜データ2041aが動画データ501aおよび演奏音データ502aとともにトレーナーツール60において用いられる場合、提供される演奏習得支援サービスは、表示される楽譜の内容と映像および発音される演奏音との間に不整合のない高い品質のものとなる。
When all the consistency checks as described above are completed, the
[3.第3実施形態]
本発明の第3実施形態にかかるデータ処理装置(以下、「エラーチェックツール70」と呼ぶ)は、カラオケにおける歌詞の表示および着色を指示するデータ(以下、「歌詞データ」と呼ぶ)と、模範歌唱の音声データとの整合性をチェックし、そのデータ間に不整合があった場合、必要なデータの修正を行う装置である。本実施形態におけるエラーチェックツール70の構成および動作は、多くの点で第2実施形態におけるエラーチェックツール50と共通しているので、以下、本実施形態が第2実施形態と異なっている点のみを説明する。また、以下の説明において、第2実施形態における構成部等と共通するものには、同じ名称および符号を用いる。
[3. Third Embodiment]
A data processing apparatus according to the third embodiment of the present invention (hereinafter referred to as “
[3.1.エラーチェックツールの構成]
エラーチェックツール70のハードウェア構成は、図8に示したエラーチェックツール10のハードウェア構成と同様である。ただし、エラーチェックツール70のHD104には、論理楽譜データ2041および演奏制御データ2042の代わりに音声データ701および歌詞データ702が記憶されている。同じ楽曲に関するこれらのデータは、拡張子のみが異なる同じファイル名が付されることにより互いに対応付けられている。さらに、エラーチェックツール70のHD104には、後述する音声認識処理において利用される素片データベース703が記憶されている。
[3.1. Error check tool configuration]
The hardware configuration of the
音声データ701の構造は、第2実施形態における演奏音データ502(図14参照)の構造と同様である。図18は歌詞データ702の構造を示した図である。歌詞データ702は、カラオケ装置の表示部にいずれの文字をいずれのタイミングで表示し、かついずれのタイミングで着色するかを示す要素データ(以下、「歌詞要素データ」と呼ぶ)の集合である。各歌詞要素データは、「ID」、「歌詞」、「表示開始タイミング」、「表示終了タイミング」、「着色タイミング」および「表示位置」を含んでいる。以下、歌詞要素データを区別する必要がある場合、「ID」を付して、歌詞要素データ「1」のように表す。 The structure of the sound data 701 is the same as the structure of the performance sound data 502 (see FIG. 14) in the second embodiment. FIG. 18 is a diagram showing the structure of the lyrics data 702. The lyric data 702 is a set of element data (hereinafter referred to as “lyric element data”) indicating which character is displayed at which timing on the display unit of the karaoke device and which timing is colored. Each lyric element data includes “ID”, “lyric”, “display start timing”, “display end timing”, “coloring timing”, and “display position”. Hereinafter, when it is necessary to distinguish the lyric element data, “ID” is added and expressed as lyric element data “1”.
「歌詞」は歌詞に含まれる各々の文字を示す。「表示開始タイミング」および「表示終了タイミング」は、第2実施形態における表示タイミングデータ等と同様の形式のデータである。「着色タイミング」は、カラオケの歌唱者に対し歌唱開始のタイミングを示すために、表示されている歌詞の文字の表示色を変化させるタイミングを示すデータであり、その形式は「表示開始タイミング」および「表示終了タイミング」と同様である。「表示位置」は、カラオケ装置の表示部の左端位置を基準とした水平方向の位置を示す数値である。 “Lyrics” indicates each character included in the lyrics. “Display start timing” and “display end timing” are data in the same format as the display timing data and the like in the second embodiment. “Coloring timing” is data indicating the timing to change the display color of the displayed lyrics characters in order to indicate the timing of singing to the karaoke singer, and the format is “display start timing” and This is the same as “display end timing”. “Display position” is a numerical value indicating a horizontal position with reference to the left end position of the display unit of the karaoke apparatus.
素片データベース703は、素片、すなわち音声学的な特徴部分に対応する音声波形の、スペクトルを示すデータ(以下、「スペクトルデータ」と呼ぶ)を格納したデータベースである。例えば、「さくら」という歌詞を発音した場合、その音は「#s」「s」「s−a」「a」「a−k」「k」「k−u」「u」「u−r」「r」「r−a」「a#」の素片に分解される。ただし、「#s」は「s」の音の立ち上がり部分を、また例えば「s−a」は「s」から「a」に変化する部分を、また「a#」は「a」の音の減衰部分を示す。素片データベース703は、これらの素片を示す記号(以下、「素片記号」と呼ぶ)と、各素片の音声波形のスペクトルデータを対応付けて記憶している。 The segment database 703 is a database that stores data indicating a spectrum (hereinafter referred to as “spectrum data”) of a speech waveform corresponding to a segment, that is, a phonetic feature. For example, when the lyrics “Sakura” are pronounced, the sound is “#s” “s” “sa” “a” “ak” “k” “ku” “u” “ur”. ”,“ R ”,“ r−a ”, and“ a # ”. However, “#s” indicates the rising portion of the sound of “s”, for example, “s-a” indicates the portion that changes from “s” to “a”, and “a #” indicates the sound of “a”. The attenuation part is shown. The segment database 703 stores symbols indicating these segments (hereinafter referred to as “segment symbols”) and spectrum data of the speech waveform of each segment in association with each other.
図19は、エラーチェックツール70の機能構成を示したブロック図である。エラーチェックツール70は、第2実施形態におけるエラーチェックツール50と比較し、論理楽譜データ取得部121および動画データ取得部621の代わりに音声データ取得部721および歌詞データ取得部722を備えている。また、エラーチェックツール70は画像認識処理部622の代わりに、音声データ701からいずれの素片の発音がなされているかを認識する音声認識処理部723を備えている。また、エラーチェックツール70は論理楽譜データ出力部128の代わりに、歌詞データ出力部724を備えている。さらに、エラーチェックツール70は素片データベース取得部725を備えている。
FIG. 19 is a block diagram showing a functional configuration of the
[3.2.エラーチェックツールの動作]
本実施形態におけるエラーチェックツール70の動作は、第2実施形態におけるエラーチェックツール50の動作と、音声認識処理部723および判定部124の動作のみが異なる。従って、以下、それらの異なる動作のみを説明する。
[3.2. Operation of error check tool]
The operation of the
ユーザの整合性チェックの開始指示に応じて、音声データ取得部721、歌詞データ取得部722および素片データベース取得部725は、それぞれ音声データ701、歌詞データ702および素片データベース703をHD104から読み出し、記憶部123に記憶する。続いて、音声認識処理部723は音声データ701に含まれる要素データ(以下、「音声要素データ」と呼ぶ)のうち、例えば先頭の100ミリ秒の期間に含まれるものを取り出し、取り出した音声要素データ群により示される音声波形のスペクトルデータを算出する。音声認識処理部723は、算出したスペクトルデータと、素片データベース703に含まれるスペクトルデータの各々との相関係数を求める等の方法により、算出したスペクトルデータに最も近い素片のスペクトルデータを特定する。音声認識処理部723は、特定した素片のスペクトルデータに対応付けられている素片記号を、その音声要素データ群のタイミングを示すデータ[0m0s000ms0」とともに記憶部123に記憶する。このタイミングを示すデータは、取り出した音声要素データ群の先頭のものの「タイミング」の値である。
In response to the user's start instruction for consistency check, the audio
続いて、音声認識処理部723は音声データ701から次の100ミリ秒の期間に含まれる音声要素データを取り出し、上記と同様に対応する素片記号の特定を行う。特定した素片記号が最後に記憶部123に記憶したものと同じ場合、音声認識処理部723は新たに特定した素片記号を記憶部123に記憶することなく、次の100ミリ秒の期間に含まれる音声要素データに関し、対応する素片記号を特定する処理を繰り返す。一方、音声認識処理部723は新たに特定した素片記号が最後に記憶部123に記憶したものと異なる場合、新たに特定した素片記号を、取り出した音声要素データ群のタイミングを示すデータとともに記憶部123に記憶した後、次の100ミリ秒の期間に含まれる音声要素データに関し、対応する素片記号を特定する処理を繰り返す。
Subsequently, the speech
図20は、音声認識処理部723により記憶部123に記憶されたデータ(以下、「素片タイミングデータ」と呼ぶ)を例示した図である。素片タイミングデータは、複数の要素データ(以下、「素片要素データ」と呼ぶ)の集合であり、各素片要素データは「ID」、「素片記号」および「タイミング」を含んでいる。以下、各素片要素データを区別する場合、「ID」を付して素片要素データ「1」のように表す。
FIG. 20 is a diagram illustrating data stored in the
音声認識処理部723により、素片タイミングデータの作成が音声データ701の全てに関し完了すると、判定部124は素片タイミングデータに含まれる素片要素データを先頭から順次、1つの文字の発音に対応する素片要素データ群にグループ化する。例えば、「#s」「s」「s−a」「a」は「さ」の発音を構成する一連の素片を示すので、判定部124は素片要素データ「1」〜「4」を1つの素片要素データ群とする。
When the speech
続いて、判定部124は各素片要素データ群に関し、歌詞データ702の中から、「歌詞」が素片要素データ群により示される文字を示し、かつ「着色タイミング」が素片要素データ群に含まれる先頭の素片要素データの「タイミング」により示されるタイミングの前後に含まれる歌詞要素データを検索する。例えば、素片要素データ「1」〜「4」に関し、判定部124は「歌詞」が「さ」であり、「着色タイミング」が例えば[0m41s300ms]〜[0m41s700ms]の範囲に含まれる歌詞要素データを検索し、歌詞要素データ「1」を検索結果として得る。
Subsequently, for each segment element data group, the
判定部124は、上記の歌詞要素データの検索に成功すると、音声データ701と素片要素データ群との間に整合性があると判定して、次の素片要素データ群に関し、上記の一連の整合性チェックを繰り返す。一方、判定部124は、上記の歌詞要素データの検索に失敗すると、音声データ701と素片要素データ群との間に整合性がないと判定して、素片要素データ群に基づき歌詞データ702の修正候補データを作成し、作成した修正候補データを表示部125および変更部127に送出する。その後、ユーザの変更指示に従い変更部127が歌詞データ702の更新を行うと、判定部124は変更後の歌詞データ702を用いて、上記の一連の整合性チェックを繰り返す。
If the lyric element data is successfully searched, the
以上のような整合性チェックを素片タイミングデータに含まれる全ての素片要素データに関し完了すると、表示部125は整合性チェックの完了を示すメッセージを表示する。そのメッセージに応じてユーザがデータの保存を指示するボタンをクリックすると、歌詞データ出力部724は変更後の歌詞データ702をHD104に出力し、HD104はそのデータを記憶する。このようにしてHD104に記憶された歌詞データ702は、模範歌唱の内容と整合性が保たれているため、カラオケ装置において歌詞データ702による歌詞表示が行われる際、正確なタイミングで歌詞の文字の表示色変更が行われる。
When the consistency check as described above is completed for all the element element data included in the element timing data, the
10・50・70…エラーチェックツール、20・60…トレーナーツール、30…キーボード、101…CPU、102…ROM、103…RAM、104…HD、105…ディスプレイ、106…キーボード、107…マウス、108・205…入出力I/F、121…論理楽譜データ取得部、122…演奏制御データ取得部、123・204…記憶部、124…判定部、125・202…表示部、126…変更指示取得部、127…変更部、128…論理楽譜データ出力部、129…演奏制御データ出力部、201…制御部、203…サウンドシステム、206…発振器、401…外部記憶装置、402…インターネット、621…動画データ取得部、622…画像認識処理部、721…音声データ取得部、722…歌詞データ取得部、723…音声認識処理部、724…歌詞データ出力部、725…素片データベース取得部。
10.50.70 ... Error check tool, 20.60 ... Trainer tool, 30 ... Keyboard, 101 ... CPU, 102 ... ROM, 103 ... RAM, 104 ... HD, 105 ... Display, 106 ... Keyboard, 107 ... Mouse, 108 205 ... Input / output I / F, 121 ... Logical score data acquisition unit, 122 ... Performance control data acquisition unit, 123/204 ... Storage unit, 124 ... Determination unit, 125/202 ... Display unit, 126 ... Change instruction acquisition unit DESCRIPTION OF
Claims (5)
タイミングを示すタイミングデータと当該タイミングデータにより示されるタイミングに関連するデータである内容データとの組合せである要素データを1以上含む集合データであって、前記第1の集合データとは異なる形式の内容データを含む第2の集合データを取得する第2取得手段と、
前記第1の集合データに含まれる要素データのうち、特定のタイミングを示すタイミングデータを含む要素データに含まれる内容データにより示される第1の内容と、前記第2の集合データに含まれる要素データのうち、前記特定のタイミングを示すタイミングデータを含む要素データに含まれる内容データにより示される第2の内容とが予め定められた関係を満たすか否かを判定する判定手段と
を備えることを特徴とするデータ処理装置。 First acquisition means for acquiring first aggregate data including at least one element data that is a combination of timing data indicating timing and content data that is data related to timing indicated by the timing data;
Aggregated data including one or more element data that is a combination of timing data indicating timing and content data relating to the timing indicated by the timing data, and content in a format different from that of the first aggregated data Second acquisition means for acquiring second set data including data;
Of the element data included in the first aggregate data, the first content indicated by the content data included in the element data including the timing data indicating a specific timing, and the element data included in the second aggregate data Determination means for determining whether or not the second content indicated by the content data included in the element data including the timing data indicating the specific timing satisfies a predetermined relationship. A data processing device.
を備えることを特徴とする請求項1に記載のデータ処理装置。 If the determination means determines that the first content and the second content do not satisfy a predetermined relationship, element data including content data indicating the first content and the second content The data processing apparatus according to claim 1, further comprising a notifying unit that notifies information specifying at least one of element data including content data indicating content.
を備えることを特徴とする請求項1に記載のデータ処理装置。 When the determination means determines that the first content and the second content do not satisfy a predetermined relationship, content data indicating the first content and content indicating the second content The data processing apparatus according to claim 1, further comprising: a changing unit that changes at least one of the data according to a predetermined condition.
楽曲に含まれる楽音の発音制御を自動演奏装置に指示する演奏制御データ、
楽曲の楽譜の構成要素を示すデータと当該構成要素の前記楽曲における時間軸上の位置を示すタイミングデータとの組合せである論理楽譜データ、
時系列的に配置された複数の文字データ、
楽曲の音または音声を示す音データ、
時系列的に配置された複数の静止画データおよび
動画データ
のうちの少なくともいずれか1つを含むデータである
ことを特徴とする請求項1乃至3のいずれかに記載のデータ処理装置。 Each of the first aggregate data and the second aggregate data is:
Performance control data for instructing the automatic performance device to control the tone of music contained in the music,
Logical score data that is a combination of data indicating the constituent elements of the musical score of the music and timing data indicating the position of the constituent elements on the time axis in the music;
Multiple character data arranged in time series,
Sound data indicating the sound or sound of a song,
The data processing apparatus according to any one of claims 1 to 3, wherein the data processing apparatus includes at least one of a plurality of still image data and moving image data arranged in time series.
タイミングを示すタイミングデータと当該タイミングデータにより示されるタイミングに関連するデータである内容データとの組合せである要素データを1以上含む集合データであって、前記第1の集合データとは異なる形式の内容データを含む第2の集合データに含まれる要素データのうち、特定のタイミングを示すタイミングデータを含む要素データに含まれる内容データにより示される第2の内容と
が予め定められた関係を満たすか否かを判定する処理
をコンピュータに実行させることを特徴とするプログラム。 Indicates a specific timing among the element data included in the first set data including one or more element data that is a combination of the timing data indicating the timing and the content data that is the data related to the timing indicated by the timing data. First content indicated by content data included in element data including timing data;
Aggregated data including one or more element data that is a combination of timing data indicating timing and content data relating to the timing indicated by the timing data, and content in a format different from that of the first aggregated data Whether the second content indicated by the content data included in the element data including the timing data indicating the specific timing among the element data included in the second set data including the data satisfies a predetermined relationship A program for causing a computer to execute a process for determining whether or not.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004240011A JP2006058577A (en) | 2004-08-19 | 2004-08-19 | Data processor and program for processing two or more time-series data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004240011A JP2006058577A (en) | 2004-08-19 | 2004-08-19 | Data processor and program for processing two or more time-series data |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006058577A true JP2006058577A (en) | 2006-03-02 |
Family
ID=36106092
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004240011A Pending JP2006058577A (en) | 2004-08-19 | 2004-08-19 | Data processor and program for processing two or more time-series data |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006058577A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007264155A (en) * | 2006-03-28 | 2007-10-11 | Yamaha Corp | Electronic musical instrument and program |
EP2498248A1 (en) * | 2011-03-07 | 2012-09-12 | Casio Computer Co., Ltd. | Musical-score information generating apparatus, music-tone generation controlling apparatus, musical-score information generating method, and music-tone generation controlling method |
WO2017009954A1 (en) * | 2015-07-14 | 2017-01-19 | 株式会社日立システムズ | Feeling share system, operation device, and feeling share method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05257465A (en) * | 1992-03-11 | 1993-10-08 | Kawai Musical Instr Mfg Co Ltd | Feature extraction and reproduction device for musical instrument player |
JPH1063175A (en) * | 1996-08-21 | 1998-03-06 | Tokyo Denshi Sekkei Kk | Classroomless music education system |
-
2004
- 2004-08-19 JP JP2004240011A patent/JP2006058577A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05257465A (en) * | 1992-03-11 | 1993-10-08 | Kawai Musical Instr Mfg Co Ltd | Feature extraction and reproduction device for musical instrument player |
JPH1063175A (en) * | 1996-08-21 | 1998-03-06 | Tokyo Denshi Sekkei Kk | Classroomless music education system |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007264155A (en) * | 2006-03-28 | 2007-10-11 | Yamaha Corp | Electronic musical instrument and program |
JP4609728B2 (en) * | 2006-03-28 | 2011-01-12 | ヤマハ株式会社 | Electronic musical instruments and programs |
EP2498248A1 (en) * | 2011-03-07 | 2012-09-12 | Casio Computer Co., Ltd. | Musical-score information generating apparatus, music-tone generation controlling apparatus, musical-score information generating method, and music-tone generation controlling method |
CN102682752A (en) * | 2011-03-07 | 2012-09-19 | 卡西欧计算机株式会社 | Musical-score information generating apparatus, musical-score information generating method, music-tone generation controlling apparatus, and music-tone generation controlling method |
CN102682752B (en) * | 2011-03-07 | 2014-11-05 | 卡西欧计算机株式会社 | Musical-score information generating apparatus, musical-score information generating method, music-tone generation controlling apparatus, and music-tone generation controlling method |
WO2017009954A1 (en) * | 2015-07-14 | 2017-01-19 | 株式会社日立システムズ | Feeling share system, operation device, and feeling share method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10347229B2 (en) | Electronic musical instrument, method of controlling the electronic musical instrument, and recording medium | |
US7041888B2 (en) | Fingering guide displaying apparatus for musical instrument and computer program therefor | |
US10403166B2 (en) | Musical performance assistance device and method | |
JP3744366B2 (en) | Music symbol automatic determination device based on music data, musical score display control device based on music data, and music symbol automatic determination program based on music data | |
JP2016224462A (en) | Musical score display device, musical score display method, and program for actualizing musical score display method | |
US6323411B1 (en) | Apparatus and method for practicing a musical instrument using categorized practice pieces of music | |
JP4497513B2 (en) | Code practice device | |
JP2009169103A (en) | Practice support device | |
JP6520162B2 (en) | Accompaniment teaching device and accompaniment teaching program | |
JP2006058577A (en) | Data processor and program for processing two or more time-series data | |
US11302296B2 (en) | Method implemented by processor, electronic device, and performance data display system | |
JP2006301019A (en) | Pitch-notifying device and program | |
JP4618704B2 (en) | Code practice device | |
JP5847048B2 (en) | Piano roll type score display apparatus, piano roll type score display program, and piano roll type score display method | |
US10002541B1 (en) | Musical modification method | |
JP4595852B2 (en) | Performance data processing apparatus and program | |
JP4162556B2 (en) | Information search and display device for codes | |
JP2017173641A (en) | Score display control device and program | |
JP6424907B2 (en) | Program for realizing performance information search method, performance information search method and performance information search apparatus | |
JP4457199B2 (en) | Code display method | |
JP6587396B2 (en) | Karaoke device with guitar karaoke scoring function | |
JP6183002B2 (en) | Program for realizing performance information analysis method, performance information analysis method and performance information analysis apparatus | |
JP5754449B2 (en) | Music code score generator | |
JP2007240556A (en) | Musical score display device and program | |
JP2006195045A (en) | Pitch name determination device and computer-readable pitch name determination program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070618 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081114 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081125 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090317 |