JPH06102869A - Score recognizing device - Google Patents

Score recognizing device

Info

Publication number
JPH06102869A
JPH06102869A JP5170998A JP17099893A JPH06102869A JP H06102869 A JPH06102869 A JP H06102869A JP 5170998 A JP5170998 A JP 5170998A JP 17099893 A JP17099893 A JP 17099893A JP H06102869 A JPH06102869 A JP H06102869A
Authority
JP
Japan
Prior art keywords
staff
recognition
score
image data
note
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5170998A
Other languages
Japanese (ja)
Other versions
JP2734340B2 (en
Inventor
Kazuhiko Shudo
一彦 首藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP5170998A priority Critical patent/JP2734340B2/en
Publication of JPH06102869A publication Critical patent/JPH06102869A/en
Application granted granted Critical
Publication of JP2734340B2 publication Critical patent/JP2734340B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/30Character recognition based on the type of data
    • G06V30/304Music notations

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Auxiliary Devices For Music (AREA)
  • Character Discrimination (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To efficiently recognize a score with a small calculation quantity and to accurately recognize events on the score and output a musical sound. CONSTITUTION:Five staffs are removed from image data obtained by reading an image of the score and connections of pixel dots with specific thickness corresponding to the thickness of a beam coupling plural notes are discriminated from the image data from which the five staffs are removed (S31). Then connections which are longer than specific length are discriminated among the connections of pixel dots with the specific thickness (S32) and connections which slant within a specific angle range are erased from the connections (S34). Then notes and symbols, and their positions, etc., are recognized from the image data from which the connections of pixel dots are erased.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、楽譜をイメージスキ
ャナ等により読み取って得た画像データから楽譜中の五
線、音符、記号及びそれらの位置等を認識し、その認識
結果に基づいて楽音の音高、発音タイミング及び発音時
間等の情報を生成出力する楽譜認識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention recognizes staffs, notes, symbols and their positions in a musical score from image data obtained by reading a musical score with an image scanner or the like, and based on the recognition result, produces a musical tone. The present invention relates to a musical score recognition device that generates and outputs information such as pitch, pronunciation timing, and pronunciation time.

【0002】[0002]

【従来の技術】楽譜をイメージスキャナ等で読み取って
得られた画像データから楽譜情報を認識し、その認識結
果からMIDI(Musical Instrument Digital Interfa
ce)データを作成すると共に、作成されたMIDIデー
タを電子楽器等のMIDI音源装置に供給することによ
り、楽譜の読取から自動演奏までの処理を一貫して行わ
せようとする試みがある。
2. Description of the Related Art Musical score information is recognized from image data obtained by reading a musical score with an image scanner or the like, and a MIDI (Musical Instrument Digital Interfa
There is an attempt to consistently perform the processing from reading the score to the automatic performance by creating the MIDI data and supplying the created MIDI data to a MIDI tone generator such as an electronic musical instrument.

【0003】従来より行なわれているこの種のシステム
の一般的な処理の流れを示せば次のようになる。 (1) 楽譜データ取り込み。 (2) 五線検出・認識。 (3) 五線消去。 (4) 小節線検出・認識。 (5) 小節線消去。 (6) 音符検出。 (7) 音符認識。 (8) 音符消去。 (9) 記号検出。 (10)記号認識。 (11)記号消去。 (12)演奏データ作成。 (13)自動演奏(MIDIデータ作成・出力)。
The general processing flow of this type of system that has been conventionally performed is as follows. (1) Import score data. (2) Staff detection / recognition. (3) Delete the staff. (4) Bar line detection / recognition. (5) Delete bar lines. (6) Note detection. (7) Note recognition. (8) Note deletion. (9) Symbol detection. (10) Symbol recognition. (11) Symbol elimination. (12) Performance data creation. (13) Automatic performance (MIDI data creation / output).

【0004】ここで、五線検出・認識は、垂直方向軸に
投影した水平方向の画素数のヒストグラム等に基づい
て、水平方向に長く連続する当間隔の線分を検出するこ
とにより行なわれる。検出された五線の垂直方向位置は
検出された音符の音高を決定する際の情報となる。検出
された五線は、音符及び記号の認識処理に不都合を与え
ないために消去される。検出された小節線は、同時に演
奏する複数の五線の組を認識するのに使用される。音符
検出・認識及び記号検出・認識処理は、公知のパターン
マッチングの手法を用いて行なわれる。なお、(10)の記
号認識まででMIDIコードは作成することができるの
で、(11)の記号消去は必ずしも必要ではないが、処理の
便宜上、記号を消去することもある。
Here, the staff detection / recognition is carried out by detecting a long continuous line segment in the horizontal direction based on a histogram of the number of pixels in the horizontal direction projected on the vertical axis. The detected vertical position of the staff serves as information for determining the pitch of the detected note. The detected staff is deleted so as not to inconvenience the note and symbol recognition processing. The detected bar lines are used to recognize sets of staves that are playing at the same time. The note detection / recognition and the symbol detection / recognition processing are performed using a known pattern matching method. Since the MIDI code can be created up to the symbol recognition in (10), the symbol deletion in (11) is not always necessary, but the symbols may be deleted for convenience of processing.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上述し
た従来の楽譜認識処理は、大型コンピュータによる処理
を前提としているために、複雑な画像処理を伴い、同様
の処理を一般的なパーソナルコンピュータで行なうと、
処理時間が長くなり、実用に耐えないという問題があ
る。一方、処理を簡素化するため、演算量の少ない簡易
方式のパターン認識手法を用いて音符や記号を認識しよ
うとした場合、音符と音符とを結合するビームが、音符
の符頭と誤って認識されるという問題がある。
However, since the above-described conventional musical score recognition processing is premised on the processing by a large-scale computer, when the same processing is performed by a general personal computer, complicated image processing is involved. ,
There is a problem that the processing time becomes long and it cannot be put to practical use. On the other hand, in order to simplify the process, if you try to recognize a note or symbol by using a simple pattern recognition method with a small amount of calculation, the beam that connects the notes and the notes is erroneously recognized as the note head of the note. There is a problem that is.

【0006】この発明は、このような事情に鑑みてなさ
れたもので、楽譜の認識を少ない計算量で効率良く行な
うことができ、しかも的確に楽譜上のイベント認識及び
楽音出力が可能になる楽譜認識装置を提供することを目
的とする。
The present invention has been made in view of the above circumstances, and can efficiently recognize a musical score with a small amount of calculation, and can accurately recognize an event on the musical score and output a musical sound. An object is to provide a recognition device.

【0007】[0007]

【課題を解決するための手段】この発明に係る楽譜認識
装置は、楽譜のイメージを読み取って得られた画像デー
タから前記楽譜中の五線、音符、記号及びそれらの位置
等を認識し、その認識結果に基づいて楽音の音程、発音
タイミング及び発音時間等の情報を生成する楽譜認識装
置において、前記画像データから、五線を消去する五線
消去手段と、この五線消去手段で五線が消去された画像
データから複数の音符を結合するビームの太さに対応し
た所定の太さの画素ドットの連なりを弁別する太さ弁別
手段と、この太さ弁別手段で弁別された所定の太さの画
素ドットの連なりのうち所定の長さ以上の長さを有する
連なりを弁別する長さ弁別手段と、この長さ弁別手段で
弁別された画素ドットの連なりのうちその傾斜が所定の
角度範囲内にある連なりを消去する消去手段とを備え、
この消去手段で前記画素ドットの連なりが消去された画
像データから音符、記号及びそれらの位置等を認識する
ようにしたことを特徴とする。
A musical score recognition apparatus according to the present invention recognizes staffs, notes, symbols and their positions in the musical score from image data obtained by reading an image of the musical score, In a musical score recognition device that generates information such as the pitch of a musical tone, sounding timing, and sounding time based on a recognition result, a staff erasing unit that deletes a staff from the image data, and a staff by this staff deleting unit. A thickness discriminating means for discriminating a series of pixel dots having a predetermined thickness corresponding to the thickness of a beam for combining a plurality of notes from the erased image data, and a predetermined thickness discriminated by the thickness discriminating means. Length discriminating means for discriminating a sequence having a length equal to or longer than a predetermined length among the sequence of pixel dots of, and the inclination of the sequence of pixel dots discriminated by the length discriminating means within a predetermined angular range. It is in And an erasing means for erasing the will,
It is characterized in that the erasing means recognizes notes, symbols and their positions from the image data in which the series of pixel dots has been erased.

【0008】[0008]

【作用】この発明においては、五線が消去された画像デ
ータから、複数の音符を結合するビームであることが明
らかな所定の太さの画素ドットの連なりを弁別すると共
に、所定の太さの連なりのうち所定の長さ以上の画素ド
ットの連なりを弁別し、更にビームの持つ傾斜を考慮し
て上記弁別された画素ドットの連なりのうち所定の角度
範囲内にある連なりを消去するようにしているので、五
線と共にビームの部分も消去することが可能になる。
According to the present invention, it is possible to discriminate a series of pixel dots having a predetermined thickness, which is clearly a beam for combining a plurality of notes, from the image data in which the staff has been deleted, and to determine a predetermined thickness. A series of pixel dots having a predetermined length or more is discriminated from the series, and the series within the predetermined angle range among the series of the discriminated pixel dots is erased in consideration of the inclination of the beam. Therefore, it is possible to erase the beam part as well as the staff.

【0009】そして、この発明によれば、五線及びビー
ムが消去されることにより、音符及び記号等を島状に残
すことができ、パターンマッチングの領域を限定するこ
とができる。また、ビームが消去された画像データに対
してマッチング処理を施すので、ビーム部分を音符とし
て誤って認識してしまうことを防止することができる。
これにより、楽譜認識を効率よく行うことが可能にな
り、少ない計算負荷で、しかも的確に楽譜上のイベント
の認識を行うことが可能となる。
Further, according to the present invention, by deleting the staff and the beam, it is possible to leave notes, symbols and the like in an island shape and to limit the pattern matching area. Further, since the matching process is performed on the image data in which the beam is erased, it is possible to prevent the beam portion from being erroneously recognized as a note.
As a result, it becomes possible to efficiently recognize the score, and to accurately recognize the event on the score with a small calculation load.

【0010】[0010]

【実施例】以下、図面を参照して、この発明の実施例を
説明する。図1は、この発明の一実施例に係る楽譜認識
・自動演奏システムの構成を示すブロック図である。こ
の楽譜認識・自動演奏システムは、印刷楽譜等を読み取
って楽譜中の五線、音符、記号及びそれらの位置等を認
識し、その認識結果に基づいて楽音の音程、発生タイミ
ング及び発音時間等の演奏データを生成すると共に、こ
の演奏データに従ってMIDIデータを生成出力する楽
譜認識装置1と、この楽譜認識装置1から出力されるM
IDIデータに従って自動演奏処理を実行する電子楽器
等の外部MIDI音源装置2と、この外部MIDI音源
装置2により駆動されるスピーカ、オーディオ装置等の
出力装置3とにより構成されている。楽譜認識装置1
は、パーソナルコンピュータ、ワークステーション等の
コンピュータシステムからなり、システムバス11を介
して相互に接続されたイメージスキャナ12、CPU1
3、ROM14、RAM15、タイマ16、スイッチ1
7、ディスプレイ18及びMIDIインタフェース19
から構成されている。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the configuration of a musical score recognition / automatic performance system according to an embodiment of the present invention. This music score recognition / automatic performance system reads printed music scores and recognizes staffs, notes, symbols and their positions in the music score, and based on the recognition results, musical pitches, generation timings, pronunciation times, etc. A musical score recognition apparatus 1 for generating performance data and generating and outputting MIDI data in accordance with the performance data, and an M output from the musical score recognition apparatus 1.
An external MIDI sound source device 2 such as an electronic musical instrument that executes automatic performance processing according to IDI data, and an output device 3 such as a speaker or an audio device driven by the external MIDI sound source device 2. Score recognition device 1
Is a computer system such as a personal computer, a workstation, etc., and an image scanner 12 and a CPU 1 which are mutually connected via a system bus 11.
3, ROM 14, RAM 15, timer 16, switch 1
7. Display 18 and MIDI interface 19
It consists of

【0011】イメージスキャナ12は、楽譜のイメージ
を光学的に読み取ってドットデータからなる2値画像デ
ータを原画像データとして楽譜認識装置1内に取り込む
画像入力装置である。CPU13は、ROM14に格納
された楽譜認識プログラムに従って、楽譜認識処理を実
行する。RAM15は、イメージスキャナ12で取り込
まれた2値画像データを記憶すると共に、楽譜認識処理
を実行する際のワークエリアを提供する。タイマ16
は、楽譜認識処理で得られた演奏データに基づいてMI
DIデータの出力タイミングを決定し、CPU13にM
IDIデータ出力のための割り込みをかける。スイッチ
17及びディスプレイ18は、楽譜認識装置1とオペレ
ータとの間のマンマシンインタフェースである。この楽
譜認識装置1は、生成したMIDIデータをMIDIイ
ンタフェース19を介して外部MIDI音源装置2に出
力する。
The image scanner 12 is an image input device that optically reads an image of a musical score and takes binary image data consisting of dot data into the musical score recognition device 1 as original image data. The CPU 13 executes the score recognition processing according to the score recognition program stored in the ROM 14. The RAM 15 stores the binary image data captured by the image scanner 12 and also provides a work area for executing the score recognition process. Timer 16
Is an MI based on the performance data obtained by the score recognition processing.
The output timing of the DI data is determined and the CPU 13 receives the M
Interrupt for IDI data output. The switch 17 and the display 18 are man-machine interfaces between the musical score recognition apparatus 1 and the operator. The musical score recognition device 1 outputs the generated MIDI data to the external MIDI tone generator device 2 via the MIDI interface 19.

【0012】次に、このように構成された楽譜認識・自
動演奏システムの動作を説明する。図2は、楽譜認識・
自動演奏処理のフローチャートである。この実施例にお
ける楽譜認識・自動演奏処理は、大きく分けて次の4つ
の部分から構成されている。 (1)前処理(五線・小節線認識、傾斜補正、五線消去
およびビーム消去)。 (2)オブジェクト認識(外接長方形の探索およびマッ
チング処理)。 (3)イベント認識処理(音高認識および音長認識処
理)及び演奏データ作成。 (4)自動演奏(MIDIデータ作成及び出力)。
Next, the operation of the musical score recognition / automatic performance system thus constructed will be described. Figure 2 shows the score recognition
It is a flowchart of an automatic performance process. The score recognition / automatic performance process in this embodiment is roughly divided into the following four parts. (1) Pre-processing (Staff / bar recognition, tilt correction, staff erasing and beam erasing). (2) Object recognition (circumscribing rectangle search and matching processing). (3) Event recognition processing (pitch recognition and pitch recognition processing) and performance data creation. (4) Automatic performance (MIDI data creation and output).

【0013】まず、イメージスキャナ12で楽譜を読み
取り、楽譜の原画像データをRAM15に保存する(ス
テップS1)。いま、図3に示すような楽譜をイメージ
スキャナ12で読み込んだ場合、楽譜がX軸及びY軸に
対して傾いて読み取られることがある。この場合、図4
に示すように、得られた原画像データはX軸及びY軸に
対して所定角度だけ傾く。原画像データにこのような傾
きが存在すると、認識処理に多大な影響を与える。即
ち、X軸に対する傾きθ1については、五線がX軸方向
に長いという関係上、図4に示すように、僅かな傾斜で
もプロジェクション(ドット数のY軸投影図)Pのプロ
フィールはかなりなまった形になるので、五線位置の検
出が不可能になる。また、Y軸に対する傾きθ2は、オ
ブジェクト認識でのマッチング処理や同時発生させるべ
き和音の認識を困難にする。
First, the score is read by the image scanner 12, and the original image data of the score is stored in the RAM 15 (step S1). Now, when a score as shown in FIG. 3 is read by the image scanner 12, the score may be read with an inclination with respect to the X axis and the Y axis. In this case,
As shown in, the obtained original image data is tilted by a predetermined angle with respect to the X axis and the Y axis. The presence of such inclination in the original image data has a great influence on the recognition process. That is, with respect to the inclination θ1 with respect to the X-axis, the profile of the projection (Y-axis projection view of the number of dots) P becomes considerably large even with a slight inclination, because the staff is long in the X-axis direction. Because of the shape, the staff position cannot be detected. Further, the inclination θ2 with respect to the Y axis makes it difficult to perform matching processing in object recognition and recognition of chords to be generated simultaneously.

【0014】そこで、このようなX軸及びY軸に対する
傾斜を補正すべく、前処理の第1段階として、五線認識
傾斜補正処理が実行される(ステップS2)。図5は、
この五線認識傾斜補正処理の詳細を示すフローチャート
である。まず、五線を認識する際の妨げになるオブジェ
クトを除去するため、原画像データからドットが水平方
向(X軸方向)に所定数だけ連続的に並んでいる水平ラ
ンを抽出する(ステップS11)。オブジェクトを効果
的に除去するために、検出すべき水平ランのドット数
は、オブジェクトの一般的な水平方向長さよりも長い値
に設定する必要がある。図4の原画像データに対して水
平ランの抽出処理を行った結果を図6に示す。水平方向
に比較的長い成分を含むビーム等、五線以外の一部の画
像データが残ることがあるが、オブジェクトの大部分が
除去されるので、大きな支障はない。
Therefore, in order to correct the inclination with respect to the X axis and the Y axis, the staff recognition inclination correction processing is executed as the first step of the preprocessing (step S2). Figure 5
It is a flowchart which shows the detail of this staff recognition inclination correction process. First, in order to remove an object that hinders recognition of staffs, a horizontal run in which a predetermined number of dots are continuously arranged in the horizontal direction (X-axis direction) is extracted from the original image data (step S11). . In order to effectively remove the object, the number of dots in the horizontal run to be detected should be set to a value longer than the general horizontal length of the object. FIG. 6 shows the result of horizontal run extraction processing performed on the original image data of FIG. A part of the image data other than the staff, such as a beam including a relatively long component in the horizontal direction, may remain, but since most of the object is removed, there is no big problem.

【0015】次に、抽出された水平成分画像データから
五線を判別する(ステップS12)。即ち、図6に示す
ように、水平成分画像データを、左端から順次Y軸方向
に走査し、間隔の揃った5本の水平線を五線として検出
する。より具体的には、Y軸方向走査により検出される
水平のランの間隔が、図6に示すように、d1、d2、
d3およびd4であるとすると、下記数1に示すDm
(各水平ランの平均間隔)が下記数2に示すDs(平均
間隔と各間隔との偏差の合計)が3ドット未満を満足す
る場合、これらの5本の水平ランを五線と判断する。即
ち、各水平ランの間隔のばらつきが所定値未満であれば
五線とみなす。
Next, the staff is discriminated from the extracted horizontal component image data (step S12). That is, as shown in FIG. 6, the horizontal component image data is sequentially scanned in the Y-axis direction from the left end, and five horizontal lines with even intervals are detected as five lines. More specifically, as shown in FIG. 6, the intervals between horizontal runs detected by Y-axis scanning are d1, d2,
If d3 and d4, then Dm shown in the following equation 1
When (average interval of each horizontal run) satisfies Ds (total of deviation between average interval and each interval) shown in the following Expression 2 is less than 3 dots, these five horizontal runs are determined to be staffs. That is, if the variation in the interval between the horizontal runs is less than a predetermined value, it is regarded as a staff.

【0016】[0016]

【数1】Dm=(d1+d2+d3+d4)/4[Equation 1] Dm = (d1 + d2 + d3 + d4) / 4

【0017】[0017]

【数2】 Ds=|Dm−d1|+|Dm−d2|+|Dm−d3|+|Dm−d4|<3ドット[Equation 2] Ds = | Dm-d1 | + | Dm-d2 | + | Dm-d3 | + | Dm-d4 | <3 dots

【0018】このとき、初めに上記の条件を満たした図
中黒ドットで示す位置を五線の位置とみなし、それら五
線の各Y座標と五線の上端線から下端線までの幅Daを
RAM15に記憶する。なお、イメージスキャナ12の
解像度が360dpiの場合、五線の太さは5〜6ドッ
ト程度になるが、その場合には、各五線の中心のY座標
を記憶する。
At this time, first, the positions indicated by black dots in the figure which satisfy the above conditions are regarded as the positions of the staff, and the Y coordinates of these staffs and the width Da from the upper end line to the lower end line of the staff are set. It is stored in the RAM 15. When the resolution of the image scanner 12 is 360 dpi, the staff has a thickness of about 5 to 6 dots. In that case, the Y coordinate of the center of each staff is stored.

【0019】次に、図6に示すように、X軸方向に少し
ずつずらしながらY軸方向走査を実行し、下記数3によ
り五線の傾きθを算出する(ステップS13)。
Next, as shown in FIG. 6, scanning in the Y-axis direction is executed while gradually shifting in the X-axis direction, and the inclination θ of the staff is calculated by the following equation 3 (step S13).

【0020】[0020]

【数3】∠θ= tan-1(x/y)[Equation 3] ∠θ = tan-1 (x / y)

【0021】但し、xはX軸方向のドット数、yはY軸
方向のドット数である。なお、θはX軸方向xドット当
たり、Y軸方向yドットというデータでもよい。また、
Y軸走査の高速化を図るため、図6に示すように、五線
の位置が検出された後の走査では、五線の幅Daの範囲
を飛ばすようにする。走査は必ずしもX軸方向の全範囲
について行う必要はなく、例えば左から1/3の範囲に
ついて行うだけでも傾きの判断は十分可能であり、この
場合、更に処理の高速化を図ることができる。
However, x is the number of dots in the X-axis direction, and y is the number of dots in the Y-axis direction. Note that θ may be data of y dots in the Y axis direction per x dots in the X axis direction. Also,
In order to speed up the Y-axis scanning, as shown in FIG. 6, in the scanning after the position of the staff is detected, the range of the width Da of the staff is skipped. The scanning does not necessarily have to be performed in the entire range in the X-axis direction, and the inclination can be sufficiently determined by performing the scanning in the range of 1/3 from the left. In this case, the processing speed can be further increased.

【0022】次に、五線検出と同様の手法で原画像デー
タを例えばX軸方向に順次走査してY軸に長く延びる線
を小節線として検出する(ステップS14)。例えばピ
アノ楽譜等、高音部(ト音記号付き)と低音部(ヘ音記
号付き)とを並行して演奏するため、複数の五線が共通
の小節線に結合されている場合には、五線の幅Daの3
倍以上の長さを持つY軸方向線を小節線とみなす。この
ような条件は、楽譜の種類に応じて、スイッチ17で指
定するようにしてもよい。RAM15には、小節線の情
報として、X座標及びその長さを記憶する。小節線の位
置の情報は、後述する音長の判定で拍子が合わないとき
のチェックに利用することができる。また、小節線の長
さの情報は、並行して演奏する五線の組を判断するのに
使用される。
Next, the original image data is sequentially scanned, for example, in the X-axis direction by a method similar to the staff detection, and a line extending long in the Y-axis is detected as a bar line (step S14). For example, in the case of a piano score, where the treble part (with a treble clef) and the bass part (with a treble clef) are played in parallel, if multiple staves are connected to a common bar line, Line width Da 3
A Y-axis direction line having a length more than twice the length is regarded as a bar line. Such conditions may be specified by the switch 17 according to the type of score. The X coordinate and its length are stored in the RAM 15 as bar line information. The information on the position of the bar line can be used for checking when the beat does not match in the determination of the note length described later. Also, the bar length information is used to determine the set of staffs to be played in parallel.

【0023】続いて、原画像データの傾斜補正処理が実
行される。この傾斜補正処理は、Y軸方向傾斜補正処理
(ステップS15)と、X軸方向傾斜補正処理(ステッ
プS16)とからなる。Y軸方向傾斜補正処理(ステッ
プS15)では、先に求められた傾斜角度θに基づい
て、図7(a)に示すように、各五線およびその近傍部
分(演奏に関与するY軸方向の範囲)をX軸方向のブロ
ック毎に、原画像上のドットをY軸方向にドット単位で
シフトさせ、各五線及びその周辺毎にY軸方向に傾斜補
正を行う。各五線及びその周辺毎に傾斜補正を行うよう
にした理由は、楽譜によっては五線毎に傾角が異なって
いるものもしばしば見られるからである。X軸方向傾斜
補正処理(ステップS16)についても、同様に傾斜角
度θに基づいて、図7(b)に示すように、Y軸方向に
連続するブロック毎に、原画像上のドットをX軸方向に
ドット単位でシフトして、Y軸に対する傾斜を補正す
る。但し、このX軸方向傾斜補正処理は、傾斜角度θ
が、所定の角度以上である場合に限り実行するようにし
てもよい。上記所定の角度は、イメージスキャナの解像
度を考慮し、オブジェクト認識や和音検出に影響を与え
る限界値に設定する。また、この値は、小節線の長さに
よって変えるようにしてもよい。これにより、認識に影
響を与えない小さな傾斜の場合には、Y軸に対する傾斜
補正処理を省略して処理時間を短縮することができる。
図8は、Y軸方向傾斜補正処理後の画像データの例、図
9は、X軸方向傾斜補正処理後の画像データの例を示し
ている。傾斜補正後のX軸方向のプロジェクションのプ
ロフィールP′は、図9に示すように、五線の位置に高
いピーク値を持ったものとなる。
Subsequently, the inclination correction processing of the original image data is executed. This tilt correction processing includes Y-axis direction tilt correction processing (step S15) and X-axis direction tilt correction processing (step S16). In the Y-axis direction inclination correction process (step S15), as shown in FIG. 7A, each staff and its vicinity (in the Y-axis direction involved in the performance, based on the previously obtained inclination angle θ). For each block in the X-axis direction, the dots on the original image are shifted in the Y-axis direction in dot units, and inclination correction is performed in the Y-axis direction for each staff and its periphery. The reason why the inclination correction is performed for each staff and its surroundings is that it is often found that the inclination angle is different for each staff depending on the score. Also in the X-axis direction tilt correction process (step S16), similarly, as shown in FIG. 7B, the dots on the original image are set to the X-axis direction on the basis of the tilt angle θ for each block continuous in the Y-axis direction. Direction is shifted dot by dot to correct the inclination with respect to the Y axis. However, this X-axis direction tilt correction processing is performed with the tilt angle θ.
However, it may be executed only when the angle is a predetermined angle or more. The predetermined angle is set to a limit value that affects object recognition and chord detection in consideration of the resolution of the image scanner. Further, this value may be changed according to the length of the bar line. As a result, in the case of a small inclination that does not affect the recognition, the inclination correction processing for the Y axis can be omitted and the processing time can be shortened.
FIG. 8 shows an example of image data after the Y-axis direction inclination correction processing, and FIG. 9 shows an example of image data after the X-axis direction inclination correction processing. As shown in FIG. 9, the projection profile P ′ in the X-axis direction after the inclination correction has a high peak value at the position of the staff.

【0024】そこで、次に傾斜補正後の画像データのX
軸方向のプロジェクションを求め(ステップS17)、
得られたプロジェクションの各ピーク部分のY軸方向の
中心位置のY座標を五線の正式な位置とする(ステップ
S18)。このとき、同時に正式な五線の間隔Dも求め
ておく。また、プロジェクションを求める方法の他、五
線が示すピーク値の中間位置を走査するようにX軸の中
間位置をサンプリングして、Ds<3ドットの条件を満
たすY座標を五線の正式な位置とするようにしてもよ
い。なお、図9の画像データは、X軸方向の傾斜補正も
行っているので、Y軸方向のプロジェクションを求める
と、後述するオブジェクト認識の際、オブジェクトの正
確なX軸方向位置を判定することもできる。
Then, the X of the image data after the tilt correction is next performed.
Obtain the projection in the axial direction (step S17),
The Y coordinate of the center position in the Y axis direction of each peak portion of the obtained projection is set as the official position of the staff (step S18). At this time, the official staff interval D is also obtained at the same time. In addition to the method of obtaining the projection, the intermediate position of the X axis is sampled so that the intermediate position of the peak value indicated by the staff is scanned, and the Y coordinate satisfying the condition of Ds <3 dots is set to the official position of the staff. May be set. Since the image data of FIG. 9 is also subjected to inclination correction in the X-axis direction, if the projection in the Y-axis direction is obtained, the accurate X-axis direction position of the object may be determined at the time of object recognition described later. it can.

【0025】以上の五線認識傾斜補正処理(ステップS
2)が終了すると、続いて、傾斜補正後の画像データか
ら五線部分のみを消去する(ステップS3)。このステ
ップS3で五線を消去するのは、後に述べるオブジェク
ト認識の際に五線が残っていると不都合を生じるためで
ある。五線を消去する際に注意しなければならないの
は、図13(a)に示すように、楽譜を構成するオブジ
ェクトまで消去しないような処理を行わなければならな
いことである。
The above staff recognition inclination correction processing (step S
When 2) is completed, then, only the staff portion is deleted from the image data after the inclination correction (step S3). The reason why the staff is erased in step S3 is that inconvenience occurs if the staff remains during object recognition described later. What should be noted when erasing the staff is that, as shown in FIG. 13A, a process must be performed so as not to erase even the objects constituting the musical score.

【0026】この五線消去処理の詳細を図10に示すフ
ローチャートを参照して説明する。まず、傾斜補正後の
画像データから、平均的な五線の太さに相当する所定の
太さ有し且つ認識された五線位置に沿う画素ドットの連
なりを弁別する(ステップS21)。次に、その太さを
チェックしながら、所定の太さを満たさなくなった時点
で、その連なりの長さを弁別する(ステップS22)。
その連なりが例えば五線間隔Dの2倍以上の連なりと判
断されれば、その連なりを消去する(ステップS2
3)。即ち、図9のAを拡大して一部省略した図11を
例にとると、五線の太さは5〜6ドット程度であるた
め、若干の余裕をとって、8ドット程度の太さDlに収
まるX軸方向の連なりを追跡し、太さの条件を満たさな
くなった時点tで、その連なりの長さLlが2D以上で
あるかどうかを判定する。もし、その条件を満たせば、
両端に若干のマージンMをとって、その間の線分(図中
Aiの領域)を消去する。これにより、図12に示すよ
うに、五線の大部分が消去され、同図Bの部分を拡大し
た図13(b)に示すように、五線を若干残した状態で
あるがオブジェクトの情報を完全に残した状態で五線を
消去することができる。なお、弁別の基準となる平均的
な五線の太さについては、予め一般的な楽譜より、五線
の間隔に対応する五線の太さの平均的な範囲を求めて記
憶させておくようにしてもよく、また、前述した五線認
識の結果を利用してもよい。
The details of the staff erasing process will be described with reference to the flowchart shown in FIG. First, a series of pixel dots having a predetermined thickness corresponding to the average staff thickness and along the recognized staff position is discriminated from the image data after the inclination correction (step S21). Next, while checking the thickness, when the predetermined thickness is not satisfied, the length of the run is discriminated (step S22).
If it is determined that the run is, for example, twice or more the staff interval D, the run is erased (step S2).
3). That is, taking FIG. 11 in which A of FIG. 9 is enlarged and partly omitted, the staff has a thickness of about 5 to 6 dots. The continuous X-axis direction that falls within Dl is tracked, and at time t when the thickness condition is no longer satisfied, it is determined whether the continuous length Ll is 2D or more. If that condition is met,
A slight margin M is set at both ends, and the line segment (Ai area in the figure) between them is erased. As a result, most of the staffs are erased as shown in FIG. 12, and some staffs are left as shown in FIG. 13 (b) in which the portion of FIG. The staff can be erased while leaving the. As for the average staff thickness that is the basis for discrimination, find the average range of staff thicknesses corresponding to the interval between staffs in advance from a standard score and store it. Alternatively, the result of the staff recognition described above may be used.

【0027】五線消去処理(ステップS3)が終了する
と、次にビーム認識消去処理(ステップS4)を実行す
る。ビームも五線の場合と同様でオブジェクト認識の際
に、例えば図14(b)に示すような和音の黒丸(符
頭)の塊等と誤認するおそれがあるので、少なくとも音
長認識の処理を行うまでは画像データから消去してお
く。ただし、ビームの場合、一定の条件にあてはまらな
い形態のものも少なくなく、それを完全に認識判別する
ことは不可能であるので、以後の処理の便宜のため少な
くとも典型的な形態のビームを認識消去するようにす
る。仮に極端な形態のビームが消去されずに残ったとし
ても、オブジェクトが消去されるよりは好ましい。典型
的な形態のビームの条件としては、図14に示すよう
に、太さDb、長さLb及び角度θbが下記の条件を満
たすものとする。
When the staff erasing process (step S3) is completed, a beam recognition erasing process (step S4) is executed next. The beam is also similar to the case of the staff, and at the time of object recognition, there is a possibility that it may be erroneously recognized as a mass of black circles (noteheads) of chords as shown in FIG. It is deleted from the image data until it is performed. However, in the case of a beam, there are many shapes that do not meet certain conditions, and it is impossible to completely recognize and distinguish it. Therefore, for convenience of subsequent processing, at least a typical shape of the beam is recognized. Try to erase. Even if the extreme form of the beam remains unerased, it is preferable to erasing the object. As a typical condition of the beam, as shown in FIG. 14, the thickness Db, the length Lb, and the angle θb satisfy the following conditions.

【0028】太さ D/3<Db<D 長さ Lb≧2D 角度 −45°≦θb≦45°Thickness D / 3 <Db <D Length Lb ≧ 2D Angle −45 ° ≦ θb ≦ 45 °

【0029】図15は、このビーム認識消去処理のフロ
ーチャートである。まず、五線が消去された画像データ
から太さDbの条件を満たすドッドの連なりを弁別し
(ステップS31)、その連なりが長さLbの条件を満
たすかどうかを弁別する(ステップS32)。その連な
りが2つの条件を満たしていれば、最後にその連なりが
角度θbの条件を満たしているかどうかを弁別する(ス
テップS33)。そして、全ての条件を満たしたドット
の連なりを消去する(ステップS34)。
FIG. 15 is a flow chart of this beam recognition erasing process. First, a series of dodds satisfying the condition of thickness Db is discriminated from the image data in which the staff is deleted (step S31), and it is discriminated whether or not the sequence satisfies the condition of length Lb (step S32). If the series satisfies the two conditions, it is finally discriminated whether or not the series satisfies the condition of the angle θb (step S33). Then, the series of dots satisfying all the conditions is erased (step S34).

【0030】ビーム認識消去処理(ステップS4)が終
了すると、次にオブジェクト認識処理(ステップS5)
を実行する。このオブジェクト認識処理の詳細を図16
に示すフローチャートを参照して説明する。まず、画像
の全面に対してマッチング処理を行うのは効率が悪いの
で、マッチング処理を行う範囲を限定するため、五線お
よびビームが消去された画像データをスキャンして、ド
ットの塊が存在する範囲毎に外接長方形を設定する(ス
テップS41)。例えば、図17に示すように、五線お
よびビームが消去された画像を、左上から水平に逐次ス
キャンして、図示*点でドットにぶつかったら、そのド
ットの塊の輪郭(◇で示す)を図示矢印方向に追跡し
て、XYの最大値Xmax,Ymax 及び最小値Xmin ,Ym
in を求め、これらの座標値で囲まれる長方形を外接長
方形とする。具体的には、図示*点を起点として、「上
下左右を調べ、ドットがあればその点をレジストして、
そのドットを一旦消す」という操作を上下左右を調べて
ドットが見つからなくなるまで繰り返す。なお、五線お
よびビームが消去された画像を、全てのドットの塊の外
接長方形が求められた時点で、復元できるようにするた
め、五線およびビームが消去された画像を、外接長方形
を求める前に別途保存しておくか、あるいは一旦消去し
たドットの位置を全てレジストしておく。
When the beam recognition erasing process (step S4) is completed, the object recognizing process (step S5) is performed next.
To execute. Details of this object recognition processing are shown in FIG.
This will be described with reference to the flowchart shown in FIG. First, since it is inefficient to perform matching processing on the entire surface of the image, in order to limit the range for performing matching processing, the image data from which the staff and beam have been erased is scanned, and there are lumps of dots. A circumscribed rectangle is set for each range (step S41). For example, as shown in FIG. 17, an image in which the staff and the beam have been erased is sequentially scanned horizontally from the upper left, and when a dot is hit at the point indicated by *, the outline of the dot cluster (indicated by ◇) is displayed. Tracking in the direction of the arrow shown, the maximum values Xmax, Ymax and minimum values Xmin, Ym of XY
Find in, and make the rectangle enclosed by these coordinate values the circumscribed rectangle. Specifically, starting from point * shown in the figure, "check the top, bottom, left, and right, if there is a dot, register that point,
The operation of "erasing the dot" is checked up and down, left and right, and repeated until no dot is found. It should be noted that in order to be able to restore the image in which the staff and beam are erased, at the time when the circumscribing rectangle of the cluster of all dots is found, the image in which the staff and beam are erased is determined as the circumscribing rectangle Either save it separately before, or register all the positions of the erased dots.

【0031】次に、求められた外接長方形内を、レファ
レンスパターンでスキャンして、マッチング度を評価す
る(ステップS42)。このステップS42で用いるマ
ッチングのテンプレートとしてのレファレンスパターン
は、図18に示すように、各種オブジェクトのパターン
の特徴を効果的にとらえるような特徴点、すなわち画素
ドットが存在すべき点(図中黒丸)及び画素ドットが存
在してはならない点(図中白丸)の分布パターンとして
形成されたもので、予めROM14に登録されている。
図18は、シャープ記号(a),(b)、ナチュラル記
号(c)、全音符(d)、2分音符(e)及び4分音符
(f)のリファレンスパターンを示している。シャープ
記号(a),(b)とナチュラル記号(c)とは、かな
り類似しているが、右上及び左下の部分が、前者では画
素ドットの存在すべき点、後者では画素ドットの存在し
てはならない点に設定されているので、この相違によっ
て両者を識別することができる。また、全音符(d)と
2分音符(e)も、かなり類似しているが、楕円の傾き
を考慮した図示のようなパターンを使用することによっ
て、両者を識別することができる。また、レファレンス
パターンは、五線の消え残し(前述の五線消去のときに
残したマージンM)の部分を判断しないようなパターン
に設定されている。また、図18(b)に示すように、
同(a)に対してオブジェクトが半音ずれた状態では五
線の消え残しの位置が異なり、五線が消え残る可能性の
ある位置には、特徴点を付けないようにしているので、
五線の一部が残っていてもその影響を受けない。
Next, the inside of the obtained circumscribed rectangle is scanned with the reference pattern to evaluate the matching degree (step S42). As shown in FIG. 18, the reference pattern used as the matching template in step S42 is a feature point that effectively captures the features of the patterns of various objects, that is, the point where a pixel dot should exist (black circle in the figure). And is formed as a distribution pattern of points (white circles in the figure) where pixel dots should not exist, and is registered in the ROM 14 in advance.
FIG. 18 shows reference patterns of sharp symbols (a) and (b), natural symbols (c), whole notes (d), half notes (e) and quarter notes (f). The sharp symbols (a) and (b) and the natural symbol (c) are quite similar, but the upper right and lower left portions show the points where the pixel dots should exist in the former and the pixel dots exist in the latter. Since they are set so that they cannot be different from each other, it is possible to distinguish them from each other by this difference. The whole note (d) and the half note (e) are also quite similar, but they can be distinguished from each other by using the pattern shown in the figure in consideration of the inclination of the ellipse. In addition, the reference pattern is set to a pattern that does not judge the portion of the remaining unerased staff (margin M left when the staff is erased as described above). In addition, as shown in FIG.
With respect to (a), when the object is deviated by a semitone, the position where the staff does not remain is different, and feature points are not attached to the positions where the staff may remain.
Even if a part of the staff remains, it is not affected.

【0032】ROM14から読出されたレファレンスパ
ターンは、五線の間隔に基づいて縮小・拡大されてパタ
ーンマッチング処理に供される。このようにすることに
より、楽譜画像が、いかなる分解能で入力されたもので
あっても対応することができ、また児童向けの楽譜など
のようにオブジェクトの大きさが通常とは大きく異なる
ものにも対応することができる。こうして、オブジェク
トの大きさに対応させたレファレンスパターンを用い
て、外接長方形の中をスキャンして、各点において、も
し合致すれば評価値を「+1」とし、合致しなければ、図
19に示すように、さらに上下左右斜め8方向を調べて
合致すれば評価値を「+0.9」とする。これはオブジェク
ト形状の多少の変形にも対応し得るようにするためであ
る。このような評価の結果、最終的に得られた評価値が
完全なマッチング時の95%以上であれば、そのレファ
レンスパターンに該当するオブジェクトであると判定す
る(ステップS43)。例えば、レファレンスパターン
が8個の特徴点から構成されているものとすると、評価
値が7.6(=8×0.95)以上であれば、そのレフ
ァレンスパターンに該当するオブジェクトであると判断
する。
The reference pattern read from the ROM 14 is reduced / enlarged on the basis of the intervals of the staff to be used for pattern matching processing. By doing this, it is possible to handle music images that have been input at any resolution, and even for objects such as music for children where the size of the object is significantly different from normal. Can respond. In this way, the inside of the circumscribed rectangle is scanned using the reference pattern corresponding to the size of the object, and at each point, the evaluation value is set to “+1” if they match, and if they do not match, the evaluation value shown in FIG. As shown in the figure, the evaluation value is set to “+0.9” when the vertical, horizontal, and diagonal directions are further examined and they match. This is to make it possible to deal with some deformation of the object shape. As a result of such evaluation, if the finally obtained evaluation value is 95% or more of the perfect matching, it is determined that the object corresponds to the reference pattern (step S43). For example, assuming that the reference pattern is composed of eight feature points, if the evaluation value is 7.6 (= 8 × 0.95) or more, it is determined that the object corresponds to the reference pattern. .

【0033】具体的な処理に当たっては、ステップS4
3のオブジェクト判別と、ステップS42のマッチング
評価とを連携させ、「既に認識できたパターンは画像か
ら消去する」、「ある程度マッチング度を評価して極端
に合わなければ、そのレファレンスパターンについての
マッチング度の評価を打ち切り、次のレファレンスパタ
ーンの当てはめによるマッチング度の評価を行う」など
して、処理の高速化を図る。また、この方式では、付点
および全休符は、認識が困難であるので、これらについ
ては幾何学的な特徴をとらえて認識する。すなわち、全
休符は、五線の間隔からその楽譜の全休符の持つべき面
積を計算し、それにあてはまり、且つドットが稠密な図
形を探すことにより認識し、付点は、後述するイベント
認識の過程で、極端に面積が小さく且つドットの分散が
少ないという特徴に基づいて認識する。なお、各レファ
レンスパターンの情報には、その中心座標の情報も含ま
れており、オブジェクト認識された時点で、レファレン
スパターンの中心座標の画像データにおける座標が認識
されたオブジェクトの情報と対でRAM15に登録され
る。
In the concrete processing, step S4
The object discrimination of 3 and the matching evaluation of step S42 are linked to "delete the already recognized pattern from the image", "evaluate the matching degree to some extent and if it does not match extremely, the matching degree for the reference pattern Is terminated and the matching degree is evaluated by fitting the next reference pattern. " Further, in this method, since it is difficult to recognize the dots and whole rests, they are recognized by recognizing geometrical features. In other words, all rests are recognized by calculating the area that all rests of the score should have from the interval of staffs, and recognizing by searching for a figure with dense dots and dots. Then, recognition is performed based on the feature that the area is extremely small and the dot dispersion is small. The information of each reference pattern also includes the information of the center coordinates thereof, and when the object is recognized, the RAM 15 is paired with the information of the object whose coordinates in the image data of the center coordinates of the reference pattern are recognized. be registered.

【0034】オブジェクト認識処理(ステップS5)が
終了すると、次にイベント認識処理(ステップS6)を
実行する。図20は、このイベント認識処理を示すフロ
ーチャートである。まず、五線認識処理で求められた五
線の情報と、オブジェクト認識処理で求められたオブジ
ェクトの座標情報とに基づき、音符の音高の認識を行う
(ステップS51)。このステップS51では、ステッ
プS43で求められたシャープ、フラットおよびナチュ
ラル等の音高を制御するための音楽記号と、音符の白丸
および黒丸と(必要ならばさらに小節線と)をまとめて
X軸方向についてソートして、時系列に並べ変え、各音
符を逐次五線に当てはめて音高を決める。なお、ステッ
プS51では、加線の部分については、原則的には、五
線の間隔Dを等倍した位置で音高を決定するが、実際に
は、加線の間隔は五線の間隔Dよりも広いことが多いの
で、それを考慮して、五線の間隔Dが例えば1.2倍等
の係数で広がっていくものとして音高を決定する。
When the object recognition processing (step S5) is completed, the event recognition processing (step S6) is executed next. FIG. 20 is a flowchart showing this event recognition processing. First, the pitch of a note is recognized based on the staff information obtained by the staff recognition processing and the coordinate information of the object obtained by the object recognition processing (step S51). In this step S51, the musical symbols for controlling the pitches such as the sharp, flat, and natural pitches obtained in step S43, and the white and black circles of the notes (and further bar lines if necessary) are collected together in the X-axis direction. , And rearrange them in chronological order, and apply each note to the staff to determine the pitch. In addition, in step S51, the pitch of the additional line is determined at a position that is equal to the interval D of the staff in principle, but in practice, the interval of the additional line is the interval D of the staff. Since the pitch is often wider than the above, the pitch is determined by taking this into consideration so that the interval D between the staffs expands with a coefficient such as 1.2 times.

【0035】次に、ステップS43のオブジェクトの判
別で得られた音符の符頭中心位置のX座標の近接の程度
を評価して、同時に鳴らすべき音を和音としてまとめる
(ステップS52)。即ち、和音の形態としては、図2
1のh1,h2,h3のように種々の形態が考えられる
が、h2の場合、同時に鳴らすべき音符の符頭中心のX
座標がDhだけずれることになる。この点を考慮して、
符頭中心のX座標の間隔Dhが五線の間隔D以内のとき
に和音とみなすようにする。なお、和音検出をより正確
に行う場合には、後述するステムの間隔についても評価
の対象とすればよい。
Next, the degree of proximity of the X coordinate of the note head center position of the note obtained by the object discrimination in step S43 is evaluated, and the sounds to be played at the same time are put together as a chord (step S52). That is, as the form of the chord,
Various forms are conceivable, such as h1, h2, and h3 of 1. However, in the case of h2, X at the center of the note head of the notes to be played simultaneously
The coordinates will shift by Dh. With this in mind,
When the interval Dh of the X coordinate of the notehead center is within the interval D of the staff, it is regarded as a chord. When the chord detection is performed more accurately, the interval between stems, which will be described later, may also be evaluated.

【0036】次に、音符の符頭に結合された縦棒(ステ
ム)の端の位置の評価を行う(ステップS53)。この
処理は、ビームまたは旗の数を探索及びカウントする際
に、探索を開始する点を決めるのに必要な処理である。
すなわち、図22に示すように、ステップS53では、
音符の右上および左下の端部を探索し、これらと符頭の
黒丸または白丸の中心位置(図中*で示す)との距離を
求め、より遠いほうをステム端(図中△で示す)の座標
とする。ステムの歪に対処するため、探索は、符頭中心
位置から左上、上、右上および右と、左、左下、下およ
び右下との2方向にドットを再帰的に行う。図22
(b)のように、符頭が白丸である場合は、中心点
「*」から上下左右を追跡し、黒ドットに当たったらと
ころから再帰的に追跡を始めるようにすると、楽譜の印
刷にかすれなどがあっても、確実に探索を行うことがで
きる。また、もし、オブジェクトとして認識された音符
の符頭が白丸で、その右上端部から中心点までの距離
と、その左上端部から中心点までの距離との差が少ない
ときは、単音の全音符とみなす。
Next, the position of the end of the vertical bar (stem) connected to the note head of the note is evaluated (step S53). This processing is necessary for determining the point to start the search when searching and counting the number of beams or flags.
That is, as shown in FIG. 22, in step S53,
Search for the upper right and lower left ends of the note, find the distance between them and the center position of the black or white circle of the note head (indicated by * in the figure), and the farther one is the stem end (indicated by Δ in the figure) Set as coordinates. In order to cope with the distortion of the stem, the search recursively performs dots in two directions from the center position of the notehead to the upper left, upper, upper right and right and left, lower left, lower and lower right. FIG. 22
If the notehead is a white circle as shown in (b), tracing up, down, left, and right from the center point "*", and recursively starting from the point where the black dot hits causes the printed score to fade. Even if there is such a case, the search can be surely performed. Also, if the notehead of a note recognized as an object is a white circle and the difference between the distance from its upper right end to its center point and the distance from its upper left end to its center point is small, the whole note Consider as a note.

【0037】ステム端の位置が検出されたら、ステム端
を基準として、ビームまたは旗のカウントを行う(ステ
ップS54)。即ち、図23に示すように、ステム端と
して検出された位置が符頭の右上デある場合には、ステ
ム端「△」を中心に左右にD/2だけ振った点からY方
向に沿い且つ下に向かって追跡を始める。追跡方向に連
続している画素ドットの数を数え、この値がステップS
31で述べたビームの幅のマージンに収まっていればカ
ウントし、和音の黒丸をビームとしてカウントしてしま
うのを防ぐため、ある程度空白が続けば追跡を中止す
る。一方、検出されたステム端が符頭の左下の点である
場合には、ステム端を中心に左右にD/2だけ振った点
からY方向に沿い且つ上に向かって追跡を始める。次
に、このようにしてカウントした、左右のビーム数を比
較し、音長が短いほう、すなわちビーム数の多いほうを
そのイベントの持つ音長として認識する。従って、図2
3の場合、検索対象となっている真ん中の音符は、右側
のビーム2本が優先されて16分音符として認識され
る。
When the position of the stem end is detected, the beam or flag is counted with the stem end as a reference (step S54). That is, as shown in FIG. 23, when the position detected as the stem end is in the upper right corner of the notehead, it is along the Y direction from the point where the stem end “Δ” is swung right and left by D / 2. Start chasing down. The number of consecutive pixel dots in the tracking direction is counted, and this value is used in step S
If the beam width is within the margin of the beam described in 31, counting is performed, and in order to prevent counting the black circles of the chord as a beam, the tracking is stopped if there is a gap to some extent. On the other hand, when the detected stem end is the lower left point of the notehead, tracking is started along the Y direction and upward from the point where the stem end is swung left and right by D / 2. Next, the numbers of left and right beams counted in this way are compared, and the shorter sound length, that is, the larger number of beams is recognized as the sound length of the event. Therefore, FIG.
In the case of 3, the middle note to be searched is recognized as a sixteenth note by giving priority to the two right beams.

【0038】次に、付点検出処理(ステップS55)が
実行される。例えば図22のように、符頭の中心点から
横に五線間隔D、上下にD/3の長方形の範囲で探索
し、充分に面積が小さく且つ画素ドットの分散が少ない
ドット群があればそれを、その音符に付属する付点と認
識する。最後に、ステップS43で認識された音符の情
報と、ステップS52およびステップS54で得られた
ビームまたは旗の数の情報とをもとにして音長を決定す
る。検出された付点があるときは、対応する音符の音長
に元の長さの半分を加えて音長とする(ステップS5
6)。このとき、先に求めた小節線の位置情報を利用し
て、1小節毎に音長を最終チェックすることにより、例
えば4/4拍子であるのに、3.5/4拍子分しか音符
が存在しない等のエラーを出力することができる。
Next, a dot detection process (step S55) is executed. For example, as shown in FIG. 22, if there is a dot group having a sufficiently small area and a small dispersion of pixel dots when searching in a rectangular range of a staff interval D horizontally and a D / 3 vertically from the center of the notehead. Recognize it as a dot attached to the note. Finally, the note length is determined based on the note information recognized in step S43 and the beam or flag number information obtained in steps S52 and S54. If there is a detected dot, a half length of the original length is added to the corresponding note length to obtain the note length (step S5).
6). At this time, by using the position information of the bar line obtained previously, the sound length is finally checked for each bar, so that only 3.5 / 4 beats of notes are recorded, for example, 4/4 beats. It is possible to output an error such as not existing.

【0039】このようにして、イベントの認識結果は、
楽譜の認識結果としてRAM15に適宜保存される。例
えば図24の楽譜の認識結果は、図25のようになる。
認識結果は、イベント番号、イベント種類、符長(4分
音符長を24クロックとしたときのクロック数)、同時
発生(和音)フラグより構成される。イベント番号は、
音符a〜e,h及び休止記号f,g等を特定する番号、
イベント種類は音符か休符かを示す情報及び音符の場合
にはC4,F3等の音高情報である。同時発生フラグが
「1」である場合には、その直前のイベント情報と和音
を構成する。
In this way, the event recognition result is
The score recognition result is appropriately stored in the RAM 15. For example, the recognition result of the musical score of FIG. 24 is as shown in FIG.
The recognition result includes an event number, an event type, a note length (the number of clocks when the quarter note length is 24 clocks), and a coincidence (chord) flag. The event number is
Numbers for identifying notes a to e, h and rest symbols f, g,
The event type is information indicating whether it is a note or a rest, and in the case of a note, pitch information such as C4 and F3. When the coincidence flag is "1", the chord and the event information immediately before that are formed.

【0040】イベント認識(ステップS6)が終了する
と、次に、得られた認識結果から、MIDIデータを作
成するための中間データである演奏データが作成される
(ステップS7)。即ち、図26に示すように、外部M
IDI音原装置2をコントロールするためには、求めら
れた符長からゲートタイム(実際のMIDIノートオン
データとノートオフデータの出力間隔で符長よりも短
い)を算出し、ノートオン及びノートオフのタイミング
を決定する必要がある。また、先行するイベントのノー
トオンタイミングから次のイベントのノートオンタイミ
ングまでの間隔、即ちデュレーションも決定する必要が
ある。そこで、図25に示した認識結果から、デュレー
ション、ノートナンバ及びゲートタイムを含んだ演奏デ
ータを生成する。
When the event recognition (step S6) is completed, next, performance data, which is intermediate data for creating MIDI data, is created from the obtained recognition result (step S7). That is, as shown in FIG.
In order to control the IDI sound source device 2, the gate time (shorter than the note length at the output interval of the actual MIDI note-on data and note-off data) is calculated from the obtained note length, and note-on and note-off are calculated. It is necessary to decide the timing of. It is also necessary to determine the interval from the note-on timing of the preceding event to the note-on timing of the next event, that is, the duration. Therefore, performance data including duration, note number and gate time is generated from the recognition result shown in FIG.

【0041】図27は、演奏データ作成のフローチャー
ト、図28は、この処理で作成される演奏データの一例
を示す図である。先ず、最初のノートイベントデータの
発生タイミングとしてデュレーションに「0」を書き込
むと共に、デュレーションレジスタ(DUR)を「0」
にリセットする(ステップS61)。次に、図25に示
すように、予めX軸方向にソートされているイベント情
報をイベント番号の若い方から順番に取り出して、その
イベントに続くイベントの同時発生フラグが「1」であ
るかどうかを判定して、同時発生イベントの有無を判定
する(ステップS62,63)。同時発生イベントがな
い場合には、符長を次のイベントまでのデュレーション
としてDURに格納するが(ステップS65)、同時発
生イベントがある場合には、その中で最短の符長を次の
イベントまでのデュレーションとしてDURに格納する
(ステップS65)。
FIG. 27 is a flow chart for creating performance data, and FIG. 28 is a diagram showing an example of performance data created by this processing. First, as the generation timing of the first note event data, "0" is written in the duration and the duration register (DUR) is set to "0".
(Step S61). Next, as shown in FIG. 25, the event information sorted in advance in the X-axis direction is taken out in order from the smallest event number, and whether or not the coincidence flags of the events following the event are “1”. To determine whether or not there is a simultaneous event (steps S62, 63). If there is no coincident event, the code length is stored in the DUR as the duration to the next event (step S65), but if there is a co-occurrence event, the shortest code length is stored until the next event. The duration is stored in the DUR (step S65).

【0042】続いて、イベントが音符であるかどうかを
判定し(ステップS66)、音符である場合に限り、音
高に対応したノートナンバを書き込むと共に、符長×
0.8をゲートタイムとして書き込む(ステップS6
7,68)。実際の楽器演奏では、スラーやスタッカー
ト気味の演奏を除き、ある音符の実際の発音期間は、符
長の0.8倍程度であることが多いためである。同時イ
ベントがある場合には、音符判定(ステップS66)及
びノートナンバ、ゲートタイム書き込み(ステップS6
7,S68)を繰り返す(ステップS69)。他に同時
発生イベントがない場合には、DURの内容をデュレー
ションとして書き込む(ステップS71)。この時、書
き込まれたデュレーションデータが2つ連続する場合、
すなわち休符が存在したためにノートナンバ、ゲートタ
イムが書き込まれなかった場合は、連続する2つのデュ
レーションデータを加算して新たなデュレーションデー
タに書き直す。全てのイベントについて演奏データを作
成したら、最後にエンドデータを書き込む(ステップS
70,72)。この処理により、図28に示すようなデ
ュレーション、ノートナンバ及びゲートタイムからなる
演奏データが求められる。
Subsequently, it is determined whether or not the event is a note (step S66), and only when it is a note, the note number corresponding to the pitch is written and the note length x
Write 0.8 as the gate time (step S6)
7, 68). This is because in actual musical instrument performance, the actual pronunciation period of a certain note is often about 0.8 times the note length, except for slur or staccato-like performance. If there is a simultaneous event, note determination (step S66), note number, gate time writing (step S6)
7, S68) is repeated (step S69). If there is no other simultaneous event, the contents of DUR are written as the duration (step S71). At this time, if two written duration data are consecutive,
That is, when the note number and the gate time are not written due to the presence of rests, two consecutive duration data are added and rewritten as new duration data. After creating performance data for all events, write the end data at the end (step S
70, 72). By this processing, performance data including duration, note number and gate time as shown in FIG. 28 is obtained.

【0043】最後に、求められた演奏データをもとに、
MIDIデータを作成し、外部MIDI音源装置2に出
力することにより、自動演奏処理を実行する(ステップ
S8)。ここでは、テンポに応じた一定周期のクロック
をカウントし、演奏データに含まれるデュレーションの
時間が経過したら、MIDIノートオンメッセージを出
力する。また、ノートオンを出力した時点から前記クロ
ックをカウントし、ゲートタイムの時間が経過したら、
MIDIノートオフメッセージを出力する。これらのM
IDIデータは、例えば図29に示すように、ノートオ
ン/オフ及び演奏チャンネルを示すステータスバイト、
音高を示すノートナンバ及び音の強さなどの情報である
ベロシティーの3バイトからなる。このうち、ベロシテ
ィーについては、アクセントやクレッシェンド、デクレ
ッシェンド等の強弱記号も認識した場合には、これらの
認識結果から作成してもよいし、認識した情報中にその
ようなデータがない場合には、スイッチ17を通じて適
宜入力・作成するようにしてもよい。
Finally, based on the obtained performance data,
By creating MIDI data and outputting it to the external MIDI tone generator device 2, automatic performance processing is executed (step S8). Here, a clock having a constant cycle corresponding to the tempo is counted, and when the duration of the duration included in the performance data has elapsed, a MIDI note-on message is output. Also, the clock is counted from the time when the note-on is output, and when the gate time elapses,
Outputs MIDI note-off message. These M
The IDI data is, for example, as shown in FIG. 29, a status byte indicating note on / off and a performance channel,
It consists of a note number that indicates the pitch and 3 bytes of velocity, which is information such as the strength of the sound. Among these, for velocity, if accents, crescendos, decrescendos, and other dynamic symbols are also recognized, it may be created from these recognition results, or if there is no such data in the recognized information. May be appropriately input / created through the switch 17.

【0044】このようにして、簡単な処理で楽譜を正確
に認識することができるので、処理速度の向上と必要な
メモリ容量の削減とを図ることができ、パーソナルコン
ピュータシステムを使用して実用に耐え得る楽譜認識を
行うことが可能となる。なお、上記の実施例では、楽譜
の認識結果から、一旦演奏データを作成した後にMID
Iデータを作成したが、認識結果から直接MIDIデー
タに変換するようにしてもよい。また、五線の傾きの求
め方は実施例のものに限らず、五線の左端と右端の座標
を求め、その値から傾きを求めるようにしてもよい。ま
た、傾きの補正はX軸方向の補正の後にY軸方向の補正
をするようにしてもよい。
In this way, since the musical score can be accurately recognized by a simple process, the processing speed can be improved and the required memory capacity can be reduced, and the personal computer system can be used for practical use. It becomes possible to carry out score recognition that can be endured. It should be noted that in the above embodiment, the MID is generated after the performance data is once created from the recognition result of the musical score.
Although the I data is created, the recognition result may be directly converted into MIDI data. Further, the method of obtaining the inclination of the staff is not limited to that of the embodiment, and the coordinates of the left and right ends of the staff may be obtained and the inclination may be obtained from the values. The inclination may be corrected in the Y-axis direction after the X-axis direction.

【0045】[0045]

【発明の効果】以上述べたように、この発明によれば、
五線及びビームが消去されることにより、音符及び記号
等を島状に残すことができ、パターンマッチングの領域
を限定することができると共に、ビーム部分を音符とし
て誤って認識してしまうことを防止することができるの
で、楽譜認識を効率よく行うことが可能になり、少ない
計算負荷で、しかも的確に楽譜上のイベントの認識を行
うことが可能となる。
As described above, according to the present invention,
By deleting the staff and beam, notes and symbols can be left in an island shape, the pattern matching area can be limited, and the beam portion is prevented from being mistakenly recognized as a note. Therefore, it becomes possible to efficiently recognize the score, and it is possible to accurately recognize the event on the score with a small calculation load.

【図面の簡単な説明】[Brief description of drawings]

【図1】 この発明の実施例に係る楽譜認識・自動演奏
システムブロック図である。
FIG. 1 is a block diagram of a score recognition / automatic performance system according to an embodiment of the present invention.

【図2】 同楽譜認識・自動演奏処理のフローチャート
である。
FIG. 2 is a flowchart of the musical score recognition / automatic performance process.

【図3】 同認識対象の楽譜の例を示す図である。FIG. 3 is a diagram showing an example of a score of the recognition target.

【図4】 同楽譜を読み込んで得られた原画像データと
そのプロジェクションとを示す図である。
FIG. 4 is a diagram showing original image data obtained by reading the score and a projection thereof.

【図5】 同五線認識傾斜補正処理のフローチャートで
ある。
FIG. 5 is a flowchart of the same staff recognition inclination correction process.

【図6】 図処理における水平成分抽出画像を示す図で
ある。
FIG. 6 is a diagram showing a horizontal component extracted image in the graphic processing.

【図7】 図処理における傾斜補正の方法を示す図であ
る。
FIG. 7 is a diagram showing a method of tilt correction in the graphic processing.

【図8】 同処理におけるY軸方向傾斜補正後の画像デ
ータを示すである。
FIG. 8 shows image data after Y-axis direction tilt correction in the same process.

【図9】 同処理におけるX軸方向傾斜補正後の画像デ
ータとプロジェクションとを示す図である。
FIG. 9 is a diagram showing image data and projection after X-axis tilt correction in the same process.

【図10】 同五線消去処理のフローチャートである。FIG. 10 is a flowchart of the same staff deleting process.

【図11】 同処理における太さ及び長さ弁別の方法を
説明するための図である。
FIG. 11 is a diagram for explaining a method of discriminating thickness and length in the same process.

【図12】 同処理で五線消去されたのちの画像データ
を示す図である。
FIG. 12 is a diagram showing image data after the staff is erased in the same process.

【図13】 同画像データの一部を拡大し比較例と共に
示した図である。
FIG. 13 is a diagram showing an enlarged part of the image data together with a comparative example.

【図14】 同ビーム認識消去処理を説明するための図
である。
FIG. 14 is a diagram for explaining the same beam recognition erasing process.

【図15】 同処理のフローチャートである。FIG. 15 is a flowchart of the same process.

【図16】 同オブジェクト認識処理のフローチャート
である。
FIG. 16 is a flowchart of the same object recognition process.

【図17】 同処理における外接長方形の決定方法を示
す図である。
FIG. 17 is a diagram showing a method of determining a circumscribed rectangle in the same process.

【図18】 同処理におけるレファレンスパターンを示
す図である。
FIG. 18 is a diagram showing a reference pattern in the same process.

【図19】 同処理におけるマッチング評価方法を示す
図である。
FIG. 19 is a diagram showing a matching evaluation method in the same process.

【図20】 同イベント認識処理のフローチャートであ
る。
FIG. 20 is a flowchart of the same event recognition process.

【図21】 同処理における和音判別の方法を示す図で
ある。
FIG. 21 is a diagram showing a chord discrimination method in the same process.

【図22】 同処理におけるステム端判別及び付点検出
方法を示す図である。
FIG. 22 is a diagram showing a stem end determination and dot detection method in the same process.

【図23】 同処理におけるビーム・旗カウントの方法
を示す図である。
FIG. 23 is a diagram showing a method of beam / flag counting in the same process.

【図24】 同イベント認識される楽譜の例を示す図で
ある。
FIG. 24 is a diagram showing an example of a musical score recognized in the event.

【図25】 同楽譜の認識結果を示す図である。FIG. 25 is a diagram showing a recognition result of the musical score.

【図26】 同認識結果で実際のMIDI音源を駆動す
るタイミングを示すタイムチャートである。
FIG. 26 is a time chart showing the timing of driving an actual MIDI sound source based on the recognition result.

【図27】 同演奏データ作成処理のフローチャートで
ある。
FIG. 27 is a flowchart of the performance data creating process.

【図28】 同処理で作成された演奏データを示す図で
ある。
FIG. 28 is a diagram showing performance data created by the same processing.

【図29】 同演奏データから作成されるMIDIデー
タを示す図である。
FIG. 29 is a diagram showing MIDI data created from the performance data.

【符号の説明】[Explanation of symbols]

1…楽譜認識装置、2…外部MIDI音源装置、3…出
力装置、11…システムバス、12…イメージスキャ
ナ、13…CPU、14…ROM、15…RAM、16
…タイマ、17…スイッチ、18…ディスプレイ、19
…MIDIインタフェース。
DESCRIPTION OF SYMBOLS 1 ... Score recognition device, 2 ... External MIDI sound source device, 3 ... Output device, 11 ... System bus, 12 ... Image scanner, 13 ... CPU, 14 ... ROM, 15 ... RAM, 16
... Timer, 17 ... Switch, 18 ... Display, 19
… MIDI interface.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 楽譜のイメージを読み取って得られた画
像データから前記楽譜中の五線、音符、記号及びそれら
の位置等を認識し、その認識結果に基づいて楽音の音
高、発音タイミング及び発音時間等の情報を生成する楽
譜認識装置において、 前記画像データから、五線を消去する五線消去手段と、 この五線消去手段で五線が消去された画像データから複
数の音符を結合するビームの太さに対応した所定の太さ
の画素ドットの連なりを弁別する太さ弁別手段と、 この太さ弁別手段で弁別された所定の太さの画素ドット
の連なりのうち所定の長さ以上の長さを有する連なりを
弁別する長さ弁別手段と、 この長さ弁別手段で弁別された画素ドットの連なりのう
ちその傾斜が所定の角度範囲内にある連なりを消去する
消去手段とを備え、 この消去手段で前記画素ドットの連なりが消去された画
像データから音符、記号及びそれらの位置等を認識する
ようにしたことを特徴とする楽譜認識装置。
1. A staff, a note, a symbol and their positions in the score are recognized from image data obtained by reading an image of the score, and based on the recognition result, the pitch of the musical tone, the sounding timing and In a musical score recognition apparatus for generating information such as pronunciation time, a staff deleting means for deleting a staff from the image data and a plurality of notes from the image data from which the staff is deleted by the staff deleting means. A thickness discriminating means for discriminating a series of pixel dots of a predetermined thickness corresponding to the thickness of the beam, and a predetermined length or more of the series of pixel dots of a predetermined thickness discriminated by the thickness discriminating means. A length discriminating means for discriminating a run having a length of, and an erasing means for erasing a run whose inclination is within a predetermined angle range among the run of pixel dots discriminated by the length discriminating means, This erase Music recognition apparatus characterized by succession of the pixel dots stage is to recognize notes, symbols and their position and the like from the erased image data.
JP5170998A 1992-08-03 1993-06-17 Music score recognition device Expired - Fee Related JP2734340B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5170998A JP2734340B2 (en) 1992-08-03 1993-06-17 Music score recognition device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP4-226390 1992-08-03
JP22639092 1992-08-03
JP5170998A JP2734340B2 (en) 1992-08-03 1993-06-17 Music score recognition device

Publications (2)

Publication Number Publication Date
JPH06102869A true JPH06102869A (en) 1994-04-15
JP2734340B2 JP2734340B2 (en) 1998-03-30

Family

ID=26493842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5170998A Expired - Fee Related JP2734340B2 (en) 1992-08-03 1993-06-17 Music score recognition device

Country Status (1)

Country Link
JP (1) JP2734340B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7842871B2 (en) 2007-12-21 2010-11-30 Canon Kabushiki Kaisha Sheet music creation method and image processing system
US8275203B2 (en) 2007-12-21 2012-09-25 Canon Kabushiki Kaisha Sheet music processing method and image processing apparatus
US8514443B2 (en) 2007-12-21 2013-08-20 Canon Kabushiki Kaisha Sheet music editing method and image processing apparatus
KR101412953B1 (en) * 2007-08-31 2014-07-01 전남대학교산학협력단 Method for removing the staff lines from a music score image
EP2924684A1 (en) 2014-03-26 2015-09-30 Yamaha Corporation Score displaying method and computer program
EP2924685A2 (en) 2014-03-26 2015-09-30 Yamaha Corporation Score displaying method and computer program
CN112133264A (en) * 2020-08-31 2020-12-25 广东工业大学 Music score recognition method and device

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101412953B1 (en) * 2007-08-31 2014-07-01 전남대학교산학협력단 Method for removing the staff lines from a music score image
US7842871B2 (en) 2007-12-21 2010-11-30 Canon Kabushiki Kaisha Sheet music creation method and image processing system
US8275203B2 (en) 2007-12-21 2012-09-25 Canon Kabushiki Kaisha Sheet music processing method and image processing apparatus
US8514443B2 (en) 2007-12-21 2013-08-20 Canon Kabushiki Kaisha Sheet music editing method and image processing apparatus
EP2924684A1 (en) 2014-03-26 2015-09-30 Yamaha Corporation Score displaying method and computer program
EP2924685A2 (en) 2014-03-26 2015-09-30 Yamaha Corporation Score displaying method and computer program
US9940914B2 (en) 2014-03-26 2018-04-10 Yamaha Corporation Score displaying method and storage medium
US10156973B2 (en) 2014-03-26 2018-12-18 Yamaha Corporation Score displaying method and storage medium
CN112133264A (en) * 2020-08-31 2020-12-25 广东工业大学 Music score recognition method and device
CN112133264B (en) * 2020-08-31 2023-09-22 广东工业大学 Music score recognition method and device

Also Published As

Publication number Publication date
JP2734340B2 (en) 1998-03-30

Similar Documents

Publication Publication Date Title
US5864631A (en) Method and apparatus for musical score recognition with quick processing of image data
US6137041A (en) Music score reading method and computer-readable recording medium storing music score reading program
JP2000148141A (en) Automatic composing device and storage medium
US10013963B1 (en) Method for providing a melody recording based on user humming melody and apparatus for the same
CN113674584B (en) Comprehensive conversion method and comprehensive conversion system for multiple music scores
JP2734340B2 (en) Music score recognition device
JP2682382B2 (en) Music score recognition device
JP2007122277A (en) Musical score recognition device and program
CN106097830A (en) Music score recognition method and device
Novotný et al. Introduction to Optical Music Recognition: Overview and Practical Challenges.
JP2682383B2 (en) Music score recognition device
US4953438A (en) Automatic performance apparatus storing and editing performance information
JP2867844B2 (en) Music score recognition device
JP2650605B2 (en) Music score recognition device
JP4399958B2 (en) Performance support apparatus and performance support method
US6414231B1 (en) Music score display apparatus with controlled exhibit of connective sign
JP4738135B2 (en) Music score recognition apparatus and music score recognition program
JP2005249844A (en) Device and program for performance indication
JP3753798B2 (en) Performance reproduction device
JP3835456B2 (en) Automatic composer and storage medium
JP2022151387A (en) Method for generating music information from musical score image and computing device thereof and program
JP2000242267A (en) Music learning assistance device and computer-readable recording medium where music learning assistance program is recorded
Akbari claVision: visual automatic piano music transcription
JP2979409B2 (en) Music score recognition method and apparatus
JP3445039B2 (en) Music score recognition device

Legal Events

Date Code Title Description
S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090109

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees